KI-Modelle: GPT, xLSTM, Stable Diffusion, etc - Seite 16

Seite 16 von 54 - Forum: Artificial Intelligence auf overclockers.at

URL: https://www.overclockers.at/artificial-intelligence/ki-modelle-gpt-xlstm-stable-diffusion-etc_261430/page_16 - zur Vollversion wechseln!


charmin schrieb am 25.03.2023 um 12:16

Herst Bender :D

@Hansmaulwurf: aber ja, könnte man drüber streiten was genau jetzt mit probieren gemeint is. Theoretisch probierst nach jedem Trainingsbatch indemst auf dem validation set schaust wie gut das Netz generalisiert.

edit: is das jetz offtopic? Wohl eher schon.


schrieb am 25.03.2023 um 12:35

ja, völlig, ich dachte ich rede mit meiner älteren Sister, sie kenn siggi ;)


Hansmaulwurf schrieb am 25.03.2023 um 12:44

Zitat aus einem Post von charmin
Ja, aber einstellen tust du den hyperparameter net während des trainings.Du definierst vorm Training das Verhalten und dann läuft das. Selbes mir temperature annealing bei softmax.
Ja, aber:
Zitat aus einem Post von charmin
Probiert wird da nix, sondern Parameter angepasst die den Fehler verringern.
Dropout Layer droppen zufällig inputs während einzelnen Traininsschritten. Wenn sich das als vorteilhaft erweist, dann wird das übernehmen, insofern _probiert_ das Modell während dem Training Konfigurationsänderungen an der Struktur des Netzes.



Zitat aus einem Post von charmin
Edit: um was es mir geht: wenn irgendein Hansl im Netz Chat gpt nutzt und dem als input irgend ein Wissen gibt. Dann wird das nicht einfach so übernommen.
Nein, aber es gibt einen reinforcement learning process wo er anhand von sowas lernen kann, bzw. sogar trainiert wurde:
Zitat
The creators have used a combination of both Supervised Learning and Reinforcement Learning to fine-tune ChatGPT, but it is the Reinforcement Learning component specifically that makes ChatGPT unique. The creators use a particular technique called Reinforcement Learning from Human Feedback (RLHF), which uses human feedback in the training loop to minimize harmful, untruthful, and/or biased outputs.
https://www.assemblyai.com/blog/how...actually-works/
Ich weiß aber nicht ob das Inputs sind von den Leuten die das supervised learning überwachen oder auch inputs die irgendwo von normalen Usern eingegeben wurden.


charmin schrieb am 25.03.2023 um 12:51

Hach, endlich jemand mit dem ich hier drüber quatschen kann. Wollen wir an eigenen thread machen? :)


Hansmaulwurf schrieb am 25.03.2023 um 12:59

Über die Chatgpt details können wir gerne quatschen, aber bei den neuronalen Netzen bin ich nur seh oberflächlich informiert, da ist mein Input quasi eh schon aus :D


charmin schrieb am 25.03.2023 um 14:27

Ich bin auch nur gschaftler, keine Sorge. :D ich mach dann mal einen auf.


charmin schrieb am 25.03.2023 um 19:13


Vielleicht zieh ich mir das mal rein. Wenn die Videos vom lex ned immer so lange dauern würden...


schrieb am 30.03.2023 um 20:30

@ Charmin THX - schau ich grad..


Wissen sie mehr, oder..

Eine ethisch/moralische Basis für solche Einheiten wäre wünschenswert aber ich zweifle daran, weil das wohl zu einem großen teil vom Militär ausgeht.

Spannende Zeiten..


InfiX schrieb am 30.03.2023 um 20:32

naja was muss man dafür groß wissen, sieht man doch... aber die katze ist leider schon ausm sack.


schrieb am 30.03.2023 um 20:34

Wir haben derzeit noch keine General MI/AI.. und darum gehts


charmin schrieb am 30.03.2023 um 20:37

Microsoft verdient sauviel Kohle mit ihrem neuen Produkt.
Apple und Musk: mimimimi.


schrieb am 30.03.2023 um 20:41

Die sehr spezifischen Ansätze die wir momentan haben, sind noch Jahre(zehnte) von etwas wirklich gefährlichem entfernt. Man sollte nur anfangen drüber nachzudenken. Denke ich - als lesser Intelligence ;)


Vinci schrieb am 30.03.2023 um 20:41

Zitat aus einem Post von charmin
Microsoft verdient sauviel Kohle mit ihrem neuen Produkt.
Apple und Musk: mimimimi.

Wozniak und Mostaque (CEO von Stability AI) haben ebenfalls unterzeichnet.

Ich persönlich bin aber trotzdem gegen jegliche Regulierung. Wenn wir uns selbst vernichten ham mas einfach verdient. :)


schrieb am 30.03.2023 um 20:42

Regulierung wird sowieso nicht funktionieren _> cos Militär


charmin schrieb am 30.03.2023 um 20:50

Zitat aus einem Post von Vinci
Wozniak und Mostaque (CEO von Stability AI) haben ebenfalls unterzeichnet.

Ich persönlich bin aber trotzdem gegen jegliche Regulierung. Wenn wir uns selbst vernichten ham mas einfach verdient. :)

Also noch zwei die nicht dran verdienen. Cool.

Bitte schaltets alles ab a halbes Jahr damit wir auch was aufn markt werfen können. :D




overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025