"We are back" « oc.at

KI-Modelle: GPT, xLSTM, Stable Diffusion, etc

phono 27.01.2023 - 13:10 249883 807 Thread rating
Posts

hynk

Vereinsmitglied
like totally ambivalent
Avatar
Registered: Apr 2003
Location: Linz
Posts: 11083
Irgendwie scheint mir das eine self-fulfilling prophecy zu sein.
Der Mensch hat Angst, dass sich die Maschine selbstständig macht, schreibt eben das nieder in Form von Sci-Fi. Die Geschichten sind Teil dessen, was LLMs als als Trainingsmaterial bekommen. Somit ergibt sich dieses naheliegende Verhaltensmuster, aber auch nur in 5% der Fälle der Studie.

Aber ja, vollkommen übertrieben aufgeblasen die News.

Was mich aktuell am heftigsten Schreckt ist die Vorstellung, meine Kinder wachsen in einer Welt auf, in der ein Foto, eine Tonaufnahme oder Video nicht mehr der Goldstandard der Wahrheit ist. Lässt sich jetzt drüber streiten obs das jemals war, aber unbestreitbar ist es heute um ein vielfaches einfacher Fakes in hoher Qualität und Quantität zu produzieren.


Dagegen sind die schrillen Flashvideos unserer Jugend ein Lärcherlschas. Look at my Horse, my ass.


Und what the actual **** haben die Leut mit Gordon Ramsay


Ich mein, der hat ja sogar die Pyramiden gebaut. Fakt:
https://youtube.com/shorts/mAheJsu7...4KlDcisMjtx9qOF

~PI-IOENIX~

Pappenschlosser
Avatar
Registered: Nov 2002
Location: mühl4tl / graz
Posts: 4721
Gordon Ramsey hasst diesen Trick hahaha

Dune

Dark mode
Registered: Jan 2002
Location: Wien
Posts: 10436
Ihr habt das sicher auch schon gehört dass fast alle LLMs dieses "thinking" als delayed response künstlich fabrizieren, aber und den User dann vorgeben, dass das Modell gerade nachdenken würde. In Wirklichkeit gibt es diesen Delay nicht in der Form.

Ich find's bei GPT beim scrollen für längeren prompts z.B. recht mühsam. Habe mal ein bisschen geschaut ob es da Optionen in der UI gibt, leider nichts gefunden. GPT tut auch so, als wäre das fix :)

Hat sich da jemand schon mal damit gespielt?

Longbow

Here to stay
Avatar
Registered: Feb 2003
Location: Homeoffice
Posts: 5495
Das thinking wär mir noch wurscht, aber ich zuck bei chatGPT regelmäßig aus weil es diese elendslahme "typing animation" macht. Das braucht genau NIEMAND - gib einfach den full answer body retour, kkthxbye.

Dune

Dark mode
Registered: Jan 2002
Location: Wien
Posts: 10436
Na mich kostet's manchmal schon viel Zeit, wenn der prompt 1-2 Minuten generiert und ich schon in den ersten drei Zeilen sehe, dass ich eigentlich die Antwort nicht gebrauchen kann. Ist ne nette Show, aber auch total unnötig

BiG_WEaSeL

Elder
-
Avatar
Registered: Jun 2000
Location: Wien
Posts: 8405
Ist das bei gpt wirklich unnötig? bei meinen lokalen llms wird währenddessen wirklich gearbeitet.

Dune

Dark mode
Registered: Jan 2002
Location: Wien
Posts: 10436
Das stimmt, aber bei der Leistung von gängigen Anbietern im Hintergrund dauern die prompts nicht so lange, wie es dem User vorgegaukelt wird. Ich habe oft prompts die 3-5 Minuten dauern mit dem "print per line" schema, obwohl die reine Rechenzeit im Hintergrund wesentlich schneller wäre.

Daeda

Here to stay
Registered: Aug 2007
Location: Graz
Posts: 1592
habt ihr die free version? gibt da glaub ich ordentlich unterschied und wurde zumindest vor ein paar monaten damit als einer der hauptgründe fürs bezahlabo gelistet.

beim copilot in der IDE gehn die antworten zB rucki-zucki. einzig mit dem o1-preview model "überlegt" es wirklich bis zu einer minute, bevor es dann recht schnell hunderte zeilen code innerhalb von ein paar sekunden ausspuckt.

Longbow

Here to stay
Avatar
Registered: Feb 2003
Location: Homeoffice
Posts: 5495
Zitat aus einem Post von Daeda
habt ihr die free version? gibt da glaub ich ordentlich unterschied und wurde zumindest vor ein paar monaten damit als einer der hauptgründe fürs bezahlabo gelistet.

beim copilot in der IDE gehn die antworten zB rucki-zucki. einzig mit dem o1-preview model "überlegt" es wirklich bis zu einer minute, bevor es dann recht schnell hunderte zeilen code innerhalb von ein paar sekunden ausspuckt.
hab gpt-pro (also das "Normale" ned das neue um 200er im Monat :D), verwende es aber fast nie für code - eher als google++, wo ich mich dann direkt über eine Frage oder ein Thema wie mit einem chatbot unterhalte, zur text generation von sachen wo es mir "wurscht is" - und da denkt er ned so lang nach, "tippt" aber einfach EWIGKEITEN. Der ärgste Philosoph ist aber o1 (non-mini) dafür sind die Antworten, wenn der prompt gut war, durchaus brauchbar.

wenn überhaupt code, dann maximal performance/security relevantes code review vom claude, für nicht-berufliches wo ich nicht so firm bin (embedded cpp)

hynk

Vereinsmitglied
like totally ambivalent
Avatar
Registered: Apr 2003
Location: Linz
Posts: 11083
Zitat aus einem Post von Dune
Ihr habt das sicher auch schon gehört dass fast alle LLMs dieses "thinking" als delayed response künstlich fabrizieren, aber und den User dann vorgeben, dass das Modell gerade nachdenken würde. In Wirklichkeit gibt es diesen Delay nicht in der Form.

Ich find's bei GPT beim scrollen für längeren prompts z.B. recht mühsam. Habe mal ein bisschen geschaut ob es da Optionen in der UI gibt, leider nichts gefunden. GPT tut auch so, als wäre das fix :)

Hat sich da jemand schon mal damit gespielt?

Ist das so?
Also ja, dass die responses schneller gehen würden wenn es nicht "getippt" wäre, klar. Aber das was du "thinking" nennst, ist ja dazu da um das Ergebnis weiter zu raffinieren, weshalb o1-preview (bei o1 trau ich mich es nicht zu behaupten) auch bei schlechten prompts bessere Ergebnisse liefert. Das LLM leistet interpretiert hier die Aufgabe, gleicht das Ergebnis mit dem prompt ab, erstellt selbst prompts um das Ergebnis zu verifizieren, etc und spuckt nicht einfach nur common internet knowledge aus.

Lasse mich gerne eines besseren belehren.

Mich nervt die lange Wartezeit nicht wirklich. Wenns schnell gehen muss, als google Ersatz wird eben ein entsprechend flottes Modell gewählt. Wenn ich etwas komplexeres benötige wird es eben Claude oder o1, wo ich dann nebenbei die Zeit nutze um selbst zu recherchieren zum Thema, oder die Idee weiter zu spinnen.

Es lohnt sich übrigens sehr, im Memory oder in den Custom Instructions festzuhalten, welche responses man per default will. Wenn die Antworten zu ausschweifend sind, dann muss man eben da ansetzen. "No bullshitting" oder "Bitte kein bla bla" wirkt wunder.

mr.nice.

differential image maker
Avatar
Registered: Jun 2004
Location: Wien
Posts: 6577
OpenAI o3 dürfte sehr mächtig sein, eine einzelne Abfrage kostet aber zwischen 20$ und mehr als 1000$, weil LLM-Programme weitere Unterprogramme aufrufen, die in Summe Millionen Tokens verbrauchen können. Geplant ist eine Mini-Version von o3 für Januar 2025. Aktuell ist o3 nicht für die Öffentlichkeit freigegeben. Forscher können sich derzeit für einen Early Access bewerben.

Bearbeitet von mr.nice. am 03.01.2025, 11:33

Kirby

0x20
Avatar
Registered: Jun 2017
Location: Lesachtal/Villac..
Posts: 980
Beim Abspielen dieses Videos werden Daten an YouTube übermittelt. Durch einen Klick auf das Video wird es automatisch abgespielt und du akzeptierst damit die Datenschutzerklärung von YouTube bzw. Google.

TL:DR
Die Chinesen haben ein Open Source Llm rausgebracht.
o4 performance mit dem 20gb Modell.
größte Modell ist um die 404gb und braucht sehr potente hardware. aug ollama auch schon verfügbar.

SergejMolotow

Here to stay
Registered: Jan 2003
Location: Graz
Posts: 1010
o3-mini ist schon faszinierend u erschreckend zugleich

Daeda

Here to stay
Registered: Aug 2007
Location: Graz
Posts: 1592
hat mich echt gewundert, dass der das snake game so easy mit einfachen prompts hinbekommen hat, ohne großartig iterieren zu müssen. dann hab ich mir gedacht, das liegt fix an python!

als vergleich hab ichs jetzt mit bolt.new erstellt und ich bin erstaunt!

https://snake-via-bolt.netlify.app/

hier die 4 einfachen prompts, 5 mit deployment:
click to enlargeclick to enlargeclick to enlargeclick to enlargeclick to enlarge

liegt also nicht an python. snake ist wohl einfach ein gutes beispiel weils davon schon tausende beispiele gibt, von denen die AIs gelernt haben. aber auch die custom wünsche die ich angegeben hab, haben sofort tadellos fasziniert. also geht das auch ohne o3 schon ganz gut - bolt.new benutzt glaub ich claude sonnet 3.5

/e und der schluss vom o3 video ist natürlich noch ein ganz anderer level, dass er ein ML algo bauen lässt und das auch passiert, wow.
bei bolt bin ich da leider gerade ans rate-limit gestoßen, sonst hätt ich das auch noch probiert :D
Bearbeitet von Daeda am 20.02.2025, 23:20

sk/\r

i never asked for this
Avatar
Registered: Dec 2002
Location: oö
Posts: 11136
aus einem gestrigen chat mit gpt. will ich euch nicht vorenthalten bzw. ist es imo ziemlich wild was eine AI so über AI denkt. ;)

click to enlarge

click to enlarge

click to enlarge

click to enlarge

click to enlarge

click to enlarge

click to enlarge

click to enlarge

click to enlarge

click to enlarge

click to enlarge

click to enlarge

click to enlarge

click to enlarge

click to enlarge
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz