hynk
Vereinsmitgliedlike totally ambivalent
|
Irgendwie scheint mir das eine self-fulfilling prophecy zu sein. Der Mensch hat Angst, dass sich die Maschine selbstständig macht, schreibt eben das nieder in Form von Sci-Fi. Die Geschichten sind Teil dessen, was LLMs als als Trainingsmaterial bekommen. Somit ergibt sich dieses naheliegende Verhaltensmuster, aber auch nur in 5% der Fälle der Studie. Aber ja, vollkommen übertrieben aufgeblasen die News. Was mich aktuell am heftigsten Schreckt ist die Vorstellung, meine Kinder wachsen in einer Welt auf, in der ein Foto, eine Tonaufnahme oder Video nicht mehr der Goldstandard der Wahrheit ist. Lässt sich jetzt drüber streiten obs das jemals war, aber unbestreitbar ist es heute um ein vielfaches einfacher Fakes in hoher Qualität und Quantität zu produzieren. Wi-Fi Kingdom | A Sora Film by Ryan Turner Dagegen sind die schrillen Flashvideos unserer Jugend ein Lärcherlschas. Look at my Horse, my ass. Und what the actual **** haben die Leut mit Gordon Ramsay Gordon Ramsay lets AI control his life Ich mein, der hat ja sogar die Pyramiden gebaut. Fakt: https://youtube.com/shorts/mAheJsu7...4KlDcisMjtx9qOF
|
~PI-IOENIX~
Pappenschlosser
|
Gordon Ramsey hasst diesen Trick hahaha
|
Dune
Dark mode
|
Ihr habt das sicher auch schon gehört dass fast alle LLMs dieses "thinking" als delayed response künstlich fabrizieren, aber und den User dann vorgeben, dass das Modell gerade nachdenken würde. In Wirklichkeit gibt es diesen Delay nicht in der Form. Ich find's bei GPT beim scrollen für längeren prompts z.B. recht mühsam. Habe mal ein bisschen geschaut ob es da Optionen in der UI gibt, leider nichts gefunden. GPT tut auch so, als wäre das fix  Hat sich da jemand schon mal damit gespielt?
|
Longbow
Here to stay
|
Das thinking wär mir noch wurscht, aber ich zuck bei chatGPT regelmäßig aus weil es diese elendslahme "typing animation" macht. Das braucht genau NIEMAND - gib einfach den full answer body retour, kkthxbye.
|
Dune
Dark mode
|
Na mich kostet's manchmal schon viel Zeit, wenn der prompt 1-2 Minuten generiert und ich schon in den ersten drei Zeilen sehe, dass ich eigentlich die Antwort nicht gebrauchen kann. Ist ne nette Show, aber auch total unnötig
|
BiG_WEaSeL
Elder-
|
Ist das bei gpt wirklich unnötig? bei meinen lokalen llms wird währenddessen wirklich gearbeitet.
|
Dune
Dark mode
|
Das stimmt, aber bei der Leistung von gängigen Anbietern im Hintergrund dauern die prompts nicht so lange, wie es dem User vorgegaukelt wird. Ich habe oft prompts die 3-5 Minuten dauern mit dem "print per line" schema, obwohl die reine Rechenzeit im Hintergrund wesentlich schneller wäre.
|
Daeda
Here to stay
|
habt ihr die free version? gibt da glaub ich ordentlich unterschied und wurde zumindest vor ein paar monaten damit als einer der hauptgründe fürs bezahlabo gelistet.
beim copilot in der IDE gehn die antworten zB rucki-zucki. einzig mit dem o1-preview model "überlegt" es wirklich bis zu einer minute, bevor es dann recht schnell hunderte zeilen code innerhalb von ein paar sekunden ausspuckt.
|
Longbow
Here to stay
|
habt ihr die free version? gibt da glaub ich ordentlich unterschied und wurde zumindest vor ein paar monaten damit als einer der hauptgründe fürs bezahlabo gelistet.
beim copilot in der IDE gehn die antworten zB rucki-zucki. einzig mit dem o1-preview model "überlegt" es wirklich bis zu einer minute, bevor es dann recht schnell hunderte zeilen code innerhalb von ein paar sekunden ausspuckt. hab gpt-pro (also das "Normale" ned das neue um 200er im Monat  ), verwende es aber fast nie für code - eher als google++, wo ich mich dann direkt über eine Frage oder ein Thema wie mit einem chatbot unterhalte, zur text generation von sachen wo es mir "wurscht is" - und da denkt er ned so lang nach, "tippt" aber einfach EWIGKEITEN. Der ärgste Philosoph ist aber o1 (non-mini) dafür sind die Antworten, wenn der prompt gut war, durchaus brauchbar. wenn überhaupt code, dann maximal performance/security relevantes code review vom claude, für nicht-berufliches wo ich nicht so firm bin (embedded cpp)
|
hynk
Vereinsmitgliedlike totally ambivalent
|
Ihr habt das sicher auch schon gehört dass fast alle LLMs dieses "thinking" als delayed response künstlich fabrizieren, aber und den User dann vorgeben, dass das Modell gerade nachdenken würde. In Wirklichkeit gibt es diesen Delay nicht in der Form.
Ich find's bei GPT beim scrollen für längeren prompts z.B. recht mühsam. Habe mal ein bisschen geschaut ob es da Optionen in der UI gibt, leider nichts gefunden. GPT tut auch so, als wäre das fix 
Hat sich da jemand schon mal damit gespielt? Ist das so? Also ja, dass die responses schneller gehen würden wenn es nicht "getippt" wäre, klar. Aber das was du "thinking" nennst, ist ja dazu da um das Ergebnis weiter zu raffinieren, weshalb o1-preview (bei o1 trau ich mich es nicht zu behaupten) auch bei schlechten prompts bessere Ergebnisse liefert. Das LLM leistet interpretiert hier die Aufgabe, gleicht das Ergebnis mit dem prompt ab, erstellt selbst prompts um das Ergebnis zu verifizieren, etc und spuckt nicht einfach nur common internet knowledge aus. Lasse mich gerne eines besseren belehren. Mich nervt die lange Wartezeit nicht wirklich. Wenns schnell gehen muss, als google Ersatz wird eben ein entsprechend flottes Modell gewählt. Wenn ich etwas komplexeres benötige wird es eben Claude oder o1, wo ich dann nebenbei die Zeit nutze um selbst zu recherchieren zum Thema, oder die Idee weiter zu spinnen. Es lohnt sich übrigens sehr, im Memory oder in den Custom Instructions festzuhalten, welche responses man per default will. Wenn die Antworten zu ausschweifend sind, dann muss man eben da ansetzen. "No bullshitting" oder "Bitte kein bla bla" wirkt wunder.
|
mr.nice.
differential image maker
|
OpenAI o3 dürfte sehr mächtig sein, eine einzelne Abfrage kostet aber zwischen 20$ und mehr als 1000$, weil LLM-Programme weitere Unterprogramme aufrufen, die in Summe Millionen Tokens verbrauchen können. Geplant ist eine Mini-Version von o3 für Januar 2025. Aktuell ist o3 nicht für die Öffentlichkeit freigegeben. Forscher können sich derzeit für einen Early Access bewerben. OpenAI o3 Breakthrough High Score on ARC-AGI-PubOpenAI o3 scores 75.7% on ARC-AGI public leaderboard. Link: arcprize.org
Bearbeitet von mr.nice. am 03.01.2025, 11:33
|
Kirby
0x20
|
TL  R Die Chinesen haben ein Open Source Llm rausgebracht. o4 performance mit dem 20gb Modell. größte Modell ist um die 404gb und braucht sehr potente hardware. aug ollama auch schon verfügbar.
|
SergejMolotow
Here to stay
|
o3-mini ist schon faszinierend u erschreckend zugleich o3-mini is the FIRST DANGEROUS Autonomy Model | INSANE Coding and ML Abilities OpenAI launcht o3-mini, sein bisher günstigstes, aber auch gefährlichstes AI-ModellIn einer Woche, in der eineeinzige junge AI-Firma aus China die komplette KI-Welt auf den Kopf gestellt hat, darf OpenAI mit einer Antwort nicht fehlen. Link: www.trendingtopics.eu
|
Daeda
Here to stay
|
hat mich echt gewundert, dass der das snake game so easy mit einfachen prompts hinbekommen hat, ohne großartig iterieren zu müssen. dann hab ich mir gedacht, das liegt fix an python! als vergleich hab ichs jetzt mit bolt.new erstellt und ich bin erstaunt! https://snake-via-bolt.netlify.app/hier die 4 einfachen prompts, 5 mit deployment:      liegt also nicht an python. snake ist wohl einfach ein gutes beispiel weils davon schon tausende beispiele gibt, von denen die AIs gelernt haben. aber auch die custom wünsche die ich angegeben hab, haben sofort tadellos fasziniert. also geht das auch ohne o3 schon ganz gut - bolt.new benutzt glaub ich claude sonnet 3.5 /e und der schluss vom o3 video ist natürlich noch ein ganz anderer level, dass er ein ML algo bauen lässt und das auch passiert, wow. bei bolt bin ich da leider gerade ans rate-limit gestoßen, sonst hätt ich das auch noch probiert
Bearbeitet von Daeda am 20.02.2025, 23:20
|
sk/\r
i never asked for this
|
|