URL: https://www.overclockers.at/artificial-intelligence/ki-modelle-gpt-xlstm-stable-diffusion-etc_261430/page_9 - zur Vollversion wechseln!
Ja, aber zuerst musst das Modell trainieren und dazu brauchst halt gescheite gpus. Tippe auf mehrere Tesla v100. Trainieren kannst auch auf einer gpu, aber je mehr Parameter (modelllgröße) und trainingsdaten, desto schneller geht's halt.
GPT 4 released
https://openai.com/research/gpt-4
ZitatWe’ve created GPT-4, the latest milestone in OpenAI’s effort in scaling up deep learning. GPT-4 is a large multimodal model (accepting image and text inputs, emitting text outputs) that, while less capable than humans in many real-world scenarios, exhibits human-level performance on various professional and academic benchmarks.
ZitatThe ability to dump 32k tokens into a prompt (25,000 words) seems like it will drastically expand the reasoning capability and number of use cases. A doctor can put an entire patient's medical history in the prompt, a lawyer an entire case history, etc.
ZitatAfter watching the demos I'm convinced that the new context length will have the biggest impact. The ability to dump 32k tokens into a prompt (25,000 words) seems like it will drastically expand the reasoning capability and number of use cases. A doctor can put an entire patient's medical history in the prompt, a lawyer an entire case history, etc.
As a professional...why not do this? There's a non-zero chance that it'll find something fairly basic that you missed and the cost is several cents. Even if it just phrases something obvious in a way that makes you think, it's well worth the effort for a multimillion dollar client.
If they further increase the context window, this thing becomes a Second Opinion machine. For pretty much any high level job. If you can put in ALL of the information relevant to a problem and it can algorithmically do reasoning, it's essentially a consultant that works for pennies per hour. And some tasks that professionals do could be replaced altogether. Out of all the use cases for LLMs that I've seen so far, this seems to me to have the biggest potential impact on daily life.
edit (addition): What % of people can hold 25,000 words worth of information in their heads, while effectively reasoning with and manipulating it? I'm guessing maybe 10% at most, probably fewer. And they're probably the best in their fields. Now a computer has that ability. And anyone that has $20 for the OpenAI api can access it. This could get wild.
Meiner Erfahrung nach wie schon erwähnt eine exzellente Bullshit Bingo Maschine . Dadurch, dass man sich auf den Output einfach nicht verlassen kann, ist die Nützlichkeit stark beeinträchtigt.
Bei mir funzte es die letzten Male übrigens nicht, als ich es nutzen wollte. Immer Fehler, in der Konsole gibt's einen Network Error.
Zitat aus einem Post von xtrmDadurch, dass man sich auf den Output einfach nicht verlassen kann
@TOM, @xtrm: ich finde dazu den Beitrag von fefe ganz interessant => https://blog.fefe.de/?ts=9aee1dcb
Wobei er mMn die Latte relativ hoch legt. Wir erinnern uns an Seepocken ...
Auch das heise-Bsp. schlägt für mich in die selbe Kerbe, ein BS-Text wird für BS.Systeme am anderen Ende erzeugt. Wäre viel besser wenn "das andere Ende" auf BS-KI, BS-blockchain und jede andere BS-"Technology" (oder scam, je nachdem wie mans betrachtet) setzen würde. Da hätten wir alle was davon. Ich hatte vor ein paar Tagen grad wieder das Vergnügen mit so einem "intelligenten" System bei einem webshop, brrr.
"Früher(c)(r)" wurde sowas ja noch als "Expertensystem" gedacht, das war damals der new hot shit, hat aber irgendwie abgesehen von botanischen Bestimmungbüchern nie den Durchbrauch geschafft. So wie der holographische Speicher der seit den 80ern "in 2 Jahren marktreif ist".
Deshalb bin ich da eher skeptisch bei derartigen KIs (woebei, nein, eigentlich bei allen für wichtige Dinge/viele Parametern). Die David-Copperfield-Effekte die sowas aber jetzt gerade abliefert sind einerseits durcheaus beeindruckend, andererseits für mich eben kritisch zu betrachten.
Ich werde dieselbe Konversation mit ChatGPT über Raid-1 1:1 nochmal genauso führen wie vor nem Monat (in nem Monat oder so) um zu sehen ob die Antworten irgendwie unterschiedlich sind. Sprich ob das Ding wirklich 'lernt' oder einfach nur sich ne Zeitlang 'erinnert' was gechatted wurde und dann wieder auf seinen Default zurückfällt.
Zitat aus einem Post von JedimasterGenau hier gibt es den gefährlichen Irrglauben das 'irgenwann mal' die AI perfekt sein wird und die Antwort auf alles hat. Es wird IMMER Fehler geben, insofern kann man sich einfach nicht drauf verlassen, egal wie hoch die 'Successrate' ist.
Zitat aus einem Post von TOMinteressantes momentum derzeit, alle crypto & NFT bros sind auf den AI bandwagon aufgesprungen wie's scheint
Im Gegensatz zu Crypto zieht AI hoffentlich Leute an deren Interessen nicht mit Blackjack und Nutten abgedeckt sind...
Das "wird nie perfekt sein" Argument hatten wir in der Geschichte der Technik schon so oft, und jedes mal hat es sich früher oder später als falsch erwiesen.
Zitat aus einem Post von Vincihatten wir in der Geschichte der Technik schon so oft, und jedes mal hat es sich früher oder später als falsch erwiesen.
Zitat aus einem Post von TOMEs wird nie perfekt sein, es braucht nur besser als der Mensch sein...und der path ist eindeutig sichtbar imho
Same for autonomes Autofahren btw.
@ Haba
Ich sehe eine Zukunft in der wir uns AI generierte E-Mail Texte hin und her schicken, weil ja eigentlich keiner E-Mails schreiben/ausformulieren will.
Der prosa Generator, als Übergang bis wir drauf kommen endlich effizient zu kommunizieren.
Von was redest du bitte?Zitat aus einem Post von VinciDas "wird nie perfekt sein" Argument hatten wir in der Geschichte der Technik schon so oft, und jedes mal hat es sich früher oder später als falsch erwiesen.
was chatGPT halt sehr gut kann is style transfer.
es kann aus unstrukturierten infos sehr schöne sätze bilden oder bestimmte stile umwandeln wie bspw piratensprache usw.
was ich auch gerne verwende:
"rewrite the following text in a scientific manner"
oder
"create some bullet points of the following text"
is halt alles mehr oder weniger style transfer.
Was die leut nicht checken ist, dass es keine echte künstliche intelligenz ist.
Es is nur ein multi layer perceptron mit self-attention mechanismen welches aus einer input sequenz eine output sequenz erzeugt. Trainiert werden wie immer nur die Gewichte im Netz und halt die attention map der transformer blöcke. Das ist immer noch sooo weit weg von einer echten intelligenz. Funktionieren tuts trotzdem sehr geil, find ich.
Zitat aus einem Post von charminDas ist immer noch sooo weit weg von einer echten intelligenz
Zitat aus einem Post von TOM@ Haba
Ich möcht den thread nicht in Richtung autonomes Fahren derailen (obwohl sich langsam zeigt, dass man large language models sogar zum lösen von kreuzungssituationen im straßenverkehr verwenden kann) - aber es ist aus meiner sicht ganz einfach messbar und argumentierbar:
Wenn ein autonomes Fahrzeug um's x-fache (10fach, 100fach, 1000 fach, ....) sicherer fährt als der Mensch, wäre es dumm dies nicht einzusetzen.
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025