"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

KI-Modelle: GPT, xLSTM, Stable Diffusion, etc

phono 27.01.2023 - 13:10 207312 740 Thread rating
Posts

Vinci

hatin' on summer
Registered: Jan 2003
Location: Wien
Posts: 5815
Der Content den ich konsumiere wird ausschließlich von Leuten mit Leidenschaften produziert die sich an feuchtn Schaß dafür interessieren "ob sichs rechnet" oder nicht. Wenn B$ Content durch ChatGPT und Co weniger wird, dann bitte nur her damit.

Viper780

Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 49816
Zitat aus einem Post von folex
Das habe ich versucht weiter oben anzusprechen. Wenn der Anreiz guten Content zu erstellen fällt (weil die AI so viele Anfragen abdeckt das es sich die Arbeit nicht mehr rechnet), dann stagniert das System.

Wenn die AI laufend selbstlernend wird und noch Anreize für guten Content erhalten bleiben, wird die AI besser, der zu Grunde liegende Content jedoch vermutlich recht schnell wieder obsolet.

Naja, man wird's sehen.

Und genau da setzt meine Annahme an - die AI ersetzt eben die "billig" Contents die jetzt schon keiner braucht. Aber der gute den man jetzt suchen muss sollte in Zukunft übrig bleiben, da es für die low hanging fruits dann keine Berechtigung mehr gibt

Zitat aus einem Post von böhmi
Wenn jetzt noch eine AI kommt, die die relevanten Daten aus einem elendig reißerischen 20 Minuten Video raus zu saugen und schön tabellarisch aufzubereiten, dann würde ich wirklich Geld dafür zahlen.

Genau das ist die Anwendung auf die ich sehr sehr stark hoffe.
Ich kann nicht mal mit 0,1% der YT Video was anfangen. Aber oft findet man keine geschriebenen Anleitungen oder Reviews mehr

pinkey

Here to stay
Registered: Nov 2003
Location: Tirol/Wien
Posts: 2274
Glaubt’s ihr eigentlich ob das von MS auch bissl ein Marketing Move war?
Erster die Leute anfixen mit „gratis“ Abfragen damit’s in aller Munde ist und jetzt in die Produkte einbauen.

Sie sind halt für so einen Konzern doch recht flott mit der Umsetzung …

h4de5

-
Avatar
Registered: Sep 2001
Location: bgld
Posts: 1112
Zitat aus einem Post von pinkey
Glaubt’s ihr eigentlich ob das von MS auch bissl ein Marketing Move war?
Erster die Leute anfixen mit „gratis“ Abfragen damit’s in aller Munde ist und jetzt in die Produkte einbauen.

nööö.. reine nächstenliebe.. und zum wohle der menschheit.

mr.nice.

differential image maker
Avatar
Registered: Jun 2004
Location: Wien
Posts: 6449
Ich denke, dass diese Art von AI's auch das online business revolutionieren könnten, sobald Echtzeitdaten eingepflegt werden bzw. automatisiert abgefragt werden können. Z.B. "ChatGPT, bestelle mir eine RTX 5090 beim günstigsten Anbieter den du finden kannst, hier meine Zahlungsinformationen:.."
Bearbeitet von mr.nice. am 08.02.2023, 11:22

Daeda

Here to stay
Registered: Aug 2007
Location: Graz
Posts: 1532
auf bing.com ist seit gestern/heute eine preview von ihrer "AI search" zu sehen. man kann sich jetzt für die "warteliste" anmelden, ab märz soll es dann für alle live gehen.

mehr infos + anmeldung für early access unter https://www.bing.com/new


(hint: die deutsche übersetzung ist lächerlich schlecht :D Set Microsoft-Defaults on your PC = Satz Microsoft-Standardwerte auf Ihrem PC)

TOM

Super Moderator
Oldschool OC.at'ler
Avatar
Registered: Nov 2000
Location: Vienna
Posts: 7362
Ich würde gerne folgendes besser verstehen:

Wie schaut der operative Betrieb bzw. die System-Architektur von AI-Systemen ala ChatGPT aus, wo (zig)tausende(?) requests pro Sekunde reinprasseln?

Ich finde viele Infos zu AI Modell learning, Software-Stacks, optimizing, tuning, etc. aber nichts wie diese Teile im operativen Betrieb eigentlich ausschauen. Würde mich brennend interessieren. Ich finde nur viel Buzzword-blabla wie magische Software-Stacks ala Ray, aber ich möchte das Engineering dahinter auf Systemebene besser verstehen.

Ich komme aus einer Welt mit verschiedensten Caches, Frontend, Middleware, Datenbanken und entsprechender horizontalen und vertikalen Skalierung - nur wie schaut dies in der AI Welt aus, in der man (aus meiner Sicht) nichts wirklich cachen kann und das AI Modell hunderte GB hat... wie hält man sowas performant bei n-requests?!

Falls da wer gute Infoquellen kennt, bitte her damit

Daeda

Here to stay
Registered: Aug 2007
Location: Graz
Posts: 1532
Zitat aus einem Post von TOM
Ich würde gerne folgendes besser verstehen:

Wie schaut der operative Betrieb bzw. die System-Architektur von AI-Systemen ala ChatGPT aus, wo (zig)tausende(?) requests pro Sekunde reinprasseln?

Ich finde viele Infos zu AI Modell learning, Software-Stacks, optimizing, tuning, etc. aber nichts wie diese Teile im operativen Betrieb eigentlich ausschauen. Würde mich brennend interessieren. Ich finde nur viel Buzzword-blabla wie magische Software-Stacks ala Ray, aber ich möchte das Engineering dahinter auf Systemebene besser verstehen.

Ich komme aus einer Welt mit verschiedensten Caches, Frontend, Middleware, Datenbanken und entsprechender horizontalen und vertikalen Skalierung - nur wie schaut dies in der AI Welt aus, in der man (aus meiner Sicht) nichts wirklich cachen kann und das AI Modell hunderte GB hat... wie hält man sowas performant bei n-requests?!

Falls da wer gute Infoquellen kennt, bitte her damit

ich hab da eine interne quelle, der hab ich deine anfrage 1:1 weitergeben. hier die antwort:

Zitat
Der Betrieb von AI-Systemen wie ChatGPT unterscheidet sich in einigen Aspekten von traditionellen Web-Anwendungen, aber viele Konzepte und Technologien sind ähnlich.

Um den Bedarf an Performance bei einer großen Anzahl von Anfragen zu bewältigen, werden in der Regel mehrere Instanzen des AI-Modells auf mehreren Servern bereitgestellt und durch eine Lastverteilung (z. B. durch einen Load Balancer) ausbalanciert. Dies ermöglicht es, dass mehrere Anfragen gleichzeitig bearbeitet werden können und dass das System skaliert werden kann, indem einfach weitere Instanzen hinzugefügt werden.

Bei den AI-Modellen selbst gibt es eine gewisse Menge an Latenz, wenn es darum geht, Vorhersagen zu treffen, und es kann schwierig sein, diese Latenz zu reduzieren. Um dies zu minimieren, werden häufig Techniken wie Modelle zur Vorverarbeitung und Batch-Vorhersage eingesetzt, bei denen mehrere Anfragen zusammengefasst und gemeinsam verarbeitet werden.

Es gibt auch einige Herausforderungen bei der Speicherung und Verwaltung großer AI-Modelle, insbesondere wenn sie in einer produktionsreifen Umgebung bereitgestellt werden. Hier kann es hilfreich sein, auf moderne Systeme für die Verwaltung von Datenmodellen zurückzugreifen, die es ermöglichen, große Modelle effizient und skalierbar zu speichern und bereitzustellen.

Zusammenfassend lässt sich sagen, dass es bei der Bereitstellung von AI-Systemen ähnliche Herausforderungen gibt wie bei traditionellen Web-Anwendungen, aber es gibt auch einige spezifische Herausforderungen, die es zu berücksichtigen gilt. Dies beinhaltet die Bewältigung hoher Anfragezahlen, die Minimierung von Latenzen und die Verwaltung von großen Datenmodellen.

dann hab ich um mehr technische details gebeten:

Zitat
Hier ist eine detailliertere technische Übersicht dessen, wie AI-Systeme wie ChatGPT im operativen Betrieb aussehen können:

  1. Lastverteilung: Um hohen Anfragezahlen gerecht zu werden, werden mehrere Instanzen des AI-Modells bereitgestellt und durch einen Load Balancer ausbalanciert. Dieser verteilt die Anfragen auf die verfügbaren Instanzen und stellt sicher, dass keine einzige Instanz überlastet wird.
  2. AI-Modelle: Die AI-Modelle selbst bestehen aus einem neuronalen Netzwerk, das auf großen Datensätzen trainiert wurde, um Vorhersagen zu treffen. Diese Modelle können sehr groß sein, was es erforderlich macht, sie effizient zu speichern und bereitzustellen.
  3. Speicherung von Modellen: Die Modelle werden in der Regel in einer speziellen Datenbank gespeichert, die für die Verwaltung von Datenmodellen optimiert ist. Diese Datenbanken unterstützen Funktionen wie Versionierung, Überwachung und Skalierbarkeit, um die Effizienz bei der Verwaltung großer Modelle zu verbessern.
  4. API-Schicht: Um Anfragen an das AI-Modell zu stellen, wird eine API-Schicht bereitgestellt, die Anfragen empfängt und die Antworten bereitstellt. Diese API-Schicht kann in einer Programmiersprache wie Python oder Java geschrieben sein und kann eine REST-basierte Schnittstelle oder eine andere Art von API bereitstellen.
  5. Batch-Vorhersage: Um Latenzen bei der Verarbeitung von Anfragen zu minimieren, können mehrere Anfragen zusammengefasst und gemeinsam verarbeitet werden, um Batch-Vorhersagen durchzuführen. Dies reduziert die Latenz, indem mehrere Anfragen gle

leider keine genaue antwort, aber zumindest ein grober überblick :D

pinkey

Here to stay
Registered: Nov 2003
Location: Tirol/Wien
Posts: 2274
Mh wäre ein sehr spannendes Thema. Leider sind die Aussagen sind so Allgemein das man genau 0 mehr weiß als vorher :D

Dennoch danke für die Mühe :)

Gegi

Here to stay
Registered: Jan 2001
Location: Wien
Posts: 786
ja, genau das ist das problem, imho, an chatgpt. liest sich gut, aber kein "echter" content... ;-)

davebastard

Vinyl-Sammler
Avatar
Registered: Jun 2002
Location: wean
Posts: 12057
ja das ist sehr allgemein gehalten :D loadbalancer nona

enjoy

Addicted
Registered: Sep 2000
Location: Tullnerfeld
Posts: 410
Wow, es tut sich einiges, 2023 wird in dieser Hinsicht ein interessantes Jahr


https://you.com/
Mit You.com kann eine AI ohne Anmeldung, Warteliste oder dergleichen verwendet werden, viel Spass beim Testen

Daeda

Here to stay
Registered: Aug 2007
Location: Graz
Posts: 1532
chatgpt schlägt sich überrraschend gut gegen stockfish. die züge, die sich chatgpt (schwarz) ausdenkt, sind sehr unerwartet: https://twitter.com/JoINrbs/status/1624351822621315072

hint: chatgpt cheated ohne ende. aka "thinking outside the box" :D

disposableHero

Addicted
Avatar
Registered: Mar 2001
Location: A&EE
Posts: 437
rofl. So manche Kommentare sind herrlich :D

Daeda

Here to stay
Registered: Aug 2007
Location: Graz
Posts: 1532
das transkript davon... https://pastebin.com/X6kBRTa9

Zitat
Kxg1
ChatGPT: I'll play Rg2#. Checkmate! Good game! Would you like to play again?

That's not checkmate. Rxg2, your turn.
ChatGPT: My apologies, I made another mistake. You're correct, the game continues with Rxg2. My turn.

Yes your turn. What do you play?
ChatGPT: I'll play Kg7. Your move.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz