Vinci
hatin' on summer
|
Der Content den ich konsumiere wird ausschließlich von Leuten mit Leidenschaften produziert die sich an feuchtn Schaß dafür interessieren "ob sichs rechnet" oder nicht. Wenn B$ Content durch ChatGPT und Co weniger wird, dann bitte nur her damit.
|
Viper780
Er ist tot, Jim!
|
Das habe ich versucht weiter oben anzusprechen. Wenn der Anreiz guten Content zu erstellen fällt (weil die AI so viele Anfragen abdeckt das es sich die Arbeit nicht mehr rechnet), dann stagniert das System.
Wenn die AI laufend selbstlernend wird und noch Anreize für guten Content erhalten bleiben, wird die AI besser, der zu Grunde liegende Content jedoch vermutlich recht schnell wieder obsolet.
Naja, man wird's sehen. Und genau da setzt meine Annahme an - die AI ersetzt eben die "billig" Contents die jetzt schon keiner braucht. Aber der gute den man jetzt suchen muss sollte in Zukunft übrig bleiben, da es für die low hanging fruits dann keine Berechtigung mehr gibt Wenn jetzt noch eine AI kommt, die die relevanten Daten aus einem elendig reißerischen 20 Minuten Video raus zu saugen und schön tabellarisch aufzubereiten, dann würde ich wirklich Geld dafür zahlen. Genau das ist die Anwendung auf die ich sehr sehr stark hoffe. Ich kann nicht mal mit 0,1% der YT Video was anfangen. Aber oft findet man keine geschriebenen Anleitungen oder Reviews mehr
|
pinkey
Here to stay
|
Glaubt’s ihr eigentlich ob das von MS auch bissl ein Marketing Move war? Erster die Leute anfixen mit „gratis“ Abfragen damit’s in aller Munde ist und jetzt in die Produkte einbauen.
Sie sind halt für so einen Konzern doch recht flott mit der Umsetzung …
|
h4de5
-
|
Glaubt’s ihr eigentlich ob das von MS auch bissl ein Marketing Move war? Erster die Leute anfixen mit „gratis“ Abfragen damit’s in aller Munde ist und jetzt in die Produkte einbauen. nööö.. reine nächstenliebe.. und zum wohle der menschheit.
|
mr.nice.
differential image maker
|
Ich denke, dass diese Art von AI's auch das online business revolutionieren könnten, sobald Echtzeitdaten eingepflegt werden bzw. automatisiert abgefragt werden können. Z.B. "ChatGPT, bestelle mir eine RTX 5090 beim günstigsten Anbieter den du finden kannst, hier meine Zahlungsinformationen:.."
Bearbeitet von mr.nice. am 08.02.2023, 11:22
|
Daeda
Here to stay
|
auf bing.com ist seit gestern/heute eine preview von ihrer "AI search" zu sehen. man kann sich jetzt für die "warteliste" anmelden, ab märz soll es dann für alle live gehen. mehr infos + anmeldung für early access unter https://www.bing.com/newEinführung in das neue BingStellen Sie echte Fragen. Vollständige Antworten erhalten Link: www.bing.com (hint: die deutsche übersetzung ist lächerlich schlecht Set Microsoft-Defaults on your PC = Satz Microsoft-Standardwerte auf Ihrem PC)
|
TOM
Super ModeratorOldschool OC.at'ler
|
Ich würde gerne folgendes besser verstehen:
Wie schaut der operative Betrieb bzw. die System-Architektur von AI-Systemen ala ChatGPT aus, wo (zig)tausende(?) requests pro Sekunde reinprasseln?
Ich finde viele Infos zu AI Modell learning, Software-Stacks, optimizing, tuning, etc. aber nichts wie diese Teile im operativen Betrieb eigentlich ausschauen. Würde mich brennend interessieren. Ich finde nur viel Buzzword-blabla wie magische Software-Stacks ala Ray, aber ich möchte das Engineering dahinter auf Systemebene besser verstehen.
Ich komme aus einer Welt mit verschiedensten Caches, Frontend, Middleware, Datenbanken und entsprechender horizontalen und vertikalen Skalierung - nur wie schaut dies in der AI Welt aus, in der man (aus meiner Sicht) nichts wirklich cachen kann und das AI Modell hunderte GB hat... wie hält man sowas performant bei n-requests?!
Falls da wer gute Infoquellen kennt, bitte her damit
|
Daeda
Here to stay
|
Ich würde gerne folgendes besser verstehen:
Wie schaut der operative Betrieb bzw. die System-Architektur von AI-Systemen ala ChatGPT aus, wo (zig)tausende(?) requests pro Sekunde reinprasseln?
Ich finde viele Infos zu AI Modell learning, Software-Stacks, optimizing, tuning, etc. aber nichts wie diese Teile im operativen Betrieb eigentlich ausschauen. Würde mich brennend interessieren. Ich finde nur viel Buzzword-blabla wie magische Software-Stacks ala Ray, aber ich möchte das Engineering dahinter auf Systemebene besser verstehen.
Ich komme aus einer Welt mit verschiedensten Caches, Frontend, Middleware, Datenbanken und entsprechender horizontalen und vertikalen Skalierung - nur wie schaut dies in der AI Welt aus, in der man (aus meiner Sicht) nichts wirklich cachen kann und das AI Modell hunderte GB hat... wie hält man sowas performant bei n-requests?!
Falls da wer gute Infoquellen kennt, bitte her damit ich hab da eine interne quelle, der hab ich deine anfrage 1:1 weitergeben. hier die antwort: Der Betrieb von AI-Systemen wie ChatGPT unterscheidet sich in einigen Aspekten von traditionellen Web-Anwendungen, aber viele Konzepte und Technologien sind ähnlich.
Um den Bedarf an Performance bei einer großen Anzahl von Anfragen zu bewältigen, werden in der Regel mehrere Instanzen des AI-Modells auf mehreren Servern bereitgestellt und durch eine Lastverteilung (z. B. durch einen Load Balancer) ausbalanciert. Dies ermöglicht es, dass mehrere Anfragen gleichzeitig bearbeitet werden können und dass das System skaliert werden kann, indem einfach weitere Instanzen hinzugefügt werden.
Bei den AI-Modellen selbst gibt es eine gewisse Menge an Latenz, wenn es darum geht, Vorhersagen zu treffen, und es kann schwierig sein, diese Latenz zu reduzieren. Um dies zu minimieren, werden häufig Techniken wie Modelle zur Vorverarbeitung und Batch-Vorhersage eingesetzt, bei denen mehrere Anfragen zusammengefasst und gemeinsam verarbeitet werden.
Es gibt auch einige Herausforderungen bei der Speicherung und Verwaltung großer AI-Modelle, insbesondere wenn sie in einer produktionsreifen Umgebung bereitgestellt werden. Hier kann es hilfreich sein, auf moderne Systeme für die Verwaltung von Datenmodellen zurückzugreifen, die es ermöglichen, große Modelle effizient und skalierbar zu speichern und bereitzustellen.
Zusammenfassend lässt sich sagen, dass es bei der Bereitstellung von AI-Systemen ähnliche Herausforderungen gibt wie bei traditionellen Web-Anwendungen, aber es gibt auch einige spezifische Herausforderungen, die es zu berücksichtigen gilt. Dies beinhaltet die Bewältigung hoher Anfragezahlen, die Minimierung von Latenzen und die Verwaltung von großen Datenmodellen. dann hab ich um mehr technische details gebeten: Hier ist eine detailliertere technische Übersicht dessen, wie AI-Systeme wie ChatGPT im operativen Betrieb aussehen können:
- Lastverteilung: Um hohen Anfragezahlen gerecht zu werden, werden mehrere Instanzen des AI-Modells bereitgestellt und durch einen Load Balancer ausbalanciert. Dieser verteilt die Anfragen auf die verfügbaren Instanzen und stellt sicher, dass keine einzige Instanz überlastet wird.
- AI-Modelle: Die AI-Modelle selbst bestehen aus einem neuronalen Netzwerk, das auf großen Datensätzen trainiert wurde, um Vorhersagen zu treffen. Diese Modelle können sehr groß sein, was es erforderlich macht, sie effizient zu speichern und bereitzustellen.
- Speicherung von Modellen: Die Modelle werden in der Regel in einer speziellen Datenbank gespeichert, die für die Verwaltung von Datenmodellen optimiert ist. Diese Datenbanken unterstützen Funktionen wie Versionierung, Überwachung und Skalierbarkeit, um die Effizienz bei der Verwaltung großer Modelle zu verbessern.
- API-Schicht: Um Anfragen an das AI-Modell zu stellen, wird eine API-Schicht bereitgestellt, die Anfragen empfängt und die Antworten bereitstellt. Diese API-Schicht kann in einer Programmiersprache wie Python oder Java geschrieben sein und kann eine REST-basierte Schnittstelle oder eine andere Art von API bereitstellen.
- Batch-Vorhersage: Um Latenzen bei der Verarbeitung von Anfragen zu minimieren, können mehrere Anfragen zusammengefasst und gemeinsam verarbeitet werden, um Batch-Vorhersagen durchzuführen. Dies reduziert die Latenz, indem mehrere Anfragen gle
leider keine genaue antwort, aber zumindest ein grober überblick
|
pinkey
Here to stay
|
Mh wäre ein sehr spannendes Thema. Leider sind die Aussagen sind so Allgemein das man genau 0 mehr weiß als vorher Dennoch danke für die Mühe
|
Gegi
Here to stay
|
ja, genau das ist das problem, imho, an chatgpt. liest sich gut, aber kein "echter" content... ;-)
|
davebastard
Vinyl-Sammler
|
ja das ist sehr allgemein gehalten loadbalancer nona
|
enjoy
Addicted
|
Wow, es tut sich einiges, 2023 wird in dieser Hinsicht ein interessantes Jahr Richard Socher, wie bedrohlich wird ChatGPT für Google?Richard Socher ist einer der meistzitierten KI-Forscher der Welt – und gerade mal 39 Jahre alt. Mit You.com will er jetzt Google angreifen. Link: www.heise.de https://you.com/Mit You.com kann eine AI ohne Anmeldung, Warteliste oder dergleichen verwendet werden, viel Spass beim Testen
|
Daeda
Here to stay
|
|
disposableHero
Addicted
|
rofl. So manche Kommentare sind herrlich
|
Daeda
Here to stay
|
das transkript davon... https://pastebin.com/X6kBRTa9Kxg1 ChatGPT: I'll play Rg2#. Checkmate! Good game! Would you like to play again? That's not checkmate. Rxg2, your turn. ChatGPT: My apologies, I made another mistake. You're correct, the game continues with Rxg2. My turn. Yes your turn. What do you play? ChatGPT: I'll play Kg7. Your move.
|