"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

KI-Modelle: GPT, xLSTM, Stable Diffusion, etc

phono 27.01.2023 - 13:10 231386 760 Thread rating
Posts

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 3209
Die 'guten' Designer sind die die mit den https://ausderhoelle.de/category/kundenausderhoelle/ noch nicht wahnsinnig wurden ;)

Genau diese Kategorie 'Kunde' wird seine Designarbeit nie an eine AI auslagern können da existenzielles Grundwissen zur Materie einfach fehlt :)

InfiX

she/her
Avatar
Registered: Mar 2002
Location: Graz
Posts: 14371
wird dann toll wenn alle nur noch den gleichen einheitsbrei bekommen weil die "AI" auf einer basis lernt und niemand mehr was neues beitragen will.

wer braucht schon vielfalt :o

Hansmaulwurf

u wot m8?
Avatar
Registered: Apr 2005
Location: VBG
Posts: 5639
Zitat aus einem Post von Longbow
Gute Designer werden von einer AI Copycat nicht arbeitslos, das ist keine Philosophische Diskussion sondern schlicht deren "Impact".

Was sicher damit abgelöst wird sind irgendwelche "Mache 100 EUR, letzte Prais, gute Design" fiverr Partien.
Und wie genau wirst du in dem Szenario ein guter Designer?

Longbow

Here to stay
Avatar
Registered: Feb 2003
Location: Homeoffice
Posts: 5379
Zitat aus einem Post von Vinci
Was ist ein "guter Designer"?
Einer der mit seiner Arbeit kreativen Mehrwert schafft im Sinne des Kunden und nicht einfach Drucksorten nach Angaben der XY-Abteilung zusammenklickt.

Aber der Designer is in der IT ja irgendwie der "Lehrer" unter den Berufen. Genauso wie alle Programmiertätigkeiten ja auch immer schon vom 15 jährigen Neffen der Schwägerin erledigt werden konnten.

sk/\r

i never asked for this
Avatar
Registered: Dec 2002
Location: oö
Posts: 10970
Zitat aus einem Post von mr.nice.
Mal schauen was dabei herauskommt, ich hoffe Herr Musk hat eine offenere und besser informierte Gesellschaft im Kopf und nicht noch mehr Geld auf dem Konto.

echt? nach allem was xxxxx-musk die letzten monate aufführt "hofft" man da ausm blauen auf eine kehrtwende?
dein glaube ist dann ja echt unerschütterlich. :D

InfiX

she/her
Avatar
Registered: Mar 2002
Location: Graz
Posts: 14371
ich versteh ned wieso man dem typ eigentlich überhaupt noch aufmerksamkeit schenkt.

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 3209

InfiX

she/her
Avatar
Registered: Mar 2002
Location: Graz
Posts: 14371
jaha, das ist die einzig richtige berichterstattung :D

TOM

Super Moderator
Oldschool OC.at'ler
Avatar
Registered: Nov 2000
Location: Vienna
Posts: 7405
Zitat aus einem Post von InfiX
ich versteh ned wieso man dem typ eigentlich überhaupt noch aufmerksamkeit schenkt.

...weil ihr zum Beispiel die letzten drei seiten dieses ChatGPT threads damit verbringt, jeden Furz den Elon von sich gibt zu diskutieren/flamen :rolleyes:

lasst ihn doch pedo guy schreien und ignoriert ihn, wenn es euch wirklich stört... dieses self fulfilling prophecy aufregen ist doch nur vergebliche liebesmüh, imho :bash:

Solange er diese beispiellose Aufmerksamkeit erhält, werden ihm weiterhin alle an den Lippen hängen

back2topic:
Hat wer von Euch LLMs lokal am Laufen?
Nachdem das Model hinter https://github.com/nomic-ai/gpt4all eher auf GPT 2.5 Niveau herumgrundelt hab ich bei meiner Recherche die Seite gefunden: https://www.listendata.com/

Dort gibt es ein paar Anleitungen wie https://www.listendata.com/2023/04/...-made-easy.html für Vicuna und Alpaca GPT-4 Modelle. Wirkt aber alles noch sehr hacky. Mit https://github.com/oobabooga/text-generation-webui hab ich mir z.B. 600mb+ dependencies auf meiner Spiel-VM eingehandelt :eek:

Nach einem GPU-Upgrade auf 12GB VRAM würde ich gern mit etwas spielen, dass auf der GPU statt CPU läuft... hat hier wer was gutes gefunden/am laufen?

charmin

Super Moderator
hurr gurr fenster
Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 14935
Was genau magst denn probieren? Ein GPT Modell? :)
Würd mir ein repo mit docker suchen, in Verbindung mit Nvidia und wsl 2.0 kannst das auch nett unter Windows mit so zeugs herumspielen.

TOM

Super Moderator
Oldschool OC.at'ler
Avatar
Registered: Nov 2000
Location: Vienna
Posts: 7405
Zitat aus einem Post von charmin
Modell? :)
Würd mir ein repo mit docker suchen, in Verbindung mit Nvidia und wsl 2.0

Vicuna soll laut Testsvergleichen nah an BART & ChatGPT herankommen, allerdings habe ich bisher kein 'drop-in' docker image gefunden um solch ein Model zu verwenden => wäre aber dankbar für konkrete Beispiele

Besonders im Zusammenhang mit der Nutzung einer GPU (statt CPU) in einem Docker Image, habe ich nur gelesen dass es dafür weitere Docker-Images brauchen soll... aber wie gesagt, noch nichts Brauchbares gefunden leider

Daeda

Here to stay
Registered: Aug 2007
Location: Graz
Posts: 1552
am einfachsten sollte Dalai vom cocktailpeanut sein: https://cocktailpeanut.github.io/dalai/

sonst kann man sich glaub ich sogar open-assistant selbst tutti kompletti installieren: https://projects.laion.ai/Open-Assi...ides/developers - scheint aber a bissl aufwendiger zu sein :D

/e hm oder auch nicht:

Zitat
Can I install Open Assistant locally and chat with it?
The candidate Pythia SFT models are available on HuggingFace and can be loaded via the HuggingFace Transformers library. As such you may be able to use them with sufficient hardware. There are also spaces on HF which can be used to chat with the OA candidate without your own hardware. However, these models are not final and can produce poor or undesirable outputs.

LLaMa SFT models cannot be released directly due to Meta's license but XOR weights will be released soon.
https://projects.laion.ai/Open-Assistant/docs/faq
Bearbeitet von Daeda am 19.04.2023, 10:07

Daeda

Here to stay
Registered: Aug 2007
Location: Graz
Posts: 1552
Zitat aus einem Post von Daeda
am einfachsten sollte...

nevermind, viel einfacher - mit schönem installer:

https://gpt4all.io/index.html

Zitat
GPT4All Chat is a locally-running AI chat application powered by the GPT4All-J Apache 2 Licensed chatbot. The model runs on your computers CPU, works without an internet connection and sends no chat data to external servers (unless you opt-in to have your chat data be used to improve future GPT4All models). It allows you to communicate with a large language model (LLM) to get helpful answers, insights, and suggestions. GPT4All Chat is available for Windows, Linux, and macOS. Running on your local computer, this model is not as powerful as those GPT models you can chat with over the internet by sending your data to large powerful servers and is not affiliated with them. NOTE: Windows and Linux require at least an AVX2 chipset. Both intel and arm macOS machines should work. A future update should allow non-AVX2 chipsets for older machines. Check back frequently and will announce here when it is ready.

sourcecode:

Bearbeitet von Daeda am 19.04.2023, 17:36

Hansmaulwurf

u wot m8?
Avatar
Registered: Apr 2005
Location: VBG
Posts: 5639
Zitat
One worker’s conclusion: Bard was “a pathological liar,” according to screenshots of the internal discussion. Another called it “cringe-worthy.” One employee wrote that when they asked Bard suggestions for how to land a plane, it regularly gave advice that would lead to a crash; another said it gave answers on scuba diving “which would likely result in serious injury or death.”

Google launched Bard anyway.
The trusted internet-search giant is providing low-quality information in a race to keep up with the competition, while giving less priority to its ethical commitments, according to 18 current and former workers at the company and internal documentation reviewed by Bloomberg.
https://www.bloomberg.com/news/feat...-from-employees

Daeda

Here to stay
Registered: Aug 2007
Location: Graz
Posts: 1552
Zitat aus einem Post von Hansmaulwurf
https://www.bloomberg.com/news/feat...-from-employees

nicht wirklich überraschander move von google, aber trotzdem beängstigend :(

ich hab grad 2 "ai detections" ausprobiert:

https://gptzero.me/
https://www.zerogpt.com/

beide haben bei dieser gutenachtgeschichte keinen einzigen hinweis auf AI gefunden:

Zitat
Es war einmal ein kleines Mädchen namens Hannah, das sich jeden Abend vor dem Schlafengehen eine Geschichte von ihrer Mutter wünschte. Eines Abends sagte sie: "Mama, ich möchte eine Geschichte über Hasen und Einhörner hören, bitte!".

Die Mutter lächelte und begann zu erzählen:

Es war einmal ein kleines Einhorn namens Luna, das in einem wunderschönen Wald lebte. Luna war sehr glücklich, aber sie war auch ein wenig einsam. Eines Tages beschloss sie, auf eine Reise zu gehen, um neue Freunde zu finden.

Während ihrer Reise traf sie viele Tiere, aber keiner von ihnen war wie sie. Sie traf auf Hasen, Füchse, Eulen und sogar auf einen Bären, aber keiner von ihnen hatte ein magisches Horn auf der Stirn wie sie.

Luna war traurig und wollte schon aufgeben, als sie plötzlich ein Lied hörte. Es war ein Lied über Freundschaft und Zusammenhalt. Luna folgte der Musik und fand eine Gruppe von Hasen, die fröhlich zusammen sangen.

Die Hasen hießen Fritz, Lotti, Max und Mimi und sie luden Luna ein, mit ihnen zu singen. Luna war so glücklich, dass sie sich dem Gesang anschloss und bald sangen sie alle zusammen in voller Harmonie.

Luna hatte endlich Freunde gefunden und die Hasen hatten eine neue Freundin gefunden. Sie verbrachten den ganzen Tag miteinander und hatten viel Spaß. Als es Zeit war, sich auszuruhen, legten sie sich alle gemeinsam auf eine weiche Wiese und sahen in den klaren Sternenhimmel.

In dieser Nacht hatte Luna einen wunderschönen Traum. Sie sah sich und ihre neuen Freunde durch den Wald rennen, während sie zusammen sangen und lachten. Es war ein Gefühl der Freundschaft und des Glücks, das sie nie vergessen würde.

Am nächsten Morgen wachte Luna auf und freute sich auf einen neuen Tag mit ihren Freunden. Sie wusste, dass sie nie wieder einsam sein würde, solange sie ihre wunderbaren Hasenfreunde hatte.

Und so endet unsere Geschichte von Luna und ihren Hasenfreunden, die gezeigt haben, dass Freundschaft und Zusammenhalt die schönsten Geschenke sind. Gute Nacht, kleine Hannah. Träume süß und denk immer daran, dass Freunde das wertvollste sind, was wir haben.

der prompt dafür war denkbar einfach:
Zitat
bitte schreib ein ausführliches märchen, das als gutenacht-geschichte für ein dreijähriges kind gedacht ist, das gerne hasen und einhörner hat und sehr gerne singt.

aaaaaaaaber die detektoren können offenbar kein deutsch :D
habs mir von chatgpt auf englisch übersetzen lassen, und da markiert es bei beiden mehr als die hälfte "höchstwahrscheinlich" als AI. gar nicht schlecht.

gpt4all hab ich auch grad ausprobiert. der installer lädt ca. 3gb runter, das is alles. es is leider seeehr langsam, rennt nur über die cpu und arbeitet da wirklich hart an jedem wort der antwort, sieht im taskmanager so aus:
click to enlarge

und es kann nur englisch. zumindest hab ich deutsch und französisch probiert - es versteht einfache prompts, aber die ausgabe geht gar nicht bzw sehr schlecht.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz