Jedimaster
Here to stay
|
Die 'guten' Designer sind die die mit den https://ausderhoelle.de/category/kundenausderhoelle/ noch nicht wahnsinnig wurden Genau diese Kategorie 'Kunde' wird seine Designarbeit nie an eine AI auslagern können da existenzielles Grundwissen zur Materie einfach fehlt
|
InfiX
she/her
|
wird dann toll wenn alle nur noch den gleichen einheitsbrei bekommen weil die "AI" auf einer basis lernt und niemand mehr was neues beitragen will. wer braucht schon vielfalt
|
Hansmaulwurf
u wot m8?
|
Gute Designer werden von einer AI Copycat nicht arbeitslos, das ist keine Philosophische Diskussion sondern schlicht deren "Impact".
Was sicher damit abgelöst wird sind irgendwelche "Mache 100 EUR, letzte Prais, gute Design" fiverr Partien. Und wie genau wirst du in dem Szenario ein guter Designer?
|
Longbow
Here to stay
|
Was ist ein "guter Designer"? Einer der mit seiner Arbeit kreativen Mehrwert schafft im Sinne des Kunden und nicht einfach Drucksorten nach Angaben der XY-Abteilung zusammenklickt. Aber der Designer is in der IT ja irgendwie der "Lehrer" unter den Berufen. Genauso wie alle Programmiertätigkeiten ja auch immer schon vom 15 jährigen Neffen der Schwägerin erledigt werden konnten.
|
sk/\r
i never asked for this
|
Mal schauen was dabei herauskommt, ich hoffe Herr Musk hat eine offenere und besser informierte Gesellschaft im Kopf und nicht noch mehr Geld auf dem Konto. echt? nach allem was xxxxx-musk die letzten monate aufführt "hofft" man da ausm blauen auf eine kehrtwende? dein glaube ist dann ja echt unerschütterlich.
|
InfiX
she/her
|
ich versteh ned wieso man dem typ eigentlich überhaupt noch aufmerksamkeit schenkt.
|
Jedimaster
Here to stay
|
|
InfiX
she/her
|
jaha, das ist die einzig richtige berichterstattung
|
TOM
Super ModeratorOldschool OC.at'ler
|
ich versteh ned wieso man dem typ eigentlich überhaupt noch aufmerksamkeit schenkt. ...weil ihr zum Beispiel die letzten drei seiten dieses ChatGPT threads damit verbringt, jeden Furz den Elon von sich gibt zu diskutieren/flamen lasst ihn doch pedo guy schreien und ignoriert ihn, wenn es euch wirklich stört... dieses self fulfilling prophecy aufregen ist doch nur vergebliche liebesmüh, imho Solange er diese beispiellose Aufmerksamkeit erhält, werden ihm weiterhin alle an den Lippen hängen back2topic: Hat wer von Euch LLMs lokal am Laufen? Nachdem das Model hinter https://github.com/nomic-ai/gpt4all eher auf GPT 2.5 Niveau herumgrundelt hab ich bei meiner Recherche die Seite gefunden: https://www.listendata.com/Dort gibt es ein paar Anleitungen wie https://www.listendata.com/2023/04/...-made-easy.html für Vicuna und Alpaca GPT-4 Modelle. Wirkt aber alles noch sehr hacky. Mit https://github.com/oobabooga/text-generation-webui hab ich mir z.B. 600mb+ dependencies auf meiner Spiel-VM eingehandelt Nach einem GPU-Upgrade auf 12GB VRAM würde ich gern mit etwas spielen, dass auf der GPU statt CPU läuft... hat hier wer was gutes gefunden/am laufen?
|
charmin
Super Moderatorhurr gurr fenster
|
Was genau magst denn probieren? Ein GPT Modell? Würd mir ein repo mit docker suchen, in Verbindung mit Nvidia und wsl 2.0 kannst das auch nett unter Windows mit so zeugs herumspielen.
|
TOM
Super ModeratorOldschool OC.at'ler
|
Modell? Würd mir ein repo mit docker suchen, in Verbindung mit Nvidia und wsl 2.0 Vicuna soll laut Testsvergleichen nah an BART & ChatGPT herankommen, allerdings habe ich bisher kein 'drop-in' docker image gefunden um solch ein Model zu verwenden => wäre aber dankbar für konkrete Beispiele Besonders im Zusammenhang mit der Nutzung einer GPU (statt CPU) in einem Docker Image, habe ich nur gelesen dass es dafür weitere Docker-Images brauchen soll... aber wie gesagt, noch nichts Brauchbares gefunden leider
|
Daeda
Here to stay
|
am einfachsten sollte Dalai vom cocktailpeanut sein: https://cocktailpeanut.github.io/dalai/sonst kann man sich glaub ich sogar open-assistant selbst tutti kompletti installieren: https://projects.laion.ai/Open-Assi...ides/developers - scheint aber a bissl aufwendiger zu sein /e hm oder auch nicht: Can I install Open Assistant locally and chat with it? The candidate Pythia SFT models are available on HuggingFace and can be loaded via the HuggingFace Transformers library. As such you may be able to use them with sufficient hardware. There are also spaces on HF which can be used to chat with the OA candidate without your own hardware. However, these models are not final and can produce poor or undesirable outputs.
LLaMa SFT models cannot be released directly due to Meta's license but XOR weights will be released soon. https://projects.laion.ai/Open-Assistant/docs/faq
Bearbeitet von Daeda am 19.04.2023, 10:07
|
Daeda
Here to stay
|
am einfachsten sollte... nevermind, viel einfacher - mit schönem installer: https://gpt4all.io/index.htmlGPT4All Chat is a locally-running AI chat application powered by the GPT4All-J Apache 2 Licensed chatbot. The model runs on your computers CPU, works without an internet connection and sends no chat data to external servers (unless you opt-in to have your chat data be used to improve future GPT4All models). It allows you to communicate with a large language model (LLM) to get helpful answers, insights, and suggestions. GPT4All Chat is available for Windows, Linux, and macOS. Running on your local computer, this model is not as powerful as those GPT models you can chat with over the internet by sending your data to large powerful servers and is not affiliated with them. NOTE: Windows and Linux require at least an AVX2 chipset. Both intel and arm macOS machines should work. A future update should allow non-AVX2 chipsets for older machines. Check back frequently and will announce here when it is ready. sourcecode: GitHub - nomic-ai/gpt4all: gpt4all: an ecosystem of open-source chatbots trained on a massive collections of clean assistant data including code, stories and dialoguegpt4all: an ecosystem of open-source chatbots trained on a massive collections of clean assistant data including code, stories and dialogue - GitHub - nomic-ai/gpt4all: gpt4all: an ecosystem of ope... Link: github.com
Bearbeitet von Daeda am 19.04.2023, 17:36
|
Hansmaulwurf
u wot m8?
|
One worker’s conclusion: Bard was “a pathological liar,” according to screenshots of the internal discussion. Another called it “cringe-worthy.” One employee wrote that when they asked Bard suggestions for how to land a plane, it regularly gave advice that would lead to a crash; another said it gave answers on scuba diving “which would likely result in serious injury or death.”
Google launched Bard anyway. The trusted internet-search giant is providing low-quality information in a race to keep up with the competition, while giving less priority to its ethical commitments, according to 18 current and former workers at the company and internal documentation reviewed by Bloomberg. https://www.bloomberg.com/news/feat...-from-employees
|
Daeda
Here to stay
|
https://www.bloomberg.com/news/feat...-from-employees nicht wirklich überraschander move von google, aber trotzdem beängstigend ich hab grad 2 "ai detections" ausprobiert: https://gptzero.me/https://www.zerogpt.com/beide haben bei dieser gutenachtgeschichte keinen einzigen hinweis auf AI gefunden: Es war einmal ein kleines Mädchen namens Hannah, das sich jeden Abend vor dem Schlafengehen eine Geschichte von ihrer Mutter wünschte. Eines Abends sagte sie: "Mama, ich möchte eine Geschichte über Hasen und Einhörner hören, bitte!".
Die Mutter lächelte und begann zu erzählen:
Es war einmal ein kleines Einhorn namens Luna, das in einem wunderschönen Wald lebte. Luna war sehr glücklich, aber sie war auch ein wenig einsam. Eines Tages beschloss sie, auf eine Reise zu gehen, um neue Freunde zu finden.
Während ihrer Reise traf sie viele Tiere, aber keiner von ihnen war wie sie. Sie traf auf Hasen, Füchse, Eulen und sogar auf einen Bären, aber keiner von ihnen hatte ein magisches Horn auf der Stirn wie sie.
Luna war traurig und wollte schon aufgeben, als sie plötzlich ein Lied hörte. Es war ein Lied über Freundschaft und Zusammenhalt. Luna folgte der Musik und fand eine Gruppe von Hasen, die fröhlich zusammen sangen.
Die Hasen hießen Fritz, Lotti, Max und Mimi und sie luden Luna ein, mit ihnen zu singen. Luna war so glücklich, dass sie sich dem Gesang anschloss und bald sangen sie alle zusammen in voller Harmonie.
Luna hatte endlich Freunde gefunden und die Hasen hatten eine neue Freundin gefunden. Sie verbrachten den ganzen Tag miteinander und hatten viel Spaß. Als es Zeit war, sich auszuruhen, legten sie sich alle gemeinsam auf eine weiche Wiese und sahen in den klaren Sternenhimmel.
In dieser Nacht hatte Luna einen wunderschönen Traum. Sie sah sich und ihre neuen Freunde durch den Wald rennen, während sie zusammen sangen und lachten. Es war ein Gefühl der Freundschaft und des Glücks, das sie nie vergessen würde.
Am nächsten Morgen wachte Luna auf und freute sich auf einen neuen Tag mit ihren Freunden. Sie wusste, dass sie nie wieder einsam sein würde, solange sie ihre wunderbaren Hasenfreunde hatte.
Und so endet unsere Geschichte von Luna und ihren Hasenfreunden, die gezeigt haben, dass Freundschaft und Zusammenhalt die schönsten Geschenke sind. Gute Nacht, kleine Hannah. Träume süß und denk immer daran, dass Freunde das wertvollste sind, was wir haben. der prompt dafür war denkbar einfach: bitte schreib ein ausführliches märchen, das als gutenacht-geschichte für ein dreijähriges kind gedacht ist, das gerne hasen und einhörner hat und sehr gerne singt. aaaaaaaaber die detektoren können offenbar kein deutsch habs mir von chatgpt auf englisch übersetzen lassen, und da markiert es bei beiden mehr als die hälfte "höchstwahrscheinlich" als AI. gar nicht schlecht. gpt4all hab ich auch grad ausprobiert. der installer lädt ca. 3gb runter, das is alles. es is leider seeehr langsam, rennt nur über die cpu und arbeitet da wirklich hart an jedem wort der antwort, sieht im taskmanager so aus: und es kann nur englisch. zumindest hab ich deutsch und französisch probiert - es versteht einfache prompts, aber die ausgabe geht gar nicht bzw sehr schlecht.
|