URL: https://www.overclockers.at/artificial-intelligence/ki-modelle-gpt-xlstm-stable-diffusion-etc_261430/page_47 - zur Vollversion wechseln!
Hatte heute auch schon meine Freude damit.
In einem Arbeitsschritt Onboarding- und Notification-Mail Texte verfasst, den Onboarding Workflow in PowerAutomate ausgefeilt und den Ablauf vereinfacht.
Der zweite Test war die Zusammenfassung eines extrem schlecht strukturierten "Handbuchs" für neue Mitarbeiter entsprechende Verbesserungsvorschläge und ein herausarbeiten der wichtigsten ersten Informationen für einen neuen Mitarbeiter.
Die Ergebnisse sind spürbar besser als vorher bei vergleichbaren Aufgaben und die Ergebnisse klarer voneinander getrennt. In beiden Fällen war kein Nachfragen notwendig und ich konnte die Ergebnisse direkt weiterverwerten. Das gabs vorher nur bei den einfachsten Aufgaben, wie extrahiere Namen aus einem Dokument, etc, bzw selten.
hab seit gestern o1 im copilot aktiviert und bisher ists zum refactorn wirklich enorm hilfreich. geht aber daweil nur über die vs code insider version nachdem man sich in der copilot warteliste angemeldet hat, ich hab nach ein paar stunden zugang bekommen. infos hier: https://github.blog/news-insights/p...lot-and-models/
und vorhin hab ich die mail von github bekommen, dass copilot für zahlende copilot user auf github.com verfügbar ist: man kann somit in allen öffentlichen (und eigenen privaten) repos mit copilot chatten. bei meinen eigenen hats schon mal gut funktioniert:
- welche api endpoints gibts im projekt?
- welche davon werden im frontend bereits verwendet?
und dieses video hat mich dazu gebracht, o1 überhaupt erst zu testen:
Danke Daeda, super spannend!
Gibt es mittlerweile eigentlich irgendeine public LLM engine die "direkt" mit Internet-Daten gefüttert wird? Chat GPT hat keine online-live Trainingsdaten.
Nope. Gibts nicht.
@Daeda
Danke. Sehr spannend.
Ich bin ja eher ein Dinosaurier und vertraue ChatGPT etc. nicht wirklich dass da was sinnvolles rauskommt.
Jetzt hab ich eine simple Rechnung (weil ich für das Kollektivvertrag-Topic nicht unbedingt Zeit reinstecken wollte) in GPT eingegeben und bei 2x demselben Input 2 verschiedene Lösungen bekommen (die erste war natürlich kompletter Quatsch), wtf
Gibt mir jetzt nicht unbedingt Vertrauen in die Technologie (auch wenn ich sagen muss dass die primäre Funktion an sich, aus den Wörtern rauszufinden was ich will, schon erstaunlich ist)
So Zeug muss alles irgendwie dran gebaut werden. Ein LLM kann ja ned wirklich rechnen sondern gibt nur die wahrscheinlichste Antwort.
Zitat aus einem Post von daishoGibt mir jetzt nicht unbedingt Vertrauen in die Technologie (auch wenn ich sagen muss dass die primäre Funktion an sich, aus den Wörtern rauszufinden was ich will, schon erstaunlich ist)
Nach deiner Argumentation kannst ChatGPT halt gar nichts fragen weil sie es ja nicht wissen wenn sie falsch liegen.
Zitat aus einem Post von daishoNach deiner Argumentation kannst ChatGPT halt gar nichts fragen weil sie es ja nicht wissen wenn sie falsch liegen.
Klassische Argumentation gegen Verdrängung durch neue Technologien.
- "Deinen Bücher darfst nicht glauben, da speibt dir irgendwer irgendwas raus."
- "Dem Fernseher darfst nicht glauben, da speit dir irgendwer irgendwas raus."
- "Dem Internet darfst nicht glauben, ..."
- "Dem ChatGPT..."
Ganz am Anfang davon steht vermutlich die Höhlenmalerei.
Zitat aus einem Post von UnleashThebeastDas ist auch eine völlig korrekte Aussage, so ein LLM halluziniert hal einfach irgendwas zusammen und speibt dir das raus.
Solang bis ein wichtiger Termin einfach wo anders oder gar nicht im Kalender kandet
najo a bissi mitschauen muss ma scho
könnte genauso gut selber den termin falsch eintragen versehentlich.
aber i weiss, AI muss perfekt sein....
Zitat aus einem Post von VinciGanz am Anfang davon steht vermutlich die Höhlenmalerei.
Zitat aus einem Post von daishoSolang bis ein wichtiger Termin einfach wo anders oder gar nicht im Kalender kandet
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025