In einem Arbeitsschritt Onboarding- und Notification-Mail Texte verfasst, den Onboarding Workflow in PowerAutomate ausgefeilt und den Ablauf vereinfacht. Der zweite Test war die Zusammenfassung eines extrem schlecht strukturierten "Handbuchs" für neue Mitarbeiter entsprechende Verbesserungsvorschläge und ein herausarbeiten der wichtigsten ersten Informationen für einen neuen Mitarbeiter.
Die Ergebnisse sind spürbar besser als vorher bei vergleichbaren Aufgaben und die Ergebnisse klarer voneinander getrennt. In beiden Fällen war kein Nachfragen notwendig und ich konnte die Ergebnisse direkt weiterverwerten. Das gabs vorher nur bei den einfachsten Aufgaben, wie extrahiere Namen aus einem Dokument, etc, bzw selten.
hab seit gestern o1 im copilot aktiviert und bisher ists zum refactorn wirklich enorm hilfreich. geht aber daweil nur über die vs code insider version nachdem man sich in der copilot warteliste angemeldet hat, ich hab nach ein paar stunden zugang bekommen. infos hier: https://github.blog/news-insights/p...lot-and-models/
und vorhin hab ich die mail von github bekommen, dass copilot für zahlende copilot user auf github.com verfügbar ist: man kann somit in allen öffentlichen (und eigenen privaten) repos mit copilot chatten. bei meinen eigenen hats schon mal gut funktioniert: - welche api endpoints gibts im projekt? - welche davon werden im frontend bereits verwendet?
und dieses video hat mich dazu gebracht, o1 überhaupt erst zu testen:
ChatGPT O1 im Test für Informatiker: Coding Durchgespielt!
gibt einen guten vergleich zu den diversen o1 modellen (o1-preview, o1-mini) und 4o, vorteile und nachteile und wofür was besser geeignet ist. jeweils aus "programmierer" sicht.
das allgemeine video von ihm hab ich mir noch nicht angesehen, aber falls wen interessiert lass ichs auch da:
Gibt es mittlerweile eigentlich irgendeine public LLM engine die "direkt" mit Internet-Daten gefüttert wird? Chat GPT hat keine online-live Trainingsdaten.
Ich bin ja eher ein Dinosaurier und vertraue ChatGPT etc. nicht wirklich dass da was sinnvolles rauskommt. Jetzt hab ich eine simple Rechnung (weil ich für das Kollektivvertrag-Topic nicht unbedingt Zeit reinstecken wollte) in GPT eingegeben und bei 2x demselben Input 2 verschiedene Lösungen bekommen (die erste war natürlich kompletter Quatsch), wtf
Gibt mir jetzt nicht unbedingt Vertrauen in die Technologie (auch wenn ich sagen muss dass die primäre Funktion an sich, aus den Wörtern rauszufinden was ich will, schon erstaunlich ist)
charmin
Super Moderator 10x
Registered: Dec 2002
Location: aut_sbg
Posts: 14514
Gibt mir jetzt nicht unbedingt Vertrauen in die Technologie (auch wenn ich sagen muss dass die primäre Funktion an sich, aus den Wörtern rauszufinden was ich will, schon erstaunlich ist)
Naja das ist etwa so als würdest du ein Nudelsieb verwenden um Brot zu schneiden. LLMs können nicht rechnen, sie wissen auch selbst nicht, wann sie falsch liegen
Klassische Argumentation gegen Verdrängung durch neue Technologien. - "Deinen Bücher darfst nicht glauben, da speibt dir irgendwer irgendwas raus." - "Dem Fernseher darfst nicht glauben, da speit dir irgendwer irgendwas raus." - "Dem Internet darfst nicht glauben, ..." - "Dem ChatGPT..."
Ganz am Anfang davon steht vermutlich die Höhlenmalerei.
charmin
Super Moderator 10x
Registered: Dec 2002
Location: aut_sbg
Posts: 14514
Das ist auch eine völlig korrekte Aussage, so ein LLM halluziniert hal einfach irgendwas zusammen und speibt dir das raus.
ned ganz, aber i weiss was du meinst.
das LLM sieht einfach nur vector embedded tokens, was bei sprache oder text dann sowas wie silben sind (das llm sieht nur nummern, keine buchstaben) und spuckt dir das wort aus was mit der höchsten warscheinlichkeit als nächstes kommt, bzw die antwort. danach das nächste wort usw usw. bzw nur tokens / nummern.
das ding kann also ned rechnen. aber openAI baut da zig zeug drumherum, nutzt auch RAG (kennen hynk, dune etc eh), baut das in die antwort mit ein und gibt dir das zurück dann. zum rechnen wird halt auch ein extra rechenmodul dann verwendet, dasselbe bei bilderkennung etc.
ich hab gestern den terminzettel vom kindergarten abfotografiert, hab dann chatgpt gebeten dass es mir ics files erstellt damit ich alle termine indn google kalender einfach stopfen kann. das is schon geil, von einem schwindligen foto runter texterkennung und dann das...
Ganz am Anfang davon steht vermutlich die Höhlenmalerei.
Und der darfst auch nicht glauben, weil da irgendwer beim Malen gemeint hat „Ich bin der geilste Hengst und male, dass ich eine ganze Herde erlegt habe obwohl ich grad mal 1 kleines Reh gefangen hab“
Solang bis ein wichtiger Termin einfach wo anders oder gar nicht im Kalender kandet
Ist mir erst unlängst passiert. Geschäftspartner fragt frei übersetzt: „Kommst eh?“. Ah, sorry, das war weil ich selbst den Kalendereintrag nicht gemacht hab, ohne AI.