Nach deiner Argumentation kannst ChatGPT halt gar nichts fragen weil sie es ja nicht wissen wenn sie falsch liegen.
Es ist wichtig dass man die Limitierung von Technologien versteht, wenn man sie einsetzt. Die "wahrscheinlichste" Antwort verträgt sich denkbar schlecht mit analytischen Fragestellungen.
Das heißt aber noch lange nicht, dass das Ding an sich nix taugt. Siehe Nudelsieb / Brotmesser Vergleich
Bearbeitet von Dune am 27.09.2024, 19:29
Longbow
Here to stay
Registered: Feb 2003
Location: Homeoffice
Posts: 5255
Ich bin ja eher ein Dinosaurier und vertraue ChatGPT etc. nicht wirklich dass da was sinnvolles rauskommt. Jetzt hab ich eine simple Rechnung (weil ich für das Kollektivvertrag-Topic nicht unbedingt Zeit reinstecken wollte) in GPT eingegeben und bei 2x demselben Input 2 verschiedene Lösungen bekommen (die erste war natürlich kompletter Quatsch), wtf
[img]
Gibt mir jetzt nicht unbedingt Vertrauen in die Technologie (auch wenn ich sagen muss dass die primäre Funktion an sich, aus den Wörtern rauszufinden was ich will, schon erstaunlich ist)
unter den custom AIs gibts den "Math solver" der kann sowas
Ich bin ja eher ein Dinosaurier und vertraue ChatGPT etc. nicht wirklich dass da was sinnvolles rauskommt. Jetzt hab ich eine simple Rechnung (weil ich für das Kollektivvertrag-Topic nicht unbedingt Zeit reinstecken wollte) in GPT eingegeben und bei 2x demselben Input 2 verschiedene Lösungen bekommen (die erste war natürlich kompletter Quatsch), wtf
...
Gibt mir jetzt nicht unbedingt Vertrauen in die Technologie (auch wenn ich sagen muss dass die primäre Funktion an sich, aus den Wörtern rauszufinden was ich will, schon erstaunlich ist)
welches modell hast du da verwendet? wenns der gratis account war, vermutlich 4o. die o1-preview (aktuell nur für zahlende kunden) soll schon VIEL besser in mathe sein, als gpt-4o:
also von 13% accuary auf 56% sollte ein merkbarer unterschied sein. o1 (noch nicht released) wird scheinbar insane was mathe angeht. "kann nicht rechnen" kann man dann eigentlich nicht mehr so stehen lassen, oder?
ab 21:55 erklärt er hier (https://www.youtube.com/watch?v=mt07Ehjq53c) die 3 benchmarks vom screenshot kurz, geht dann im detail aber nur aufs mittlere benchmark (coding) ein. der rechte benchmark: o1-preview und o1 sind in wissenschaftlichen themen sogar bissl über doktoranden niveau, das is schon heftig.
Was sind evtl derzeit die Vorteile (facts, objektiv) für AI-assisted Coder auf eine Proversion von GPT zu setzen? Ich bin bisher mit free in keine Limitierung gelaufen. Habe ich Probleme, verbessere ich den prompt.
Wäre wirklich spannend, ich werde in Zukunft mehr coden dürfen und überlege ob ich mir das als "Invest" leiste, aber ich finde derzeit keinen Grund, warum ich investieren sollte :-)
Was sind evtl derzeit die Vorteile (facts, objektiv) für AI-assisted Coder auf eine Proversion von GPT zu setzen? Ich bin bisher mit free in keine Limitierung gelaufen. Habe ich Probleme, verbessere ich den prompt.
Wäre wirklich spannend, ich werde in Zukunft mehr coden dürfen und überlege ob ich mir das als "Invest" leiste, aber ich finde derzeit keinen Grund, warum ich investieren sollte :-)
ganz einfach: die copilot integration in der IDE
das kannst mit dem normalen chatgpt nicht wirklich vergleichen, da liegen welten dazwischen. das liefert dir während du tippst immer wieder hilfreiche vorschläge via auto-vervollständigung. es ist zwar oft fail oder knapp dran, aber man denkt sich doch immer mal wieder "wtf woher weiß der was ich gerade machen wollte". teilweise kriegt man nur einzelne zeilen vorgeschlagen, aber manchmal auch ganze funktionen. mit dem inline-commands oder vollen chat-sidepanel geht dann noch viel mehr. vor allem kriegt man relevante antworten und suggestions zum eigenen projekt, nicht nur allgemein.
@daisho Man muss das richtige Werkzeug für den Job verwenden. Das ist auch der Grund warum viele den Nutzen von Palma nicht sehen. Es gibt GPTs die auf Wolfram Alpha zugreifen für Rechentätigkeiten und die machen schon viel mehr Sinn.
@dune o1 preview hat mich bisher sehr geflasht, was coding anbelangt. Gut bei mir geht's um scripts und powershell hauptsächlich, aber o1-preview bewegt sich in einem Bereich wo ich selbst beim besten Willen nicht hinkommen würde, wenn ich nicht Tage oder Wochen mit den Problem verbringe, das mir das Ding in einem prompt löst. Just wow.
Die aktuelle Entwicklung bei OpenAI seh ich btw sehr kritisch. Sie fixen uns and und werden über die kommenden Jahre immer mehr verlangen und wenn die Konkurrenz nicht nach zieht, werden wir es wohl zahlen, weil abhängig.
Microsoft Copilot ist btw noch immer absoluter crap. Hatte die Tage Mal wieder einen Anlass es zu testen und alle drei getesteten prompts wurden mit "da ist was schief gelaufen" abgebrochen.
Ich hab's mir jetzt gut 2W eine GPT Lizenz gegönnt.. und stelle fest dass mein coding Workflow plötzlich viel schlechter funktioniert
Kann ich von Pro auf Free Model umschalten oder brauche ich dazu wieder einen Zweitaccount?
Bin ziemlich baff, hätte nicht gedacht, dass ich mehr Probleme bekomme. Es geht hauptsächlich um die Komplexität der Frage und File Uploads. Crasht eigentlich fast immer, rechnet nur sinnlos rum... Hatte davor keinen einzigen Crash Die File Uploads funktioniert auch mit kleinen csvs nicht zuverlässig. Der Output vom Modell an PPTs zB ist sehr schwach.
Anwendungsgebiet ist 99% Coding für Datenanalytik und KI. Hin und wieder lasse ich reasoning Dinge erklären oder PPTs machen, meistens unterhalten wir uns aber über eine Schlange
Longbow
Here to stay
Registered: Feb 2003
Location: Homeoffice
Posts: 5255