URL: https://www.overclockers.at/community-hub/quelle-chatgpt_264550/page_4 - zur Vollversion wechseln!
Imho wird sich die Seriösität die man einer Quelle zuschreibt in den kommenden Jahren von der Suche hin zur "KI" verschieben. Irgendwann wird dann eine Zeit erreicht sein an der die KI Antwort vertrauenswürdiger ist als die Suche.
Mal ganz nebenbei, dieses elitäre "von oben herab" nur weil es jemand wagt zwecks Recherche auf ein LLM zurück zugreifen find ich ziemlich mühsam. Ein bisserl mehr Demut warats.
wenn du die LLM verwendest um quellen zu generieren und die dann gegencheckst: good for you, das ist der weg.
wenn du den text vom LLM 1:1 rauskopierst und dich verzipfst: please gtfo.
Zitat aus einem Post von VinciMal ganz nebenbei, dieses elitäre "von oben herab" nur weil es jemand wagt zwecks Recherche auf ein LLM zurück zugreifen find ich ziemlich mühsam.
Ich nutze GPT und Konsorten wirklich intensiv, aber jedes Mal wenn jemand hier auf oc.at mit einem ChatGPT Screenshot postet mit „schaut’s mal was da steht“ treibt’s mir den Blutdruck rauf, bildlich gesprochen. Ja LLMs können Blödsinn verzapfen technologiebedingt, wissen wir jetzt glaub ich schon bald alle.
LLMs als Basis einer Recherche oder wwi zu verwenden ist ja legitim, nur hab ich die Screenshots satt.
Zitat aus einem Post von BiG_WEaSeLLLMs als Basis einer Recherche oder wwi zu verwenden ist ja legitim, nur hab ich die Screenshots satt.
weil die antworten einfach nur lazy slob sind. das billigeste vom billigsten. mir hat bei meiner auto frage eine spezialistin beim prompt engineering geholfen, was dazu führte dass die antwort noch dümmer wurde. erst im dritten anlauf hat er aufgegeben mit "ich weiß es. eventuell doch ned".
niemand will das, außer dem ersteller der sich freut weil er ne günstige antwort erstellt hat.
Zitat aus einem Post von semteXweil die antworten einfach nur lazy slob sind. das billigeste vom billigsten.
probierts mal das deep research bei chatGPT, das spart wirklich ordentlich recherche arbeit.
war letztens auf der suche nach einer IMU für ein Projekt, das rennt dann 30 minuten und gibt dir dann den report mit passenden quellen.
Zitat aus einem Post von BiG_WEaSeLIch nutze GPT und Konsorten wirklich intensiv, aber jedes Mal wenn jemand hier auf oc.at mit einem ChatGPT Screenshot postet mit „schaut’s mal was da steht“ treibt’s mir den Blutdruck rauf, bildlich gesprochen. Ja LLMs können Blödsinn verzapfen technologiebedingt, wissen wir jetzt glaub ich schon bald alle.
LLMs als Basis einer Recherche oder wwi zu verwenden ist ja legitim, nur hab ich die Screenshots satt.
Zitat aus einem Post von Skatanbei anderen themen muss man halt mehr hirnschmalz reinstecken.
nicht nur einen google hit anklicken sondern mehr.
die limits von LLM kennen bzw dort nach quellen suchen etc.
gar nichts außer „chatgpt sagte mir...", du stellst ja auch nicht die Google Trefferliste ein sondern den Inhalt der Treffer. Wenn chatgpt Links liefert kannst du die ja angeben, ansonsten ist es halt llm gibberish das stimmen kann aber nicht muss. Genausowenig sind in wissenschaftlichen Arbeiten Wikipedia als Quelle zu verwenden. Ausnahmen bestätigen die Regel wie bei meiner Master-Thesis wo Wikipedia zu einem Gerät das einzige auffindbare Bild eines Geräts lieferte.
Zitat aus einem Post von Skatanin >90% der fälle reicht halt so eine lazy antwort komplett aus.
gratuliere, du hast ein bsp für die 10% gefunden
(ich will auch nicht streiten wenns nicht 10% sondern 20 oder 30 sind btw, ich denke der kern der aussage bleibt gleich. geht halt auch um "welche relevanz hat die antwort". kaufst du dadurch um xxxx€ ein falsches getriebe wirst dich auf eine schnelle antwort nicht verlassen. gehts nur um "good to know" is es wurscht)
Für den Anfang wäre es vielleicht eine Idee so eine Frage mindestens fünf mal in getrennten Instanzen in Chat-GPT zu tippen und nur einen "Mittelwert" der Antworten zu posten. Die Wahrscheinlichkeit, dass mehrfach hintereinander der exakt gleiche BS herauskommt ist imho ziemlich gering (mal angenommen macht stellt keine Anfragen ein, die daraufhin optimiert wurden in BS zu resultieren). Fragen die in 90%+ der Fälle in BS resultieren erkennt man so auch recht schnell.
semtex, was willst du mit deinem edge-case jetzt genau sagen, außer dass du (wie wahrscheinlich alle schon mal) einen gefunden hast?
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025