Vinci
hatin' on summer
|
Imho wird sich die Seriösität die man einer Quelle zuschreibt in den kommenden Jahren von der Suche hin zur "KI" verschieben. Irgendwann wird dann eine Zeit erreicht sein an der die KI Antwort vertrauenswürdiger ist als die Suche.
Mal ganz nebenbei, dieses elitäre "von oben herab" nur weil es jemand wagt zwecks Recherche auf ein LLM zurück zugreifen find ich ziemlich mühsam. Ein bisserl mehr Demut warats.
|
semteX
begehrt die rostschaufel
|
wenn du die LLM verwendest um quellen zu generieren und die dann gegencheckst: good for you, das ist der weg. wenn du den text vom LLM 1:1 rauskopierst und dich verzipfst: please gtfo.
|
Dune
Dark mode
|
Mal ganz nebenbei, dieses elitäre "von oben herab" nur weil es jemand wagt zwecks Recherche auf ein LLM zurück zugreifen find ich ziemlich mühsam. Ich find diese Hexenjagd auch gerade ein bisschen überzogen und gekünstelt, um die eigene Abneigung unter die Leut zu bringen. Quasi Sturm im Wasserglas. Wird sich wie bei jeder neuen Technologie einpendeln und irgendwann zum Alltag gehören wie Suchmaschinen oder Wikipedia.
|
BiG_WEaSeL
Elder-
|
Ich nutze GPT und Konsorten wirklich intensiv, aber jedes Mal wenn jemand hier auf oc.at mit einem ChatGPT Screenshot postet mit „schaut’s mal was da steht“ treibt’s mir den Blutdruck rauf, bildlich gesprochen. Ja LLMs können Blödsinn verzapfen technologiebedingt, wissen wir jetzt glaub ich schon bald alle.
LLMs als Basis einer Recherche oder wwi zu verwenden ist ja legitim, nur hab ich die Screenshots satt.
|
Dune
Dark mode
|
LLMs als Basis einer Recherche oder wwi zu verwenden ist ja legitim, nur hab ich die Screenshots satt. Das kann ich ja verstehen und nachvollziehen. Ohne irgendwelche Information, was da in den prompt rein ging, ist die Aussagekraft nahe bei null, und dann kann man sich auch das Bild und die kB sparen. Mich nervt's nur latent wenn eine Technologie (ausgerechnet hier!) oder noch schlimmer deren Nutzer schlecht machen möchte, weil sie falsch eingesetzt wird. Und am Ende geht's eigentlich wieder nur um "wie ich es mach, ist es richtig".
|
semteX
begehrt die rostschaufel
|
weil die antworten einfach nur lazy slob sind. das billigeste vom billigsten. mir hat bei meiner auto frage eine spezialistin beim prompt engineering geholfen, was dazu führte dass die antwort noch dümmer wurde. erst im dritten anlauf hat er aufgegeben mit "ich weiß es. eventuell doch ned".
niemand will das, außer dem ersteller der sich freut weil er ne günstige antwort erstellt hat.
|
Skatan
peace among worlds!
|
weil die antworten einfach nur lazy slob sind. das billigeste vom billigsten. in >90% der fälle reicht halt so eine lazy antwort komplett aus. unterstützt graka xy den shader z? wie wird der us präsident gewählt? .... ob ich da jetzt schreibe "kurze google recherche sagt..." (= gar nicht die seiten anklicken sondern gleich aus den überschriften raus die antwort erkennen) oder "chat gpt sagt...." ist für mich in solchen sachen komplett gleich. bei anderen themen muss man halt mehr hirnschmalz reinstecken. nicht nur einen google hit anklicken sondern mehr. die limits von LLM kennen bzw dort nach quellen suchen etc. so eine rocketscience/streitthema ist das jetzt imho nicht.
|
charmin
Legend gone
|
probierts mal das deep research bei chatGPT, das spart wirklich ordentlich recherche arbeit. war letztens auf der suche nach einer IMU für ein Projekt, das rennt dann 30 minuten und gibt dir dann den report mit passenden quellen.
|
sk/\r
i never asked for this
|
Ich nutze GPT und Konsorten wirklich intensiv, aber jedes Mal wenn jemand hier auf oc.at mit einem ChatGPT Screenshot postet mit „schaut’s mal was da steht“ treibt’s mir den Blutdruck rauf, bildlich gesprochen. Ja LLMs können Blödsinn verzapfen technologiebedingt, wissen wir jetzt glaub ich schon bald alle.
LLMs als Basis einer Recherche oder wwi zu verwenden ist ja legitim, nur hab ich die Screenshots satt. was soll man sonst reinstellen außer einem screenshot? es gibt keinen "export conversation button".
|
Dune
Dark mode
|
bei anderen themen muss man halt mehr hirnschmalz reinstecken. nicht nur einen google hit anklicken sondern mehr. die limits von LLM kennen bzw dort nach quellen suchen etc. Bin da bei dir. Zumal Google jetzt halt auch nicht immer eine zuverlässige Quelle ist (ist es ja eigentlich gar nicht). Wenn man dort auf einem OE24 Artikel landet, hat halt auch der User die Verantwortung einen Faktencheck zu machen. Ist ja nicht so als könnte man jeder Internetquelle trauen. Denke der Wind wird sich hier von alleine legen, wenn die Leute lernen mit GenAI umzugehen und vor allem die Limitierungen kennen.
|
BiG_WEaSeL
Elder-
|
gar nichts außer „chatgpt sagte mir...", du stellst ja auch nicht die Google Trefferliste ein sondern den Inhalt der Treffer. Wenn chatgpt Links liefert kannst du die ja angeben, ansonsten ist es halt llm gibberish das stimmen kann aber nicht muss. Genausowenig sind in wissenschaftlichen Arbeiten Wikipedia als Quelle zu verwenden. Ausnahmen bestätigen die Regel wie bei meiner Master-Thesis wo Wikipedia zu einem Gerät das einzige auffindbare Bild eines Geräts lieferte.
|
semteX
begehrt die rostschaufel
|
in >90% der fälle reicht halt so eine lazy antwort komplett aus. "Passt Getriebe IB5 aus einem Ford Puma in einen Ford Fiesta ST150?" "ja, das getriebe passt. generell sind alle IB5 getriebe untereinander kompatibel" "aber der Pumpa hat eine Schaltstrange, während der Fiesta einen Seilzug verwendet." "Du hast recht. in diesem fall passt das Getriebe nicht" oh super, zum glück hatte mein verkäufer hirn und fachwissen und ned chatGPT gefragt.
|
Skatan
peace among worlds!
|
gratuliere, du hast ein bsp für die 10% gefunden  (ich will auch nicht streiten wenns nicht 10% sondern 20 oder 30 sind btw, ich denke der kern der aussage bleibt gleich. geht halt auch um "welche relevanz hat die antwort". kaufst du dadurch um xxxx€ ein falsches getriebe wirst dich auf eine schnelle antwort nicht verlassen. gehts nur um "good to know" is es wurscht)
|
MightyMaz
hat nun auch einen Titel
|
Für den Anfang wäre es vielleicht eine Idee so eine Frage mindestens fünf mal in getrennten Instanzen in Chat-GPT zu tippen und nur einen "Mittelwert" der Antworten zu posten. Die Wahrscheinlichkeit, dass mehrfach hintereinander der exakt gleiche BS herauskommt ist imho ziemlich gering (mal angenommen macht stellt keine Anfragen ein, die daraufhin optimiert wurden in BS zu resultieren). Fragen die in 90%+ der Fälle in BS resultieren erkennt man so auch recht schnell.
|
Dune
Dark mode
|
semtex, was willst du mit deinem edge-case jetzt genau sagen, außer dass du (wie wahrscheinlich alle schon mal) einen gefunden hast?
|