"We are back" « oc.at

Quelle: ChatGPT

semteX 23.01.2025 - 14:46 4030 73 Thread rating
Posts

Vinci

hatin' on summer
Registered: Jan 2003
Location: Wien
Posts: 5842
Imho wird sich die Seriösität die man einer Quelle zuschreibt in den kommenden Jahren von der Suche hin zur "KI" verschieben. Irgendwann wird dann eine Zeit erreicht sein an der die KI Antwort vertrauenswürdiger ist als die Suche.

Mal ganz nebenbei, dieses elitäre "von oben herab" nur weil es jemand wagt zwecks Recherche auf ein LLM zurück zugreifen find ich ziemlich mühsam. Ein bisserl mehr Demut warats.

semteX

begehrt die rostschaufel
Avatar
Registered: Oct 2002
Location: Pre
Posts: 14807
wenn du die LLM verwendest um quellen zu generieren und die dann gegencheckst: good for you, das ist der weg.
wenn du den text vom LLM 1:1 rauskopierst und dich verzipfst: please gtfo.

Dune

Dark mode
Registered: Jan 2002
Location: Wien
Posts: 10429
Zitat aus einem Post von Vinci
Mal ganz nebenbei, dieses elitäre "von oben herab" nur weil es jemand wagt zwecks Recherche auf ein LLM zurück zugreifen find ich ziemlich mühsam.

Ich find diese Hexenjagd auch gerade ein bisschen überzogen und gekünstelt, um die eigene Abneigung unter die Leut zu bringen. Quasi Sturm im Wasserglas.

Wird sich wie bei jeder neuen Technologie einpendeln und irgendwann zum Alltag gehören wie Suchmaschinen oder Wikipedia.

BiG_WEaSeL

Elder
-
Avatar
Registered: Jun 2000
Location: Wien
Posts: 8404
Ich nutze GPT und Konsorten wirklich intensiv, aber jedes Mal wenn jemand hier auf oc.at mit einem ChatGPT Screenshot postet mit „schaut’s mal was da steht“ treibt’s mir den Blutdruck rauf, bildlich gesprochen. Ja LLMs können Blödsinn verzapfen technologiebedingt, wissen wir jetzt glaub ich schon bald alle.

LLMs als Basis einer Recherche oder wwi zu verwenden ist ja legitim, nur hab ich die Screenshots satt.

Dune

Dark mode
Registered: Jan 2002
Location: Wien
Posts: 10429
Zitat aus einem Post von BiG_WEaSeL
LLMs als Basis einer Recherche oder wwi zu verwenden ist ja legitim, nur hab ich die Screenshots satt.

Das kann ich ja verstehen und nachvollziehen. Ohne irgendwelche Information, was da in den prompt rein ging, ist die Aussagekraft nahe bei null, und dann kann man sich auch das Bild und die kB sparen.

Mich nervt's nur latent wenn eine Technologie (ausgerechnet hier!) oder noch schlimmer deren Nutzer schlecht machen möchte, weil sie falsch eingesetzt wird. Und am Ende geht's eigentlich wieder nur um "wie ich es mach, ist es richtig".

semteX

begehrt die rostschaufel
Avatar
Registered: Oct 2002
Location: Pre
Posts: 14807
weil die antworten einfach nur lazy slob sind. das billigeste vom billigsten. mir hat bei meiner auto frage eine spezialistin beim prompt engineering geholfen, was dazu führte dass die antwort noch dümmer wurde. erst im dritten anlauf hat er aufgegeben mit "ich weiß es. eventuell doch ned".

niemand will das, außer dem ersteller der sich freut weil er ne günstige antwort erstellt hat.

Skatan

peace among worlds!
Avatar
Registered: Feb 2004
Location: Trieben
Posts: 4267
Zitat aus einem Post von semteX
weil die antworten einfach nur lazy slob sind. das billigeste vom billigsten.

in >90% der fälle reicht halt so eine lazy antwort komplett aus.

unterstützt graka xy den shader z?
wie wird der us präsident gewählt?
....

ob ich da jetzt schreibe "kurze google recherche sagt..." (= gar nicht die seiten anklicken sondern gleich aus den überschriften raus die antwort erkennen) oder "chat gpt sagt...." ist für mich in solchen sachen komplett gleich.

bei anderen themen muss man halt mehr hirnschmalz reinstecken.
nicht nur einen google hit anklicken sondern mehr.
die limits von LLM kennen bzw dort nach quellen suchen etc.

so eine rocketscience/streitthema ist das jetzt imho nicht.

charmin

Legend
gone
Registered: Dec 2002
Location:
Posts: 15576
probierts mal das deep research bei chatGPT, das spart wirklich ordentlich recherche arbeit.
war letztens auf der suche nach einer IMU für ein Projekt, das rennt dann 30 minuten und gibt dir dann den report mit passenden quellen.

sk/\r

i never asked for this
Avatar
Registered: Dec 2002
Location: oö
Posts: 11123
Zitat aus einem Post von BiG_WEaSeL
Ich nutze GPT und Konsorten wirklich intensiv, aber jedes Mal wenn jemand hier auf oc.at mit einem ChatGPT Screenshot postet mit „schaut’s mal was da steht“ treibt’s mir den Blutdruck rauf, bildlich gesprochen. Ja LLMs können Blödsinn verzapfen technologiebedingt, wissen wir jetzt glaub ich schon bald alle.

LLMs als Basis einer Recherche oder wwi zu verwenden ist ja legitim, nur hab ich die Screenshots satt.

was soll man sonst reinstellen außer einem screenshot? es gibt keinen "export conversation button".

Dune

Dark mode
Registered: Jan 2002
Location: Wien
Posts: 10429
Zitat aus einem Post von Skatan
bei anderen themen muss man halt mehr hirnschmalz reinstecken.
nicht nur einen google hit anklicken sondern mehr.
die limits von LLM kennen bzw dort nach quellen suchen etc.

Bin da bei dir. Zumal Google jetzt halt auch nicht immer eine zuverlässige Quelle ist (ist es ja eigentlich gar nicht). Wenn man dort auf einem OE24 Artikel landet, hat halt auch der User die Verantwortung einen Faktencheck zu machen. Ist ja nicht so als könnte man jeder Internetquelle trauen.

Denke der Wind wird sich hier von alleine legen, wenn die Leute lernen mit GenAI umzugehen und vor allem die Limitierungen kennen.

BiG_WEaSeL

Elder
-
Avatar
Registered: Jun 2000
Location: Wien
Posts: 8404
gar nichts außer „chatgpt sagte mir...", du stellst ja auch nicht die Google Trefferliste ein sondern den Inhalt der Treffer. Wenn chatgpt Links liefert kannst du die ja angeben, ansonsten ist es halt llm gibberish das stimmen kann aber nicht muss. Genausowenig sind in wissenschaftlichen Arbeiten Wikipedia als Quelle zu verwenden. Ausnahmen bestätigen die Regel wie bei meiner Master-Thesis wo Wikipedia zu einem Gerät das einzige auffindbare Bild eines Geräts lieferte.

semteX

begehrt die rostschaufel
Avatar
Registered: Oct 2002
Location: Pre
Posts: 14807
Zitat aus einem Post von Skatan
in >90% der fälle reicht halt so eine lazy antwort komplett aus.

"Passt Getriebe IB5 aus einem Ford Puma in einen Ford Fiesta ST150?" "ja, das getriebe passt. generell sind alle IB5 getriebe untereinander kompatibel" "aber der Pumpa hat eine Schaltstrange, während der Fiesta einen Seilzug verwendet." "Du hast recht. in diesem fall passt das Getriebe nicht"

oh super, zum glück hatte mein verkäufer hirn und fachwissen und ned chatGPT gefragt.

Skatan

peace among worlds!
Avatar
Registered: Feb 2004
Location: Trieben
Posts: 4267
gratuliere, du hast ein bsp für die 10% gefunden ;)
(ich will auch nicht streiten wenns nicht 10% sondern 20 oder 30 sind btw, ich denke der kern der aussage bleibt gleich. geht halt auch um "welche relevanz hat die antwort". kaufst du dadurch um xxxx€ ein falsches getriebe wirst dich auf eine schnelle antwort nicht verlassen. gehts nur um "good to know" is es wurscht)

MightyMaz

hat nun auch einen Titel
Registered: Feb 2003
Location: .de
Posts: 661
Für den Anfang wäre es vielleicht eine Idee so eine Frage mindestens fünf mal in getrennten Instanzen in Chat-GPT zu tippen und nur einen "Mittelwert" der Antworten zu posten. Die Wahrscheinlichkeit, dass mehrfach hintereinander der exakt gleiche BS herauskommt ist imho ziemlich gering (mal angenommen macht stellt keine Anfragen ein, die daraufhin optimiert wurden in BS zu resultieren). Fragen die in 90%+ der Fälle in BS resultieren erkennt man so auch recht schnell.

Dune

Dark mode
Registered: Jan 2002
Location: Wien
Posts: 10429
semtex, was willst du mit deinem edge-case jetzt genau sagen, außer dass du (wie wahrscheinlich alle schon mal) einen gefunden hast? ;)
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz