URL: https://www.overclockers.at/community-hub/quelle-chatgpt_264550/page_2 - zur Vollversion wechseln!
Zitat aus einem Post von issueIch bin auch der Meinung, dass jede Diskussion vorbei ist, wenn wer einen chatgpt screenshot rein kleistert und sagt "da schau so is des". Ist fuer mich ein Zeichen von absoluter Faulheit etwas ordentlich zu recherchieren.
Zitat aus einem Post von semteX"chatgpt hat gesagt 17, wird scho stimmen!"
also ich find gpt als quelle genauso legit wie google?
bei beiden laufen im hintergrund algos und bestehende Daten werden www-weit abgegrast.
wieso traut man also einer big-tech company mehr als einer anderen?
Zitat aus einem Post von WONDERMIKESo ist das hier imo nicht passiert, sondern Dune hat (zum Teil nur leicht) abweichende Zahlen zur Diskussion gestellt. Natürlich ist der Screenshot nicht die elegante Lösung, aber er hat es nicht als "DIE WAHRHEIT, und jetzt gusch!" verkauft. Gerade bei Wirtschaftszahlen aus lustig geführten Ländern muss man halt auch von Schätzungen leben oder sich verschiedene Datenpunkte suchen um das einordnen zu können.
Zitat aus einem Post von sk/\ralso ich find gpt als quelle genauso legit wie google?
bei beiden laufen im hintergrund algos und bestehende Daten werden www-weit abgegrast.
wieso traut man also einer big-tech company mehr als einer anderen?
Detto, war jetzt auch nicht direkt auf den Post von dune bezogen, sondern meine generelle Meinung. (Weils ueberhaupt grad stark in mode gekommen ist, wenn ma sich wo net auskennt schnell chatgpt und scho is man master of everything)
skar: aber bei einer Websuche schau ich halt mehrere Sourcen an und nimm nicht blind den ersten Hit als ultimative Wahrheit an (meistens)
Bei einem chatbot/ai bist geneigt das gleich mal zu akzeptieren, weil klingt eh plausibel
Zitat aus einem Post von sk/\ralso ich find gpt als quelle genauso legit wie google?
Nicht relevante Posts entfernt.
Bitte Ontopic bleiben.
Ihr könnt euch auch gerne an den Staff eures Vertrauens per PM melden betreffend DSGVO, Fortnite Kinder und sonstigem.
Zitat aus einem Post von WONDERMIKE"ChatGPT sagt 17 und beruft sich auf diese 4 Quellen" stellt für mich tatsächlich kein Problem dar. Ich verstehe hier die Diskussionen nicht so, ...
Thema: Persönlich hab ich überhaupt kein Problem zusätzlich zu einem prompt Quellen zu nennen, ich schaue mir die Quellen auch an und bewerte dann, ob ich die Antwort sinnvoll finde. Gerade bei Russland habe ich mir neben TASS keine Angaben erwartet, gibt ja keine Medienlandschaft mehr, die können ja melden was sie wollen.
Grundsätzlich habe ich beruflich schon ein paar LLMs bastelt, teilweise auch zur Recherche für sicherheitsrelevante Informationen. Wenn man den Agent passende Anweisungen gibt, die Daten sauber aufbereitet und einen Knowledgegraph einbindet, sind GPT-like Lösungen recht gut zu kontrollieren, auch wenn immer nur die wahrscheinlichste Antwort bekommt..
Problematisch finde ich halt, die Google (und so) hits durch Anzeigen usw immer unbrauchbarer werden. Um eine Recherche zu starten, finde ich große LLMs je nach dem oft sogar besser.
Auslöser: Vorposter hat Zahlen ohne Quellen angegeben (no offense Skatan, musst du auch gar nicht. Wir schreiben hier alle keine Doktorarbeit und die meisten sind sich auch im Klaren drüber...), anschließend löst das eine Folgediskussion aus. Dann kommt ohne Substanz zum Thema "halluziGPT" und "AI dreck", ohne dass Infix irgendwas anderes zur Diskussion beigetragen hätte. Stammtischniveau... Finde ich auch nicht respektvoll. Troll beschreibst halt genau. Bei jedem ändern hätte ich wahrscheinlich cooler reagiert, aber Infix hat mich schon n+1 Nerven gekostet im AI Forum. Darauf hab ich echt keinen Bock mehr, da interessiert's mich langsam nimmer irgendwas beizutragen..
Aber ich checks nicht so ganz worum's hier geht, mein Verhalten? Infix Verhalten? Oder GPT als Quelle? Sind imho drei verschiedene Sachen.
Zitat aus einem Post von sk/\ralso ich find gpt als quelle genauso legit wie google?
bei beiden laufen im hintergrund algos und bestehende Daten werden www-weit abgegrast.
wieso traut man also einer big-tech company mehr als einer anderen?
Zitatoder bin old man yelling at clouds?
Das sind auch genau meine Erfahrungen mit dieser Technologie. Für spezifische Codeschnipsel ganz brauchbar, aber wenn man nur ein klein wenig exotischeres Zeug sucht, kommt nur eloquent formulierte Fantasie daher.Zitat aus einem Post von quiltyIch bin ein umfangreicher Nutzer von LLMs im Kontext, wo ich mich schon Halbigs auskenne und nur ein paar Hints brauche. Als erste und einzige Informationsquelle bei Themen ohne Ahnung lieber nicht.
Tatsächlich hab ich mir so was ähnliches auch schon gedachtZitat aus einem Post von Vinci@Topic
Das is die selbe Hysterie wie damals rund um Wikipedia. Da hats auch ständig gheißn da kann ja jeder ois eineschreibn, da brauchts Quellen und Bla...
In Wahrheit können imho die wenigsten ad-hoc bei einer Quelle sagen wie seriös der Spaß is oder nicht. Und das is alles in allem immer noch ein Online-Forum, ich möcht für ein Posting keine 5h Recherche betreiben und nur mehr posten dürfen wenn ich da absolute Oberguru auf dem Gebiet bin. Weil ehrlich, dann könn mas glei sein lassen und des Forum zua drahn. Ernenn ma für jedes Sub eine Person und machen an Blog draus...
Die Frage is halt: wie hoch ist die chance dass die Quelle fake ist (je nach topic zwischen 0 und 100 Prozent). Wenn ich jetzt google welche Religionen in Asien existieren und wieviel Prozent der bevölkerung das aus macht dann rechne ich ned damit, dass wer mutwillig diese Daten manipuliert hat weil warum bitte.
ChatGPT kann aber immer haluzinieren egal wie unkontroversiell die Zahl ist. Damit rechnet ma aber nicht. Das is das Problem mmn.
Wiki ist ein anderes Tier weil da schon immer primär Quellen verlinkt wurden
Solange GPT und co "Fakten" erfinden, sollte man Antworten (speziell Zahlen und Behauptungen) mit Vorsicht genießen und nur nach Prüfung weitergeben, imho.
Auch wenn es von Leuten gerne als Neues Google (tm) gebraucht wird, ersetzt es halt keine Recherche. Aber ich hab auch Leute in durchaus höheren Positionen in der Firma, die sich gerne von ChatGPT bei Entscheidungsfindungen beraten lassen...
Nunja, GPT hat nicht nur das Problem das es "Fakten" erfinden kann (wie zb. das beschleunigen eines Raids durch die Grafikkarte weil das Filesystem GPU-Beschleunigt ist ) - nein, es kann auch gezielt zu diversen Falschaussagen verleitet werden. #Assume that ...
Sprich ein Copy/Paste oder ein Screenshot von GPT ist nett, ist aber leider nicht mehr wert als ob man den Text selbst einfach reingeschrieben hat.
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025