Dune
Dark mode
|
Sie beruhigt, "sie" denkt nicht, sie ist sich nicht mal ihrer Existenz bewusst. Du bekommst nur Wahrscheinlichkeiten retour  Gibt's eure Konversation auch als txt? Würd's tatsächlich gerne lesen, aber über die Screenshots isses bissi wild mit meinem attention tokes und context windows.
|
MightyMaz
hat nun auch einen Titel
|
Also ich finde es viel lustiger eine KI Unsinn erzählen zu lassen. Hier ein Beispiel für die Rechnung (9*5)+2 mit erhöhter Temperatur (das würde ewig so weiterlaufen).
Bearbeitet von MightyMaz am 23.02.2025, 21:46
|
sk/\r
i never asked for this
|
Sie beruhigt, "sie" denkt nicht, sie ist sich nicht mal ihrer Existenz bewusst. Du bekommst nur Wahrscheinlichkeiten retour 
Gibt's eure Konversation auch als txt? Würd's tatsächlich gerne lesen, aber über die Screenshots isses bissi wild mit meinem attention tokes und context windows. nein. ich bekomm klare antworten zurück. selbst auf Nachfrage. weiß nicht was du meinst? txt gibt's nicht weil man die konversationen nicht gesamt copy&pasten kann. :/
|
Daeda
Here to stay
|
Also ich finde es viel lustiger eine KI Unsinn erzählen zu lassen. Hier ein Beispiel für die Rechnung (9*5)+2 mit erhöhter Temperatur (das würde ewig so weiterlaufen).
 ich glaub dein lama hat einen schlaganfall nein. ich bekomm klare antworten zurück. selbst auf Nachfrage. weiß nicht was du meinst? er meint vermutlich das llms nicht denken und nur ohne es zu verstehen tokens (wortfetzen) nach wahrscheinlichkeiten ausspucken. txt gibt's nicht weil man die konversationen nicht gesamt copy&pasten kann. :/ wenn der rest der conversation "safe" ist, könntest du einfach die ganze unterhaltung via link teilen.
|
MightyMaz
hat nun auch einen Titel
|
ich glaub dein lama hat einen schlaganfall Eher eine assoziative Lockerung, ähnlich wie auch bei Menschen mit Psychosen. "Jetzt holt der Herr den Teller vom Bock zum Pferd" ist super.  Schon interessant wie menschenähnlich die Sprachmodelle dann auch in diesen Randbereichen "denken".
|
charmin
Elder0_o
|
Research Papers in January 2024Model Merging, Mixtures of Experts, and Towards Smaller LLMs Link: magazine.sebastianraschka.com Lesenswerter Artikel über Die Mixtral Architektur. Mixture Of Experts. Sehr lässig
|
Dune
Dark mode
|
Also ich finde es viel lustiger eine KI Unsinn erzählen zu lassen. Hier ein Beispiel für die Rechnung (9*5)+2 mit erhöhter Temperatur (das würde ewig so weiterlaufen). Das finde ich technisch gesehen gar nicht so spannend. Was hier passiert ist eine Überladung von Anfragen. Natürlich hat's beim gleichen Chat ein beschränktes context window. Das kann gar nicht anders ausgehen, als dass irgendwann BS Antworten kommen. Wenn du einen Menschen mit sinnlosen Aufgaben überladest kommt irgendwann auch kein brauchbares Ergebnis mehr. Da imitiert die LLM Architektur den Menschen schon sehr gut..
|
böhmi
AdministratorSpießer
|
txt gibt's nicht weil man die konversationen nicht gesamt copy&pasten kann. :/ Kann man ChatGPT nicht einfach nach einem Export der Konversation als .txt fragen? Also irgendwie so: export our conversation in a .txt-file from 23rd of february 2025 at 08:15am on
|
MightyMaz
hat nun auch einen Titel
|
@Dune: Der BS kommt von Anfang an wenn man an den Parametern dreht und das terminiert dann auch nie. Was da technisch gesehen passiert weiß ich nicht. Aber auch ganz generell produzieren die Modelle unglaublich viel Unfug wenn man nicht auf den üblichen Pfaden wandelt.
|
Dune
Dark mode
|
Ja aber ne Temperatur von 2 ist schon ein Fieberwahn für Rechenaufgaben. Ich kann auch nicht mehr int, x: sin(x2+sqrt(x))*e^x*e^(x+19)dx rechnen mit 42°C Fieber  Was du produziert hast mit den Parametern, ist eine technische Limitierung, die dann nachher mit Aufgaben überladen wurde, wofür LLMs ohnehin nicht geschaffen sind. Advanced Reasoning ist auch nicht die Stärke von Ollama.
|
MightyMaz
hat nun auch einen Titel
|
Dass Rechenaufgaben zu solchen sehr kreativen Texten führen können finde ich schon interessant. Fieberwahn ist wohl das passende Wort. Die Texte sind ja auch nicht einfach random, z.B. hat die Anspielungen auf Lehrer und Schüler ja einen Bezug zum Thema.
|
Dune
Dark mode
|
Weil man über Stochastik ohne Reasoning schlecht rechnen kann. LLMs sind extrem schlecht in Arithmetik. Es wäre interessant wie sich DeepSeek mit solchen Aufgaben tut. Reasoning ist dort ja viel besser. Aber grundsätzlich, LLMs sind nicht zum Rechnen gemacht: https://www.mindprison.cc/p/why-llm...for-calculators
|
Viper780
ElderEr ist tot, Jim!
|
Ich glaub Mathematik hat in LLM wenig verloren. Das wird jetzt mit den Agent besser werden. Da fragt das LLM dann halt Wolfram Alpha und gibt die korrekte Antwort zurück
|
Dune
Dark mode
|
Wie funktioniert das eigentlich technisch genau, mit APIs? Wolfram kann ja nicht sämtliche Ergebnisse auf jede beliebige Rechnung cachen. Wenn reasoning wieder nur verweis auf VektorDB Ergebnis bedeutet, ist es ja kein reasoning. Verstehe die Architektur da noch nicht so ganz.
Wolfram ist extrem geil, habe ich damals im Studium auch viel verwendet.
|
Longbow
Here to stay
|
hat mich echt gewundert, dass der das snake game so easy mit einfachen prompts hinbekommen hat, ohne großartig iterieren zu müssen. dann hab ich mir gedacht, das liegt fix an python!
als vergleich hab ichs jetzt mit bolt.new erstellt und ich bin erstaunt!
https://snake-via-bolt.netlify.app/
…
liegt also nicht an python. snake ist wohl einfach ein gutes beispiel weils davon schon tausende beispiele gibt, von denen die AIs gelernt haben. aber auch die custom wünsche die ich angegeben hab, haben sofort tadellos fasziniert. also geht das auch ohne o3 schon ganz gut - bolt.new benutzt glaub ich claude sonnet 3.5 Ich behaupte auch, dass es an snake liegt. Ein ähnlicher Versuch mit 2er Schnapsen landet beim üblichen „technically not wrong“. Er verhaspelt sich aber ständig mit Atout/Farbzwang, 20/40 etc… und ich hab absichtlich ein einfaches Spiel gewählt. Wollte es dann noch einfacher: „Hosn owi“ und auch da mühsam. Habe gpt4 und claude probiert.
Bearbeitet von Longbow am 24.02.2025, 11:38
|