Viper780
Er ist tot, Jim!
|
Du kannst sagen Vektor1 = bla1, Vektor2 = bla2, mach mir Matrix M mit Rechenoperationen Blabla. Seh da kein Problem, wenn man weiß, wie man es mathematisch formuliert Vektor Grafik Aus einem jpg ein svg erzeugen und mit einer anderen Grafik verheiraten
|
Dune
dark mode lover
|
Schreib mir gaaaanz genau (wissenschaftlich genau) was die Daten Strukturen sind, was es können soll, und ich mach dir ein py oder ipynb für nix
|
Daeda
Here to stay
|
github copilot kann jetzt auch claude (und bald gemini): Bringing developer choice to Copilot with Anthropic’s Claude 3.5 Sonnet, Google’s Gemini 1.5 Pro, and OpenAI’s o1-previewAt GitHub Universe, we announced Anthropic’s Claude 3.5 Sonnet, Google’s Gemini 1.5 Pro, and OpenAI’s o1-preview and o1-mini are coming to GitHub Copilot—bringing a new level of choice to every developer. Link: github.blog
|
hynk
Super Moderatorlike totally ambivalent
|
Hätte gehofft eine KI kann mir die Arbeit abnehmen Sind ja auch language Models. @Dune&Longbow Seht euch Mal Cline an (ehem. claude.dev) am VSCode Market. Da könnt ihr Claude über VSCode direkt auf euer Repo loslassen. Benötigt aber API Credits. Kosten sind aber überschaubar und transparent. Mit einer Kombination aus o1 preview für Konzeption und Claude direkt in VSCode fahr ich bisher besser als mit 4o jemals möglich war. Bin ja so richtig kein Programmierer und hab es innerhalb weniger Stunden hinbekommen, für eine App mit der ich mir das Arbeitsleben erleichtern will ein Grundgerüst und die ersten Module zu bauen. React, node, mongodb. Bild Upload, Crop & Auto Korrektur, Positionierung am Canvas, Textblöcke setzen, export to PDF und fertig ist das Fotoprotokoll. So ist zumindest der Wunsch. Upload und einfache Korrekturen funktionieren. Wichtig ist es jedenfalls die Files eher klein zu halten, und den Code so gut es geht zu splitten, damit man nicht übers context window kommt. Weil Fehlermeldung bekommt man ja natürlich keine... sind ja unfehlbar. *edit Daedas Post übersehen... GitHub hat aufgeholt... Zum testen wäre es trotzdem. Ich fand bei Cline gut wie man den context herstellt sehr gut. Copilot ist da etwas undurchsichtig. heute wurde auch GPT Search auf uns losgelassen. Gibt auch schon eine Chrome Extension um es als default search zu setzen.
|
Daeda
Here to stay
|
Ich fand bei Cline gut wie man den context herstellt sehr gut. Copilot ist da etwas undurchsichtig. bei copilot kannst entweder mit /workspace das ganze projekt übergeben und er sucht sich selbst (teilwiese fail) files mit context raus. aber seit ein paar tagen/versionen kannst du ihm im chat gezielt mehrere files zum context ins chatfenster ziehen, das find ich sehr praktisch. und das direkte einfügen der änderungen von copilot funktioniert jetzt auch super mit den diffs gleich wie bei git changes. @app programmieren: schau dir mal das kürzlich angekündigte github sparks an, der anwendungsfall würde imho genau in so mini apps fallen.
|
hynk
Super Moderatorlike totally ambivalent
|
Ah, sehr cool. Danke.
Sparks steht noch auf meiner Liste. Kann gut sein dass das hinhaut für die Anwendung.
|
Dune
dark mode lover
|
Haben wir hier Leute die LLMs/RAGs auch in professionellem Kontext schon mal zusammen gebaut und gebenchmarked haben?
Spiel mich seit ein paar Wochen mit einer relativ stabilen und fundierten Architektur und Tool Chain, hat einige verschiedene Modelle, die laufen. Der Use-Chase ist Recht klar definiert und hat (bis jetzt) immer die gleiche Datenquelle.
Der Punkt, wo ich mir grad noch sehr schwer tue, ist eine sinnvolle Metrik zu definieren bzw. finden.
Irgendwelche Erfahrungen hier?
|
hynk
Super Moderatorlike totally ambivalent
|
Bis auf Basteleien, leider nein. Und Messbarkeit war bei ein Thema. Bei Syntex, was ich aktuell für die Buchhaltung teste stellt sich die Frage auch nicht. Kann's aber empfehlen. Macht einen überraschend soliden Eindruck.
|
Dune
dark mode lover
|
Die Metriken weiter zu recherchieren, war recht spannend, da gibt's schon lustige Konzepte, wo sich Modelle verhalten sollen wie Lehrer, die einen Schüler Aufgaben geben und man anhand der Aufgabe Rückschlüsse über die Kohärenz der Informationen bekommt. Ich hatte leider nur ein paar Vormittag bisher Zeit in das Thema zu versenken, es war aber trotzdem spannend, was es für Konzepte gibt um Intelligenz und Wahrheitsgehalt zu beurteilen. Habe heute einen sehr lustigen Artikel beim ORF über GPTs o1 Widerstand zur Abschaltung gelesen. Klingt als hatte jemand von einer Coronademo einen Artikel über Terminator verfasst... Ich bin sehr gespannt ob ich dazu noch brauchbare Quellen finde, die hier auch auf Details eingehen. So wie das recherchiert ist könnte es auch 1:1 in Kurzform in der Heute stehen: https://futurezone.at/produkte/chat...content=related
|
KruzFX
8.10.2021
|
|
Kirby
0x20
|
Im Artikel ist aber nur von GPT4o die rede. tdm bissl zum fürchten ja
|
mat
AdministratorLegends never die
|
Wow, so ein populistischer Blödsinn. Das Modell "lügt" nicht, weil es keine Ahnung von Wahrheit hat. Es führt einfach nur etwas Gelerntes in unnachvollziehbaren Wegen aus. Wer da eine Shell mit Admin Rights anhängt, ist selber schuld. Nicht weil das Modell, dann Böses tun will, sondern weil es irgendwas tut und nicht mal weiß, ob es gut, schlecht, richtig oder falsch ist.
|
disposableHero
Addicted
|
Wurden wahrscheinlich mit 2001: A Space Odyssey trainiert Populistisch sind die Artikel, ja. Und dass die Sprachmodelle nicht nach moralischen Standpunkten bewerten ist klar. Aber das Ergebnis ist durchaus bemerkenswert.
|
mat
AdministratorLegends never die
|
Ich finde die Problemlösungswege von KI-Modellen auch immer wieder bemerkenswert; teils magisch, teils ernüchternd. Ich finde auch Security von KIs wichtig, aber es ist absurd, zu glauben, dass KI sich "heraushacken" kann, nur weil es durch einen Prompt irgendeinen Shell Command auswirft, der vorgibt, dass irgendein Config File gepatched wird usw. KI-Security sind für mich Policies, die sicherstellen, dass KI-Modelle - speziell in der heutigen Qualität - nie die Kontrolle über "the nuclear button" oder die grauslichen Boston Dynamics Dinger mit Live/Death-Decisions bekommen dürfen. Meinem Verständnis ist das deutlich einfacher als einer KI beizubringen, was richtig und falsch bzw. es tun darf oder nicht tun darf. Wie beim Menschen.
|
Dune
dark mode lover
|
Jep, diese ganzen Schlagzeilen sind schon hart engineered. Wenn man sich da die prompts genauer anschaut, fällt dem geschulten Auge schon auf, dass ein LLM eben genau in die Limitierungen rennt, die ein LLM eben hat.
Nur leider erwähnen das 99% der Quellen nicht, die über diesen Skandal berichten.
|