URL: https://www.overclockers.at/artificial-intelligence/dlss-fsr-xess-und-andere-erfundene-pixel_264467/page_1 - zur Vollversion wechseln!
Hier eine Auslagerung aus dem GPU Thread, für alle die mehr im Detail über das Thema FAKE-PIXEL-INVASION diskutieren wollen. Ich werde noch ein paar Infos zusammensuchen und entsprechend editieren.
Sicher, daß das nur ins AI Forum gehört? FSR bis FSR3.x hat ja bspw. nichts mit AI generierten Fake FPS ( ) zu tun, das wird ja erst mit FSR4 schlagend, DLSS war ja bis zur Version 3 iirc auch nur reines Upscaling?
Aber ich meine, die Zeit der klassischen Grafikkarten ist vorbei.
Steht ja keine Nummer im Thread :-) GPU geht natürlich auch, aber es läuft ja alles unter dem AI key word
Sind sämtliche Videos, die wir sehen, dann auch Fake ? Stichwort intra-frame und inter-frame Komprimierung?
Ma und sämtliche Bilder auch, wird ja auch nur künstlich über sin und cos zusammengebaut .
Alles Fake !!
Zitat aus einem Post von charminSind sämtliche Videos, die wir sehen, dann auch Fake ? Stichwort intra-frame und inter-frame Komprimierung?
Ma und sämtliche Bilder auch, wird ja auch nur künstlich über sin und cos zusammengebaut.
Alles Fake !!
Zitat aus einem Post von COLOSSUSNatuerlich nicht, weil durch diese Methoden ja nur Informationen kodiert werden, die objektiv feststellbar tatsaechlich im Eingabematerial des Kordierungsprozesses vorhanden und zum Enkodierungzeitpunkt der Fall sind/waren.
Es geht garnicht so sehr ob Pixel echt sind oder nicht find ich, was mich meistens stört bei dlss:
1.) Detailgrad / Berechnung bei zb feinen parallelen Linien falsch
2.) Input lag mit Frame gen (auch wenn es mit Reflex nicht so extrem ist wie am Anfang)
Punkt 1 stört mich am meisten weil du siehst es einfach, dass dlss sowas nicht hinbekommt (zb Eingang cyberpunk im afterlife bei diesen leucht Röhren wo man durch geht). Das kriegst du halt nur mit Auflösung und AA gescheit hin. Am besten flickert der schass dann auch noch und wenn du näher kommst wird es klar in solchen Szenen ..
Bei einfachen Grafiken isses echt egal wo Chars oder Umgebung wenig Details haben. Aber je mehr Details das spiel hat desto schlechter. Mich stört sowas im Detail dann einfach.
@charmin: Natuerlich kann man den (imho uebrigens absolut validen) Diskurs zu "Frame Generation"-Technologien mit dieser Argumentationslinie verwaessern - es ist aber nicht wahnsinnig sinnvoll, da man gleich den Schritt weiter zu Kognitionspsychologie und -philosophie gehen koennte, und dann auch postulieren, dass sich DLSS und FSR genauso wie HEVC, charmin, cocklovers.at, der Planet samt Sonnensystem und das kosmische Hintergrundrauschen durch den Urknall eh nur fuer ein Boltzmann Brain ergeben
Sorry es sollte nur auf die billige Argumentation auf Stammtischniveau von "faaake Pixel" im GPU thread anspielen ohne überhaupt eine Ahnung von DLSS oder normaler Darstellung von 3d Objekte zu haben.
@c2k: muss mir Mal Videos zu dlss4 geben. Ob das jetzt wirklich um soviel besser ist von der Bildqualität. Hab Cyberpunk auch damit gezockt und mir ist das bei den Stromleitungen immer stark aufgefallen. Also die mindere Bildqualität.
Ontopic:
Hab mir das Nvidia Video zu DLSS4 angesehen und sie haben jetzt von Faltungsnetze zu Transformer gewechselt. Ziemlich nice. Die Transformer Architektur hat Faltungsnetze nun auch in Computer Vision Tasks outperformed!
Noch geiler wär's wenn xLSTM Layer vom Sepp aus Linz verwenden würden
Schon klar, ich fand's eh lustig Aber trotzdem kann ich der verkuerzten Darstellung/Zuspitzung "faaaake Pixel" was abgewinnen
Ich faend's halt sehr schade, wenn die nervigerweise in vielen Lebensbereichen in Mode kommende "Loesung" ("let's sprinkle some 'AI' over it") auch als primaerer Ersatz fuer das "ehrliche" Beschleunigen von Rendering herhalten muss
Zitat aus einem Post von charminÄndert nix an der Tatsache dass du nicht mehr den echten Pixel siehst sondern nur eine Approximation davon durch eine Summe an künstlichen Schwingungen. Fake, i say!
Zitat aus einem Post von charminSorry es sollte nur auf die billige Argumentation auf Stammtischniveau von "faaake Pixel" im GPU thread anspielen ohne überhaupt eine Ahnung von DLSS oder normaler Darstellung von 3d Objekte zu haben.
@c2k: muss mir Mal Videos zu dlss4 geben. Oh das jetzt wirklich um soviel besser ist von der Bildqualität. Hab Cyberpunk auch damit gezockt und mir ist das bei den Stromleitungen immer stark aufgefallen. Also die mindere Bildqualität.
Die Upscaling und Frame Generation hat durchaus Berechtigung wenn man sich ansieht in welche Richtung die Verlustleistung geht bzw. wird die produzierte Abwärme mehr und mehr zum Problem.
Wenn störende Effekte wie Flackern und/oder nicht ablesbare Ingame Displays durch AI-Einsatz vermieden werden, warum nicht.
Aber um nochmals auf Verbrauch und Abwärme zurückzukehren: Eventuell wird sich auch das klassische PCIe-Kartenformat bald ändern müssen.
Zitat aus einem Post von COLOSSUSSchon klar, ich fand's eh lustigAber trotzdem kann ich der verkuerzten Darstellung/Zuspitzung "faaaake Pixel" was abgewinnen
Ich faend's halt sehr schade, wenn die nervigerweise in vielen Lebensbereichen in Mode kommende "Loesung" ("let's sprinkle some 'AI' over it") auch als primaerer Ersatz fuer das "ehrliche" Beschleunigen von Rendering herhalten muss
Zitat aus einem Post von StarskyAber um nochmals auf Verbrauch und Abwärme zurückzukehren: Eventuell wird sich auch das klassische PCIe-Kartenformat bald ändern müssen.
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025