Dune
Dark mode
|
Das "Lossless*" sei mal so dahingestellt.
*Artefaktet natürlich wie Sau Blöd. Hätte ich deutlicher formulieren bzw. kennzeichnen sollen..
add.: ein Bekannter mit 4k240er Monitor und 4080er hat sich mit dem Tool gespielt und meint, dass es bis 3x durchaus brauchbar ist. Alles drüber wird gruselig.. Das wundert mich ehrlich gesagt nicht wirklich, es ist ein Marketingbegriff wie andere auch. Die Frage ist für mich eher, ob es besser für (meine) Anwendungen performt, was die Qualität betrifft. Ich bin mit DLSS-Q nämlich alles andere als happy.
|
Klaus
Little Overclocker
|
DLSS-Q finde ich meistens ziemlich gut. Bei manchen Spielen geht auch "P", aber das hab ich bisher nur bei Wukong verwendet, da das sonst zu wenig "Basis FPS" für FG bot.
Eigentlich krank, aber so ist die Situation momentan...
|
WONDERMIKE
Administratorkenough
|
DLSS-Q finde ich meistens ziemlich gut. Mit einem UHD Monitor ist DLSS-Q so gut wie immer sehr gut und es wäre eigentlich fast schon ein bisserl dämlich es nicht zu verwenden. Die UHD Pioniere werden auch sicherlich zugeben, dass sie über ganz viele Jahre Resolution Scale auf 70 oder 80% gedreht haben und dank der hohen Pixeldichte keinen Unterschied bemerkt haben Gestern habe ich mal Fortnite mit einer 3060 Ti mit 28" UHD und DLSS-P gespielt und herumgetestet. In dem Spiel sieht das so viel besser aus als es sollte. Die allermeisten Menschen werden keinen Unterschied feststellen.
|
Klaus
Little Overclocker
|
Mit einem UHD Monitor ist DLSS-Q so gut wie immer sehr gut und es wäre eigentlich fast schon ein bisserl dämlich es nicht zu verwenden. Die UHD Pioniere werden auch sicherlich zugeben, dass sie über ganz viele Jahre Resolution Scale auf 70 oder 80% gedreht haben und dank der hohen Pixeldichte keinen Unterschied bemerkt haben Ja, meistens 1620 oder 1800p via Custom Res. Mit der 1080ti wäre das sonst nicht spielbar gewesen.
|
creative2k
eigentlich mag ich nimmer
|
Ja, meistens 1620 oder 1800p via Custom Res. Mit der 1080ti wäre das sonst nicht spielbar gewesen. ![:)](/images/smilies/smile.gif) Also damals gabs noch SLI, da hab ich nix runter drehen müssen ![:p](/images/smilies/tongue.gif) @fortnite: das is jetzt mit seiner Comic Grafik auch nicht das anspruchsvollste Game zum upscalen, wundert mich jetzt nicht
|
Klaus
Little Overclocker
|
SLI hab ich immer vermieden wegen der Frametimes aus der Hölle (meistens).
RIP Tombman*
*er war einer der ersten, der darauf hingewiesen hat
Bearbeitet von Klaus am 11.01.2025, 20:12
|
Rogaahl
Elderinterrupt
|
Ich finde es immer wieder lustig. Wie bei jeder Version von DLSS gesagt wird, ist gleich oder sogar besser als native! Bis dann die nächste DLSS Version da ist, dann war die vorherige auf einmal doch total blurry, mit artifake und ghosting. Re-Testing Lossless Scaling, now with x10 and x20 Frame Generation modes!!Link: www.youtube.com Das "Lossless*" sei mal so dahingestellt.
*Artefaktet natürlich wie Sau Blöd. Hätte ich deutlicher formulieren bzw. kennzeichnen sollen..
add.: ein Bekannter mit 4k240er Monitor und 4080er hat sich mit dem Tool gespielt und meint, dass es bis 3x durchaus brauchbar ist. Alles drüber wird gruselig..
Wahnsinn, die Software hat die gleiche Performance wie eine 4090 und kostet nur 7€!! Mit einem UHD Monitor ist DLSS-Q so gut wie immer sehr gut und es wäre eigentlich fast schon ein bisserl dämlich es nicht zu verwenden. Die UHD Pioniere werden auch sicherlich zugeben, dass sie über ganz viele Jahre Resolution Scale auf 70 oder 80% gedreht haben und dank der hohen Pixeldichte keinen Unterschied bemerkt haben Not me. Ich spiele fast immer entweder native oder warte auf die nächsten Generationen. Ich konnte aber resolution scaling und AA noch nie leiden (außer für simple vector style spiele). Wenn man AA und upscaler mit non-AA vergleicht, ist einfach eine Welt dazwischen. AA zu upscaling macht keinen großen Unterschied. Wenn es in einem Spielen unmöglich ist TAA zu deaktivieren, dann verwende ich vielleicht einen upscaler. Das schlimmste ist aber auf jeden Fall TAA (über FXAA reden wir nicht).
|
Dune
Dark mode
|
www.youtube.com Das "Lossless*" sei mal so dahingestellt. Ich habe mir das Video reingezogen, bin immer noch nicht sicher ob ich die 7e dafür investieren mag, der der FS guy, der's ausgebieger getestet hat, war recht happy damit und sein Video trifft auch genau meinen pain point. Bei anderen spielen ist es mir recht egal ob da jetzt 80 oder 120 FPS in CP77 raus schauen. Und der claim dass die Artefakte so kacke sind, joa, da hat der LSFG auf den Faktor von 10x gestellt... No na ned werden da reichlich Artefakte generiert. Der Hawara scheint ja selber recht happy zu sein mit 2-3x LSFG, siehe Fazit. Warum also nur auf dem Punkt rumreiten als take? Also für mich ist es schon in Summe noch eine spannende Sache, die ich gerne probieren werde.
|
Klaus
Little Overclocker
|
Einerseits mag man DLSS-Q nicht, warum auch immer, hat aber mit FG Artefakten weniger Probleme. Dass alles bis 3x ok ist wurde geclaimed.
Ist definitiv spannend
|
Dune
Dark mode
|
Meinst du jetzt mit man mich? Naja wie gesagt und hier angeführt, ich finde die Standbildoptik bei Schriften von DLSS-Q fürchterlich. Bei bewegten Bildern stört es mich wesentlich weniger. Damit ist es halt keine besonders gute Technik für Simulationen, wo Schrift relevant ist. Ich habe allerdings mit etwas testen gemerkt dass ich die Latenz von DLSS mit FG wirklich mühsam sein kann in manchen Spielen, wo die Base Frame Rate (BFR) weit unter 90 ist. Die Varianz ist dann sehr hoch und im Empfinden von flüssigem ungestörten Bildfluss sind ist mir eine niedrigere BFR wesentlich lieber mit wenig Varianz, als umgekehrt mit Steroide. Die beiden Argumente zusammengenommen könnte LSFG für mich schon spannend sein, weil's den Weichzeichner durch SS überspringt und trotzdem FG bietet. Je mehr ich mich mit DLSS/FG und 5000s beschäftige, desto mehr habe ich das Gefühl dass diese Generation *für mich persönlich* relativ uninteressant werden könnte. Der dude fasst nochmal die Fakten zusammen.
|
InfiX
she/her
|
Zitat von Vitche - CB RedakteurMFG ist da leider trotz überzeugendem Erstauftritt auch nicht unbedingt hilfreich, weil man für eine vernünftige Latenz auch mit drei statt einem generierten Frame trotzdem das gleiche Grundleistungsniveau braucht. D.h. die Anforderung ist weiterhin, dass nach SR und noch vor (M)FG 50-70 FPS anliegen sollten. MFG richtet sich damit ausschließlich an User, die einen 240-Hz-Bilschirm haben. Und die 5090 ausschließlich an User, die einen UHD-240-Hz-Bildschirm, einen R9 9800X3D und (zu) viel Geld übrig haben. Link: www.computerbase.de ein CB redakteur spricht das problem mit der latency im kommentar zum test auch an, framegen macht nur "sinn" bei hohen basis-FPS um high refresh monitore zu befeuern.
|
Jedimaster
Here to stay
|
Eine gute, stimmige Analyse. Ich hab vor 2-3 Tagen mit einem Lanparty-Kollegen diskutiert ob diese FakeFrames jetzt ein Problem sind oder nicht. Mein Argument war das wir wieder "alte" Probleme kriegen werden - sprich die Spieler sehen auf dem Schirm ein FakeGen Bild mit wunderbarem Headshot, der Schaden wird aber nicht registriert weil laut Server der Kopf halt nicht dort war sondern wo anders. Ich erinnere mich noch an die "Herr Orga, euer Netzwerk hat Durchschuss!"-Diskussion mit den Counterstrike Kiddies von damals ![;)](/images/smilies/wink.gif) Mein Kollege hat dann argumentiert das das eh kein Problem werden wird für uns weil mit den Fake-Frames eh nur non-competitive Games betroffen sind, sprich ein Counterstrike (2) oder Fortnite rennt eh mit x-hundert FPS und welche competitive Shooter gibts denn sonst die relevant sind. Jo gut, derzeit. Wie siehts dann aus in 3 Generation wenns dann 10 Frames daherfantasieren und ein "Half Life 3" ![:D](/images/smilies/biggrin.gif) /s rauskommt das wieder Grafikleistung braucht ? Cheater werden sich zusätzlich darüber hinaus noch einen Ast abfreuen weil die neue Ausrede ist damit: Jo nettes Beweisvideo, aber hast sicher nicht die FrameGeneration abgeschaltet oder, so wars in wirklichkeit gar nicht, deine Grafikkarte spinnt sich was zusammen
|
InfiX
she/her
|
Mein Argument war das wir wieder "alte" Probleme kriegen werden - sprich die Spieler sehen auf dem Schirm ein FakeGen Bild mit wunderbarem Headshot, der Schaden wird aber nicht registriert weil laut Server der Kopf halt nicht dort war sondern wo anders. Ich erinnere mich noch an die "Herr Orga, euer Netzwerk hat Durchschuss!"-Diskussion mit den Counterstrike Kiddies von damals ![;)](/images/smilies/wink.gif) gut das problem hast aber auch ohne fake frames, da bei heutigen multiplayer spielen der netcode sowieso mit einer anderen tick-rate läuft. bei OW war das wie ich noch gespielt hab ehrlich gesagt regelmäßig so
|
charmin
Elder^_^
|
Solange alle dieselben Vorraussetzungen haben sehe ich da kein Problem. Und in richtigen competitive Games, wo man auch auf optimierte tickrate etc setzt hat frame Generation sowieso nix verloren imho
|
InfiX
she/her
|
bei denen brauchst das auch nicht, da die in der regel sowieso auf performance getrimmt sind und auf jeder budget GPU mit 100+fps rennen ^^ aber das ist ja genau der springende punkt, wennst eh schon genug performance hast "braucht" man framegen eigentlich eh ned... ausser wie gesagt man will sich unbedingt den 240-480Hz monitor schönreden für singleplayer spiele ![:D](/images/smilies/biggrin.gif) deswegen ist auch das argument das würde "performance" bringen so daneben imho, weil grad bei niedrigen base fps wo ein unterschied zwischen 20 zu 100fps gleich mal massiv was ausmachen würd scheitert die technik eben an anderen dingen ...genau letzteres ist aber jetzt die folge dass spiele immer mehr darauf getrimmt werden.
|