"We are back" « oc.at

DLSS, FSR, XeSS und andere erfundene Pixel

Dune 08.01.2025 - 10:55 9245 158
Posts

Dune

Dark mode
Registered: Jan 2002
Location: Wien
Posts: 10376
Naja es werden Pixel via Neuronale Netze bei DLSS ohne FG erfunden, bei FG Bilder. Zumindest verstehe ich das so. Grundsätzlich ist die Berechnung von der Grundidee ähnlich, es werden halt wahrscheinlich noch etliche Optimierungen und Algorithmen drüber laufen. Aber imho passt dann schon mit 'AI'.

InfiX

she/her
Avatar
Registered: Mar 2002
Location: Graz
Posts: 14549
Zitat aus einem Post von charmin
Vielleicht informierst dich vorher bevor du mit irgendwelchen Behauptungen daherkommst?

Und die Persönliche-Angriffs-Keule nehm ich dir nicht ab, das is eine gemütliche Ausrede für dich, damit du nicht recherchieren musst und auf deinem Standpunkt beharren kannst. Aber du kannst mich gerne überzeugen. Bisher sind halt nie richtige Antworten gekommen von dir :)

Und liebe Infix, wenn Ma ständig nur rumbasht und trollt in den Threads, dann muss man es aushalten wenn Mal wer nachfragt ob überhaupt eine Basis da ist.

du könntest auch einfach meine frage beantworten.

wie interpolierst du zwischen 2 bildern, wenn das 2. bild noch nicht existiert? :)

nein? ok. also ist jedes nachfolgende frame erfunden.
ein plumpes "na du kennst dich halt nicht aus" als antwort wird mich auch nicht von dem standpunkt abbringen :p

und nachdem es um videospiele geht wo nichts im vornherein klar ist und sich der input oder die reaktion darauf jederzeit ändern kann ist es nochmal schwieriger irgendetwas vorherzusagen.

wenn ich so uninformiert bin dann zeig mir doch welche glaskugel da verwendet wird, mich würden auch die nächsten lottozahlen interessieren.
Bearbeitet von InfiX am 08.01.2025, 14:19

Dune

Dark mode
Registered: Jan 2002
Location: Wien
Posts: 10376
Edit
Bearbeitet von Dune am 08.01.2025, 14:22

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 3594
Zitat aus einem Post von Jedimaster
Was mich jetzt schon seit ein paar Generationen bei den GPU's stört ist, das ein Game, mit exakt identen Einstellungen mit verschiedenen Grafikkarten (teils sogar selber Hersteller) nicht gleich aussehen sondern unterschiedlich.

Hier ein auf die schnelle erstellter Screenshotvergleich von "Black Desert Online" auf meinem Notebook

Links: Gerendert mit Geforce RTX 3080 mobile
Rechts: Gerendert mit Radeon Vega 8 iGPU
(jo, geht ja net um FPS sondern Renderqualität )

click to enlarge

Gameeinstellungen ident (low quality), Einstellungen in den entsprechenden Radeon Adrenaline / Nvidia Settings standard. Man sieht auf dem Screenshot das Texturen bei der Radeon wesentlich körninger/detailierter sind oder anders gesagt, alles von der Nvidia aussieht als hätte man es danach nochmals weichgezeichnet.

Sorry das es nicht exakt die selbe Szene ist, ich kann nicht on the fly die GPU wechseln :)

Was man jetzt als "besser" empfindet ist vermutlich subjektiv, ich habs halt gerne schärfer/körniger, weil schlechte Augen mit denen alles etwas verschwimmt hab ich selber schon ;)

InfiX

she/her
Avatar
Registered: Mar 2002
Location: Graz
Posts: 14549
predictive heisst auf deutsch aber auch nichts anderes als erfunden :p

klar man kann richtig liegen... oder auch nicht... dann bekommt man halt schöne artefakte.
e: ^das war auf dune's post bezogen.

@Jedimaster, das schaut aber eher danach aus als wär da irgendein schärfefilter aktiv, das lässt sich vermutlich in den grakasettings ändern?
ich find das ehrlich gesagt zu überschärft ^^
Bearbeitet von InfiX am 08.01.2025, 14:24

Dune

Dark mode
Registered: Jan 2002
Location: Wien
Posts: 10376
Das stimmt so auch nicht ganz infiX:
"This technology leverages neural networks to predict and insert new frames *between* existing ones, effectively doubling or even tripling the perceived frame rate."

Das ist auch der Grund, für die Latenz, die du beschreiben hast. Würden neue Bilder erschaffen werden und hinten angereiht, gäbe es keinen Performancegewinn, weil man in der Reihe warten müsste. Die neuen Bilder verdoppeln oder verdreifachen damit theoretisch die FPS. Minus Verluste durch Berechnungsoverhead.

Und erfunden ist wahrscheinlich auch das falsche Wort, sie werden berechnet. Andere Bilder werden ja auch berechnet, die Grundlage ist halt eine andere. Aber dann klingt natürlich die reißerische Story nimmer so cool, schade.

Aber vielleicht versuchen wir die durchaus (mMn) interessante Diskussion durch gegenseitiges anpinkeln via PN zu kanalisieren? Das Thema gibt viel her, da steckt viel Mathe und Logik drinnen, ich find's schade, wenn wir ausgerechnet auf oc.at ein Stammtischniveau erreichen... Dann kannst den Laden echt bald dicht machen.

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 3594
Zitat aus einem Post von InfiX
edimaster, das schaut aber eher danach aus als wär da irgendein schärfefilter aktiv, das lässt sich vermutlich in den grakasettings ändern?

in den Radeon Settings könnte ich "sharpening" noch von 85% auf 100% drehn, hat aber kaum Effekt. Bei der Geforce is komplett egal ob ich bei Scharfstellen der Bilder was einschalt oder "aus", es sieht für mich zumindest, ident aus.

Edit: Hier nochmal screenshot mit höchster texturqualität, bildschärfen 1.0 lt. Nvidia Einstellungen - sieht für mich praktisch gleich aus.

click to enlarge
Bearbeitet von Jedimaster am 08.01.2025, 14:28

InfiX

she/her
Avatar
Registered: Mar 2002
Location: Graz
Posts: 14549
Zitat aus einem Post von Dune
Das stimmt so auch nicht ganz infiX:
"This technology leverages neural networks to predict and insert new frames *between* existing ones, effectively doubling or even tripling the perceived frame rate."

jo ich finds halt immer noch unneedig, es wird immer noch information erzeugt wo vorher nichts war, auch wenn man zwischen 2 frames interpoliert, das ist immer noch was anderes als videokompression wo jedes frame als grundlage für die mathematische berechnung bereits existiert.
aber ja, mea culpa dass ich da nicht technisch genau genug war, ändert an meiner grundsätzlichen aussage aber nix.

der einzige grund warum ich bei dem thema so gereizt bin, ist weil es imho einfach videospiele kaputt macht, und videospiele ein großer teil meines lebens sind und das immer ein hobby war wo ich mit viel herz und energie drin war... mal abgesehen von all den anderen negativen dingen die in der industrie passieren werden die spiele jetzt auch noch technisch "reduziert".

@Jedimaster, ich meinte auch das Radeon bild schaut zu nachgeschärft aus imho. aber wems gefällt ^^ solche settings kann zum glück jeder so einstellen wie ers mag.

aber wenn spiele durch die proliferation von DLSS nicht mehr optimiert werden und es quasi zur pflicht wird kann man sich eben nicht mehr aussuchen ob man ohne oder mit spielt, darum gehts, ansonsten wär mir das ganze thema sowas von popo und ich würd einfach sagen "verwend ich halt nicht"... ja super, bringt mir viel wenn die spiele ohne dann quasi unspielbar werden.
Bearbeitet von InfiX am 08.01.2025, 14:36

Dune

Dark mode
Registered: Jan 2002
Location: Wien
Posts: 10376
Deine GPU erzeugt auch Informationen "wo vorher nix war", so what? ;) So funktionieren Computer halt, bissi magic und sehr viel Lineare Algebra.

Nein, ich werde diese Technik nicht per se geil finden. Das Thema von Blurring was Jedi anspricht, oder Blooming, je nach dem, was man mehr wahrnimmt, geht mir bei meinen Anwendungen auch am Keks. Aber FG ist für mich schon ein extrem starkes Argument.

Ich hab mir auch ein paar YT Videos zu "Games waren früher einfach schöner" reingezogen. Muss sagen, teilweise finde ich die Kritik schon berechtigt, aber pauschal kann man das nicht sagen. Ist es jetzt halt so, dass PC und Konsolenspiele gleich schlecht oder gut rüber kommen. Mit ein paar wenigen Ausnahmen, wo man noch von der PC Performance profitiert. Grundsätzlich hat es für mich bis DLSS2 keinen Vorteil gehabt, wenn man RTX abgeneigt ist. Aber FG ist ab DLSS3 schon ein starkes Argument. Wenn die Bildqualität mit DLSS4 wie geteasert weiterhin verbessert wird... wie lange magst es dann noch aus Prinzip deppad finden?!

Die Latenz bei DLSS3 finde ich genau so berechtigt als Argument. Mich würde mich interessieren wie das FPS Gamer sehen. Bei meinen Spielen nehme ich da kein Shuttering wahr. Aber welche Spiele hast du, wo das auftritt? Wenn du jetzt CP2077 nimmst, schalt's mal aus und schau ob's besser rennt. Ich finde das Spiel schleift da grundsätzlich hinterher um die Berechnungen zu maskieren. Also es ist schon auch sehr individuell, wie die Games an sich so laufen und programmiert sind.

TOM

Elder
Oldschool OC.at'ler
Avatar
Registered: Nov 2000
Location: Vienna
Posts: 7449
regen sich die pixel puristen eigentlich auch darüber auf, dass ihr phone keine 1:1 photonen abbildung des sensors in ein bitmap packt?

"What is an image?"
was ihr am screen seht ist heavy modified, noch vor jeglicher manuellen manipulation

Rendern:
schaut grad sehr danach aus, als ob die zukunft AI generiert/unterstützt wird, mit bisschen ray-/path-tracing eingestreut.... dieses performance zu bildqualität verhältnis erreichst sonst um mehrere faktoren nicht, mit native rendering

und so schlecht wie es heut ausschaut/funktioniert (artefakte etc.) wird es nie wieder sein.... ganz klare direction

InfiX

she/her
Avatar
Registered: Mar 2002
Location: Graz
Posts: 14549
Zitat aus einem Post von Dune
Deine GPU erzeugt auch Informationen "wo vorher nix war", so what? ;) So funktionieren Computer halt, bissi magic und sehr viel Lineare Algebra.

nein?

jeder pixel basiert auf einer berechnung aus grunddaten, 3D modelle, texturdaten etc. das alles wird für jeden pixel aus diesen grunddaten durch shaderformeln etc. berechnet, da wird nichts erfunden.

Zitat aus einem Post von TOM
regen sich die pixel puristen eigentlich auch darüber auf, dass ihr phone keine 1:1 photonen abbildung des sensors in ein bitmap packt?
absolut, ich finde die entwicklung bei handy kameras mehr als bedenklich, ich möchte nicht, dass meine fotos schon im vornherein verfälscht werden und nicht dem entsprechen was ich gesehen hab, ich möchte dass meine kamera ein abbild von dem was ich gesehen hab erstellt, so genau wie eben technisch möglich, ohne dabei selbst etwas dazuzudichten.
Bearbeitet von InfiX am 08.01.2025, 14:44

Dune

Dark mode
Registered: Jan 2002
Location: Wien
Posts: 10376
Nimm's bitte genau so wörtlich, wie es da steht. Und bitte antworte auf Postings ganzheitlich. Es macht keinen Spaß fünf Absätze zu schreiben, wo eine Antwort sich dann auf eine einzige Zeile bezieht.

Schade um's Thema, ich wollte zumindest verstehen worum es dir eigentlich geht, keine Chance. So kann man sich die Diskussion echt sparen, da kann ich mich gleich ins Wirtshaus setzen und Fragen, was die von der EU halten.

bsox

Schwarze Socke
Avatar
Registered: Jun 2009
Location: Dschibuti
Posts: 1107
Zitat aus einem Post von TOM
regen sich die pixel puristen eigentlich auch darüber auf, dass ihr phone keine 1:1 photonen abbildung des sensors in ein bitmap packt?
/schmunzelt in Nintendo Switch Grafik

Also meinen Segen habts Burschen. Kaufts den geilsten Graka ******* der möglich ist, habts Spaß daran und zauberts abartige Benchmarkergebnisse damit!

Ich werd' passen dieses Mal, weil ich mein Geld aktuell lieber in Server- und Netzwerkhardware stecke. Und die daraus resultierenden Stromrechnungen.. *stöhn*

Jedimaster

Here to stay
Avatar
Registered: Dec 2005
Location: Linz
Posts: 3594
Es hat halt jeder seinen ganz persönlichen eigenen Hardware-p0rn-fetish :) Für die einen sinds Grakas, für die anderen CPU's, wieder andere die Netzwerkhardware ;)

InfiX

she/her
Avatar
Registered: Mar 2002
Location: Graz
Posts: 14549
Zitat aus einem Post von Dune
Nimm's bitte genau so wörtlich, wie es da steht. Und bitte antworte auf Postings ganzheitlich. Es macht keinen Spaß fünf Absätze zu schreiben, wo eine Antwort sich dann auf eine einzige Zeile bezieht.

danke, aber nein, dafür hab ich weder die zeit noch die nerven um auf alles vollinhaltlich zu antworten und auf manches hab ich evtl. auch gar keine antwort, deswegen quote ich ja auch explizit den teil worauf ich mich beziehe.

ich finds auf jedenfall schade, dass nvidia mir ein weiteres hobby kaputt macht und damit werd ich wohl in meiner überzeugung denen nie mehr auch nur einen cent zu geben bestätigt.
es macht mir nicht nur spiele sondern leider auch die ganze begeisterung über neue hardware und technische weiterentwicklungen madig.

...jaja ich hab mir vor kurzem erst eine nvidia karte gekauft... aber zum glück gebraucht... und weil ich halt unbedingt CUDA gebraucht hab... gleiches thema gleicher grund warum nvidia bei mir unten durch ist.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz