charmin
Elder^_^
|
d.h wieder ein feature das man eigentlich knicken kann wenn das wirklich so ist wie du das beschrieben hast, denn das werden wieder nur die neuesten AAA Titel sein, und ist nicht als allgemeines Leistungsplus zu werten Nein. Sollte bei allen Games gehen. Die Netze werden mit einigen spielen angelernt. Pubg zb. Und diese Daten werden dann per geforce experience an die User verteilt.
|
Earthshaker
Here to stay
|
Wäre eigentlich ein ziemlich geiles Feature
|
rad1oactive
knows about the birb
|
Nein, das geht soweit ich weiß nur, wenn die Entwickler vorab ein neuronales Netz mit 64 fachem super sampling für das jeweilige Spiel angelernt haben und die Differenzen zum lokal vorhandenen, upgesampelten 4k Bild per GeForce Experience, in Form von Tensor-Daten, in die Tensor-Cores gestreamt wurden. Wie gut bzw. schlecht das dann tatsächlich ausschaut und wie schnell es ist, das gilt es abzuwarten. für dummies: die karte wird über zeit schneller, weil sie aus daten anderer karten lernt zu berechnen?
|
charmin
Elder^_^
|
Ja recht gscheid. Vor allem werden die Datensätze bei Nvidia Rechencluster erstellt und dann verteilt.
|
Darksteel
My Fast thinks ...
|
für dummies: die karte wird über zeit schneller, weil sie aus daten anderer karten lernt zu berechnen? Whoah. ![:eek:](/images/smilies/eek.gif) Wenn dem so ist, find´ich das ein geiles Feature ...
|
mr.nice.
differential image maker
|
Hier die neue 3DMark Ray Tracing Techdemo auf einer RTX 2080 Ti: 3DMark Ray Tracing Tech Demo
|
charmin
Elder^_^
|
für dummies: die karte wird über zeit schneller, weil sie aus daten anderer karten lernt zu berechnen? Hmm nein. Sie wendet einfach nur den Nvidia Datensatz an. Da wurde halt ein neuronales Netz trainiert um die Bildqualität zu verbessern. Das anlernen ist Recht aufwendig, daher auch in Nvidias Rechenzentren. Der Datensatz wird dann von der Karte daheim "angewendet". Kenn mich mit DNN auch noch nicht so gut aus. Also bitte schreiben wenn ich das falsch interpretiere.
|
mat
AdministratorLegends never die
|
Um DLSS überhaupt im Spiel anbieten zu können, muss der Spieleentwickler per NVIDIA API die entsprechenden Funktionalitäten einbauen: NVIDIA NGX Technology - AI for Visual ApplicationsNVIDIA NGX is a new deep learning powered technology stack bringing AI-based features that accelerate and enhance graphics, photos imaging and video processing directly into applications. NVIDIA NGX features utilize Tensor Cores to maximize the efficiency of their operation, and require an RTX-capable GPU. The NGX SDK makes it easy for developers to integrate AI features into their application with pre-trained networks. Link: developer.nvidia.com Welche Möglichkeiten es für kleine Entwickler geben wird, um für ihr Game DLSS zu trainieren, habe ich noch nicht gelesen.
|
p1perAT
-
|
Also das AI InPainting, Slow-Mo und Up-res, finde ich, sieht interessant und brauchbar aus.
Bei DLSS bin ich skeptisch. Glaub kaum, dass das wirklich genutzt werden wird und spürbar für den User sein wird. Ganz unabhängig davon, wenn ich einen Standard AAA-SP-Titel hernehm, dann ist da nach gut gemeinten 10~15h meist eh schluss und das Spiel durchgespielt. In der kurzen Zeit wird es wahrscheinlich nicht genug Input geben um das DLSS irgendwie zu merken. Fraglich auch ob man allg. den Qualitätsunterschied während dem Spielen merkt oder ob das ohnehin untergeht.
|
mat
AdministratorLegends never die
|
Wie hier schon im Thread korrekt geschrieben wurde, wird DLSS nicht vom Spieler selbst eingelernt, es werden nur die Interferenz-Daten angewandt, um das Supersampling zu bewerkstelligen. Diese Daten müssen über GeForce Experience vorab heruntergeladen werden.
In der Praxis befürchte ich, dass nur die Blockbuster bzw. die Spiele mit NVIDIA-Kooperation DLSS bekommen werden.
|
p1perAT
-
|
Da hab ich mich etwas ungut ausgedrückt. Dass die Daten für DLSS von NV über GeForce Experience zur Verfügung gestellt werden war mir klar. ![:)](/images/smilies/smile.gif) Was ich meinte war, dass es zum Release von Spielen noch keine Daten für DLSS geben wird, da die erst durch die Userbase gesammelt werden müssen - sprich das System muss erst "lernen". Sobald es dann genug Input gibt und DLSS genutzt werden kann, werden die notwendigen Daten an GeForce-Experience übertragen und der User profitiert davon - oder?
|
mr.nice.
differential image maker
|
Ich denke nicht, dass die Tensor-Daten durch die gamer generiert werden, eher vorab von den Entwicklern während der Alpha- und Beta-Tests auf einem oder mehreren DGX-Clustern von Nvidia.
|
charmin
Elder^_^
|
Wäre unlogisch. Hab auch gelesen dass die Daten bei Nvidia erzeugt werden.
|
rad1oactive
knows about the birb
|
ja aber irgendwie ists ja unlogisch oder? wenn ich schon so ein system etablier, wär ich doch blöd, nicht die berechnungen, die jede einzelne GPU weltweit macht, auch miteinzubeziehen.
|
mat
AdministratorLegends never die
|
Da hab ich mich etwas ungut ausgedrückt. Dass die Daten für DLSS von NV über GeForce Experience zur Verfügung gestellt werden war mir klar. Was ich meinte war, dass es zum Release von Spielen noch keine Daten für DLSS geben wird, da die erst durch die Userbase gesammelt werden müssen - sprich das System muss erst "lernen". Sobald es dann genug Input gibt und DLSS genutzt werden kann, werden die notwendigen Daten an GeForce-Experience übertragen und der User profitiert davon - oder? Das wäre eine tolle Zukunftsvision. So wie es derzeit aussieht, wird das Spiel (oder sogar der Source Code?) zu NVIDIA geschickt und mittels DGX SATURNV trainiert. Offizielle Informationen dazu gibt es keine, auch nicht im Dev-Portal von NVIDIA. Das NGX SDK ist auch noch nicht offiziell zum Download verfügbar.
|