"We are back" « oc.at

NVIDIA stellt neue GeForce-Generation vor: RTX 2080 Ti, RTX 2080 und RTX 2070

mat 20.08.2018 - 18:43 258152 890
Posts

charmin

Elder
^_^
Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 15184
Zitat aus einem Post von SaxoVtsMike
d.h wieder ein feature das man eigentlich knicken kann wenn das wirklich so ist wie du das beschrieben hast, denn das werden wieder nur die neuesten AAA Titel sein, und ist nicht als allgemeines Leistungsplus zu werten

Nein. Sollte bei allen Games gehen. Die Netze werden mit einigen spielen angelernt. Pubg zb. Und diese Daten werden dann per geforce experience an die User verteilt.

Earthshaker

Here to stay
Avatar
Registered: Dec 2002
Location: .de
Posts: 9088
Wäre eigentlich ein ziemlich geiles Feature :)

rad1oactive

knows about the birb
Avatar
Registered: Jul 2005
Location: Virgo Superclust..
Posts: 12660
Zitat aus einem Post von mr.nice.
Nein, das geht soweit ich weiß nur, wenn die Entwickler vorab ein neuronales Netz mit 64 fachem super sampling für das jeweilige Spiel angelernt haben und die Differenzen zum lokal vorhandenen, upgesampelten 4k Bild per GeForce Experience, in Form von Tensor-Daten, in die Tensor-Cores gestreamt wurden. Wie gut bzw. schlecht das dann tatsächlich ausschaut und wie schnell es ist, das gilt es abzuwarten.

für dummies: die karte wird über zeit schneller, weil sie aus daten anderer karten lernt zu berechnen?

charmin

Elder
^_^
Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 15184
Ja recht gscheid. Vor allem werden die Datensätze bei Nvidia Rechencluster erstellt und dann verteilt.

Darksteel

My Fast thinks ...
Avatar
Registered: Jul 2004
Location: AUT, Wiener Neud..
Posts: 1909
Zitat aus einem Post von rad1oactive
für dummies: die karte wird über zeit schneller, weil sie aus daten anderer karten lernt zu berechnen?

Whoah. :eek:
Wenn dem so ist, find´ich das ein geiles Feature ...

mr.nice.

differential image maker
Avatar
Registered: Jun 2004
Location: Wien
Posts: 6552
Hier die neue 3DMark Ray Tracing Techdemo auf einer RTX 2080 Ti:

charmin

Elder
^_^
Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 15184
Zitat aus einem Post von rad1oactive
für dummies: die karte wird über zeit schneller, weil sie aus daten anderer karten lernt zu berechnen?

Hmm nein. Sie wendet einfach nur den Nvidia Datensatz an. Da wurde halt ein neuronales Netz trainiert um die Bildqualität zu verbessern. Das anlernen ist Recht aufwendig, daher auch in Nvidias Rechenzentren. Der Datensatz wird dann von der Karte daheim "angewendet".

Kenn mich mit DNN auch noch nicht so gut aus. Also bitte schreiben wenn ich das falsch interpretiere.

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25520
Um DLSS überhaupt im Spiel anbieten zu können, muss der Spieleentwickler per NVIDIA API die entsprechenden Funktionalitäten einbauen:


Welche Möglichkeiten es für kleine Entwickler geben wird, um für ihr Game DLSS zu trainieren, habe ich noch nicht gelesen.

p1perAT

-
Registered: Sep 2009
Location: AT
Posts: 2952
Also das AI InPainting, Slow-Mo und Up-res, finde ich, sieht interessant und brauchbar aus.

Bei DLSS bin ich skeptisch. Glaub kaum, dass das wirklich genutzt werden wird und spürbar für den User sein wird. Ganz unabhängig davon, wenn ich einen Standard AAA-SP-Titel hernehm, dann ist da nach gut gemeinten 10~15h meist eh schluss und das Spiel durchgespielt. In der kurzen Zeit wird es wahrscheinlich nicht genug Input geben um das DLSS irgendwie zu merken. Fraglich auch ob man allg. den Qualitätsunterschied während dem Spielen merkt oder ob das ohnehin untergeht.

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25520
Wie hier schon im Thread korrekt geschrieben wurde, wird DLSS nicht vom Spieler selbst eingelernt, es werden nur die Interferenz-Daten angewandt, um das Supersampling zu bewerkstelligen. Diese Daten müssen über GeForce Experience vorab heruntergeladen werden.

In der Praxis befürchte ich, dass nur die Blockbuster bzw. die Spiele mit NVIDIA-Kooperation DLSS bekommen werden.

p1perAT

-
Registered: Sep 2009
Location: AT
Posts: 2952
Da hab ich mich etwas ungut ausgedrückt. Dass die Daten für DLSS von NV über GeForce Experience zur Verfügung gestellt werden war mir klar. :) Was ich meinte war, dass es zum Release von Spielen noch keine Daten für DLSS geben wird, da die erst durch die Userbase gesammelt werden müssen - sprich das System muss erst "lernen". Sobald es dann genug Input gibt und DLSS genutzt werden kann, werden die notwendigen Daten an GeForce-Experience übertragen und der User profitiert davon - oder?

mr.nice.

differential image maker
Avatar
Registered: Jun 2004
Location: Wien
Posts: 6552
Ich denke nicht, dass die Tensor-Daten durch die gamer generiert werden, eher vorab von den Entwicklern während der Alpha- und Beta-Tests auf einem oder mehreren DGX-Clustern von Nvidia.

charmin

Elder
^_^
Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 15184
Wäre unlogisch. Hab auch gelesen dass die Daten bei Nvidia erzeugt werden.

rad1oactive

knows about the birb
Avatar
Registered: Jul 2005
Location: Virgo Superclust..
Posts: 12660
ja aber irgendwie ists ja unlogisch oder?
wenn ich schon so ein system etablier, wär ich doch blöd, nicht die berechnungen, die jede einzelne GPU weltweit macht, auch miteinzubeziehen.

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25520
Zitat aus einem Post von p1perAT
Da hab ich mich etwas ungut ausgedrückt. Dass die Daten für DLSS von NV über GeForce Experience zur Verfügung gestellt werden war mir klar. Was ich meinte war, dass es zum Release von Spielen noch keine Daten für DLSS geben wird, da die erst durch die Userbase gesammelt werden müssen - sprich das System muss erst "lernen". Sobald es dann genug Input gibt und DLSS genutzt werden kann, werden die notwendigen Daten an GeForce-Experience übertragen und der User profitiert davon - oder?
Das wäre eine tolle Zukunftsvision. So wie es derzeit aussieht, wird das Spiel (oder sogar der Source Code?) zu NVIDIA geschickt und mittels DGX SATURNV trainiert. Offizielle Informationen dazu gibt es keine, auch nicht im Dev-Portal von NVIDIA. Das NGX SDK ist auch noch nicht offiziell zum Download verfügbar.
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz