"We are back" « oc.at

NVIDIA stellt neue GeForce-Generation vor: RTX 2080 Ti, RTX 2080 und RTX 2070

mat 20.08.2018 - 18:43 258256 890
Posts

Vinci

hatin' on summer
Registered: Jan 2003
Location: Wien
Posts: 5835
Zitat aus einem Post von rad1oactive
ja aber irgendwie ists ja unlogisch oder?
wenn ich schon so ein system etablier, wär ich doch blöd, nicht die berechnungen, die jede einzelne GPU weltweit macht, auch miteinzubeziehen.

Ich nehm mal an dass ist auf Grund der großen Datenmengen die da "on-the-fly" anfallen würden technisch nicht machbar. Und temporär zwischenspeichern wäre wohl auch keine Lösung im Sinne des Kunden...

rad1oactive

knows about the birb
Avatar
Registered: Jul 2005
Location: Virgo Superclust..
Posts: 12664
mhmm kann sein, vielleicht bin ich da zu blauäugig ;)

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1953
soweit ich das deep learning verstanden habe: du musst dem Supercomputer "idealisierte Referenzbilder/-kanten/-texturen" zur verfügung stellen, sowie unterschiedliches Ausgangsmaterial mit unterschiedlicher qualität, damit dieser dann die Algorithmen dementsprechend entwickeln und optimieren kann, damit am Ende der Algoanwendung zu 99.9999% das "richtige" Referenzergebnis herauskommt. d.h. der spieleentwickler muß wohl die referenzbilder liefern, und das ausgangsmaterial wird dann wohl aus den pre-closed-alpha/beta tests stammen, da ja jeder user andere auflösung/detailgradsettings und FPS ansprüche hat.
aber a) wer wählt die referenzbilder wann aus? Menschen oder? und ist das nicht dann schon die erste "fehlerquelle"? b) wenn der algo dann doch nicht passt, genau an der einen spielstelle, bei genau der einen sequenz? oder weil eben sich die engine durch patches etc dermaßen verändert hat bis zum release? c) wenns mir als user subjektiv doch nicht gefällt, kann ich dann noch irgendwie "eingreifen" oder einfach nur ausmachen und ohne DLSS spielen, in verbindung mit ich muss dann zu herkömmlichen AA greifen und die FPS-Einbußen hinnehmen?

charmin

Elder
^_^
Avatar
Registered: Dec 2002
Location: aut_sbg
Posts: 15224
Zitat aus einem Post von rad1oactive
ie jede einzelne GPU weltweit macht, auch miteinzubeziehen.

najo, ständige datenübertragung zu nvidia von allen gpus weltweit. weniger rechenleistung an deinem pc weil ständig daten übertragen bzw datensätze erstellt werden. najo ich weiss ned

rad1oactive

knows about the birb
Avatar
Registered: Jul 2005
Location: Virgo Superclust..
Posts: 12664
die geforce experience macht das ja jetzt auch schon, nur halt nicht ständig, sondern auf mausklick.
batchweise könnte man das schon realisieren denk ich.

Earthshaker

Here to stay
Avatar
Registered: Dec 2002
Location: .de
Posts: 9096

Amd würde für so ein halbfertiges Produkt mit dem Stromverbrauch (345 watt ohne OC) einfach nur zerfetzt werden.
Bearbeitet von Earthshaker am 19.09.2018, 15:20

daisho

Vereinsmitglied
SHODAN
Avatar
Registered: Nov 2002
Location: 4C4
Posts: 19786
Ich würde mir von dem Cloud-AA-Feature nicht all zu viel erwarten imho. Immerhin hat 3DMark nachgezogen und nvidia steht jetzt nicht ganz so blöd da wenn die Karten getestet werden am neuesten 3DMark ...

blood

darkly dreaming
Avatar
Registered: Oct 2002
Location: Wien
Posts: 9333
reviews kommen rein!

p1perAT

-
Registered: Sep 2009
Location: AT
Posts: 2952
@mat - Danke für die Infos! :)

Computerbase hat auch ein Review up:


Leistung verglichen mit der alten Gen sieht gut aus. Wenn die 2070 auch einen ähnlichen Sprung zur 1070 macht, wäre das sehr nice und eine Überlegung Wert direkt upzugraden und nicht noch eine Gen abzuwarten.

rad1oactive

knows about the birb
Avatar
Registered: Jul 2005
Location: Virgo Superclust..
Posts: 12664
also die 2080Ti ist im schnitt ~35% schneller in 4K als eine 1080ti.

sorry, aber das ist imho zu wenig, bei dem preisaufschlag. neue technologie hin oder her.

p1perAT

-
Registered: Sep 2009
Location: AT
Posts: 2952
Ich hab mir primär die Benchmarks für 1440p angesehen und da die non-TI Varianten verglichen. Da kommt man im Mittel auf +40% (2080 vs 1080) was für mich durchaus ok ist und ein Upgrade rechtfertigen würde.

Beim TI Vergleich unter 1440p landen wir im Mittel bei +33% etwas weniger aber imho auch noch "ok" für einen Generationswechsel.

SaxoVtsMike

R.I.P. Karl
Avatar
Registered: Sep 2006
Location: ö
Posts: 8126
jetzt hamma den salat.. 2080Ti ~2x980Ti
Irgendwie steubt sich da bei mir da aber innerlich etwas gegen 1.2-1.3k€ dafür auszugeben.

Weinzo

Become like water
Avatar
Registered: Oct 2000
Location: 4621
Posts: 5052
Finde das Upgrade ansich gut, jedoch ist der Preis halt noch irre.
Derzeit kostet eine 2080 fast das doppelte einer 1080/Vega bei ca. 40% Mehrleistung.

Mehr Leistung für noch mehr Geld ist jetzt nicht der Mörderdeal :D

Earthshaker

Here to stay
Avatar
Registered: Dec 2002
Location: .de
Posts: 9096
Teilweise die 1080ti noch schneller als die 2080. Hm.
Eine Evga 1080ti gabs für 599 vor kurzem...

Für mich als 1080 Käufer lohnt sich eigentlich auch nur die 2080ti.

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1953
ich warte dann mal auf die Titan Turing....
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz