charmin
Super Moderator10x
|
|
creative2k
Phase 2.5
|
|
JDK
Oberwortwart
|
Kein Bash, sondern wirkliches Interesse: wieso wartet ihr ned erstmal die Reviews zur 6900XT ab, bevor ihr 1700+€ ausgebt?
Braucht ihr unbedingt jetzt eine Karte? Wegen DLSS? CUDA? Oder einfach nur "des homma scho immer so gmocht"?
|
daisho
SHODAN
|
G-Sync (Hauptgrund), mehr VRAM und Leistung bleibt vermutlich (ja, da könnte man die Reviews natürlich abwarten) trotzdem darüber insbesondere mit Raytracing und mir gefällt der NV Treiber besser als der von AMD (rein optisch, ist jetzt also kein Top-Kaufgrund).
Mich nerft es nur weil ich spezifisch von EVGA eine Karte haben wollte wegen der Garantieverlängerungen die die anbieten, aber von denen gibt es so gut wie Null Verfügbarkeit in der EU unter anderem weil die auch eher USA schwer bevorzugen anscheinend.
Wenn dir der Internetprovider dann noch in die Eier tritt WENN denn schon mal (das ist btw überhaupt das erste mal dass ich eine EVGA 3090 in der EU wo lagernd sehe) bestellen will > geh leck.
Ja, ist jetzt nicht die Welt. Bis Anfang Dezember hab ich noch Zeit für eine ordentliche GraKa für CP2077. Danach ist es mir vermutlich eh schon wieder wurscht und die 2080 Ti macht es weiterhin ... (wenn bis dahin nix geliefert werden kann haben sie meine 2k Euro einfach verloren ".")
|
PR1
...
|
Kein Bash, sondern wirkliches Interesse: wieso wartet ihr ned erstmal die Reviews zur 6900XT ab, bevor ihr 1700+€ ausgebt?
Braucht ihr unbedingt jetzt eine Karte? Wegen DLSS? CUDA? Oder einfach nur "des homma scho immer so gmocht"? hab derzeit 3 G-Sync Monitore aber schließe nicht aus dass ein 2tes Sys 2021 komplett AMD sein wird edit: und war Titan X/ 2080ti SLI Nutzer wo der Preis egal war und das jetzt auch "im Rahmen" ist
Bearbeitet von PR1 am 02.11.2020, 13:06
|
Garbage
AdministratorThe Wizard of Owls
|
NVIDIA hat es halt über die Jahre gut geschafft eine gewisse Nutzergruppe in ihr Ökosystem zu ziehen und dort zu binden. Sei das jetzt mit G-Sync, CUDA oder NVEnc, es gibt verschiedene Gründe warum man sich einen Wechsel zu AMD trotzdem nicht antun will oder kann (leider).
Die Adobe Suite ist so ein Beispiel, wo NVIDIA bisher (teilweise deutlich) die Nase vorne hatte. Ob das nicht auch daran liegt, dass Adobe für OpenCL weniger Entwicklungsresourcen einsetzt mag durchaus sein, interessiert aber den Benutzer am Ende nicht, wenn nur die schnellste Lösung zählt.
|
daisho
SHODAN
|
Als 3090 Käufer bin ich jetzt nicht die Zielgruppe "ich schau auf jeden Cent" sondern will einfach un-kompromisslos das für mich beste. Wenn die 6900XT jetzt die 3090 aus den Socken hauen würde wäre das etwas anderes. Ich glaube das wird es aber nicht spielen und ich bezweifle dass die realen Benches das Marketing übertreffen werden ... (das wäre ja schlechtes Marketing)
Smart Access Memory setzt wieder einen neuen Ryzen voraus, ich hatte eigentlich nicht vor die CPU auch mit zu ändern. Klar, im Preis 3090 vs 6900XT wäre es vielleicht sogar inbegriffen, then again - no GSync benefit wenn ich dann im selben Preisbereich lande wegen der CPU. Aber wenn der Unterschied marginal ist bleibe ich lieber bei meinem bisherigen Ökosystem ohne irgendwelche Features zu verlieren.
Gespannt kann man natürlich trotzdem sein auf die Performance der AMD Karten (wenn sie die 3090 gut übertrifft > nice, wenn nicht ... auch nice weil Konkurrenz tut uns Konsumenten auf lange Sicht nur gut).
|
charmin
Super Moderator10x
|
zum glück gibts monitore wie meinen der g-sync und das amd zeugs kann
|
JDK
Oberwortwart
|
Ich glaub nicht, dass die 6900 die 3090 schlägt, aber das muss sie für den Preis ja auch nicht, da würde ein "in die Nähe Kommen" ja schon reichen. Danke für die Antworten jedenfalls! "Geld spielt keine Rolle" und "vorhandenes Ökosystem" ist zwar für mich persönlich nix, aber es hilft hier andere Standpunkte zu kennen.
|
Slavi
Addicted
|
puh ich dachte ich geb dem Sohnemann meine 2080TI günstig ab und kauf mir die 3080, jetzt hat er die vergleiche auf Youtube gesehn und will auch eine.
Wird wahrscheinlich sau schwer sein die 2080 TI zu verkaufen nehm ich an.
|
MaxMax
Here to stay
|
@charmin: laut nvidia ist g sync compatible und g sync (ultimate) nicht dasselbe! ich würd einem gsync ultimate monitor immer den vorzug geben als einem compatible, aber vl bin ich schon ein nv brainwashed jünger :P
@slavi: wenns unbedingt weg muss, nehm ich dir die 2080ti für 200.- ab :P
Bearbeitet von MaxMax am 02.11.2020, 15:49
|
charmin
Super Moderator10x
|
@charmin: laut nvidia ist g sync compatible und g sync (ultimate) nicht dasselbe! ich würd einem gsync ultimate monitor immer den vorzug geben als einem compatible, aber vl bin ich schon ein nv brainwashed jünger :P G-sync ultimate ist die veraltete Bezeichnung für G-sync mit HDR, sonst nix. Mein Monitor kann HDR (wenn auch nur das schwächste) und G-sync läuft ganz normal drauf. Ich hatte vorher auch einen "echten" G-sync. Da gibts keinen Unterschied meiner Meinung nach.
|
MaxMax
Here to stay
|
g sync ultimate: beste ansprüche an panel pixel(response, farbraum, max. helligkeit, latenz, von 1 - 144 Hz + regelbarer gsync bereich, panele und monitore werden eigens von nvidia "Zertifiziert"
gsync compatibe: nix von dem oben "muss" sein afaik.... aber kann tlw erfüllt werden
|
eeK!
ieS Virtual Gaming
|
@slavi ich opfere mich um biete 250€ ;D
|
charmin
Super Moderator10x
|
beste ansprüche an panel pixel(response, farbraum, max. helligkeit, latenz, von 1 - 144 Hz + regelbarer gsync bereich, panele und monitore werden eigens von nvidia "Zertifiziert"
gsync compatibe: nix von dem oben "muss" sein afaik.... aber kann tlw erfüllt werden Alles obere Erfüllt mein Monitor. Bis auf die Range halt -> 48 -144/160 Der HDR Standard beschreibt aber das meiste an deinen Angaben von oben sowieso (Helligkeit, farbraum, etc). Also Marketing Geschwurbel und ich kauf mir sicher keinen G-sync ultimate aufgrund Eigenschaften die mein Monitor auch hat, damit ich dann wieder nur Nvidia kaufen kann.
|