smashIt
master of disaster
|
ich bin ja immer noch froh, dass ich mir damals die 5700xt geholt habe, bevor der markt völlig durchgedreht ist...
|
ccr
|
das fazit find ich spannend. nimm bitte die langsamere, teurere karte. seems legit. Bei FC6 und RDR2 reden wir da über 4 bzw 5%, bei einer Framerate die so oder so sehr spielbar ist. Das ist komplett wurscht. Und für die ein, zwei Spiele, bei denen die AMD top performt, findet man genauso auch Spiele bei denen NVidia klar davonzieht Im Durchschnitt ist die Performance in der Rasterisation bei XTX und 4080 ziemlich ausgeglichen. Wenn man aber RT aktiviert, schaut es für die AMD Karte nach wie vor nicht gut aus. In einigen wenigen Spielen kann sie mit der 4080 mithalten, in anderen (und das ist nicht nur CP2077) ist sie weiterhin weit hinten. Daher wird die Gesamtperformance der 4080 von den meisten Reviewern eben höher eingeschätzt als die der XTX. Gemeinsam mit den Treiberproblemen und sonstigen Quirks die viele Reviewer erlebt haben , und der nicht überzeugenden Effizienz und dem Idle-Verbrauch, und dem Vorteil der NVidia Karten bei manchen professionellen Anwendungen, ist der Conclusio so mehr oder weniger, dass im Grunde derzeit nur der Preis für die XTX spricht, und beide Karten überteuert sind. Wenn eine Referenz-XTX 1.150 Euro kostet, sind die 200 Euro für die günstigste 4080er kein großer Aufpreis mehr dafür, dass man keine Kompromisse eingehen muss. Es würde wohl anders aussehen, wenn das Karten im Bereich von 600-800 Euro wären.
Bearbeitet von ccr am 12.12.2022, 21:02
|
sk/\r
i never asked for this
|
Skar, du hast eine händisch ausgesuchte Stichprobe von 2 spielen gewählt und die auch noch gezielt ausgesucht. Das sagt statistisch 0 aus, sorry. Schau dir einfach den Performance Index an. Da fließen iirc alle getesteten spiele/Benchmarks mit ein, bzw das was die reviewer halt definieren. ich weiß noch immer nicht warum du von 2 sprichst. 4 hab ich verlinkt? bei den quellen die ich angeführt hab, sind natürlich mehr drin. einzig cp77 (was ja bekanntermaßen für nvidia optimiert ist) stinkt gewaltig ab. dadurch sinkt auch das overall rating stark. wenn man dieses eine game rausnimmt ist der unterschied OVERALL recht schmal. vor allem wenn man den preis miteinbezieht spricht imo nicht mehr viel für nvidia. das ist halt meine conclusio. @ccr: RT als nvidia eigenes produkt ins rennen schmeissen ist halt generell meh. bringt auch nicht viel. teilweise schauen games sogar schlechter aus. (ja da gibts reviews die das zeigen) wenn man gleiches mit gleichem vergleichen will, muss man beides ohne RT vergleichen. sonst ist das ja nix anderes als äpfel/birnen. aber ich rieche hier etwas viel nvidia biased um ehrlich zu sein.
Bearbeitet von sk/\r am 12.12.2022, 21:23
|
NeseN
Nobody f*ks with DeJesus!
|
zumindest wurde der mund wassrig/feucht, 6900XT bleibt beides trifft auch genau auf mich zu
|
ccr
|
aber ich rieche hier etwas viel nvidia biased um ehrlich zu sein. Dann viel Glück morgen beim Release. Ist doch schön, dass es jetzt eine Auswahl gibt. Und von der Preisdifferenz zur 4080 kannst Du Dir noch ein feines Abendessen gönnen.
|
deleted060824
|
/me hat normalerweise einen klaren AMD Bias, aber ich kaufe das was für mich am besten ist. Momentan ist das NV, trotz der irrwitzigen Preisgestaltung.
Sollte AMD die Startprobleme bis Ende Jänner in den Griff kriegen, (hoher Video/Multi Monitor Verbrauch, unwuchtige Performance) kann man nochmals drüber nachdenken.
|
sk/\r
i never asked for this
|
Dann viel Glück morgen beim Release. Ist doch schön, dass es jetzt eine Auswahl gibt. Und von der Preisdifferenz zur 4080 kannst Du Dir noch ein feines Abendessen gönnen. ich bekomm am wochenende eine 3090 um 300€. ich bin bestens versorgt. danke. aber da sind wir uns einig. es braucht mehr auswahl. ich hoffe an der stelle auch, dass intel einen dreierkampf draus machen kann in zukunft.
|
xtrm
social assassin
|
Ich schau mir gerade die Benchmarks an...10-20 % Vorteil (je nach Auflösung) der 7900 XT gegenüber der 6900 XT finde ich schon sehr schwach. Noch dazu kostet sie im UVP mehr als der Vorgänger. Das ist wieder die typische "die bessere Karte kostet eh nicht viel mehr, nehmt's gleich die XTX"-Masche, so wie es die 6800 non-XT bei RDNA2 war.
Das 7900 XT Kühlerdesign ist auch ein wenig lauter als die 4080 FE und die XTX ist bei der Lautstärke quasi gleichauf mit der 4090, welche leistungstechnisch weit vorne ist. Der Stromverbrauch/Effizienz sieht im Idle gut aus, bei YT-Video dafür katastrophal. Unter Load sieht es auch nicht besonders gut aus, beide verbrauchen mehr als die 4080 FE, vor allem mit FPS-Limiter ist der Stromverbrauch eigentlich komplett inakzeptabel.
Im Endeffekt läuft's auf das hinaus, was ich erwartet habe: AMD kann nur mit einem punkten, und das ist der Preis. Aber ob den Preis jemand schert, der sowieso gewillt ist, über 1k für eine Karte zu zahlen, weiß ich nicht.
Gefühlt hat AMD kaum einen Fortschritt von RDNA2 auf RDNA3 gemacht, da wurde das was angekündigt wurde überhaupt nicht gehalten. Sie haben es geschafft, eine 4080, die eigentlich gar nicht gut aussah, auf einmal gut aussehen zu lassen. Klar, der Preis spricht für AMD, aber alles andere halt nicht. Da war AMD bei der vorherigen Generation deutlich konkurrenzfähiger, was leider bedeutet, dass sie hiermit NVIDIAs Preispolitik bestätigen, anstatt sie zu bestrafen.
Bearbeitet von xtrm am 13.12.2022, 05:45
|
WONDERMIKE
Administratorkenough
|
Ich bin jedenfalls auf den Verkaufserfolg gespannt. Denke wirklich nicht, dass das bisschen gesparte Geld die Leute in dem Preisbereich überzeugt. Da hätte die Karte, die man ehrlicherweise 7800XT nennen hätte sollen, noch ein Eck günstiger sein müssen. Dann würde sie sich auch wie blöd verkaufen und AMD hätte wieder einen zweistelligen Marktanteil imo. Derzeit schauts für mich so aus, dass AMD dabei hilft, dass man sich gleich zur 4080 überwindet. Gebe xtrm Recht, RDNA2 war der deutlich geilere Launch. Was noch interessant werden könnte sind die übertakteten AiB Modelle, die dann aber natürlich böse saufen werden, und was noch bei den Treibern an Performance schlummert. Bei RDNA2 hats leider lang gedauert, bis dieses Potential abgerufen wurde. Bei der neuen Architektur dürfte man mal generell gefordert sein, aber vielleicht geht auch noch einiges durch „Dual-Issue“ Optimierungen. @ccr: RT als nvidia eigenes produkt ins rennen schmeissen ist halt generell meh. Du bist entweder schlecht informiert, was ja nicht wild ist, oder legst dir bewusst solche Märchen zurecht. 2018 hätte ich es verstanden, wenn halbwegs interessierte Menschen RT noch für ein Nvidia Produkt gehalten hätten. Dreh mit der 3090 dann mal eine Runde mit RT durch Night City mein Favorit ist nachts bei Regen mit Autoscheinwerfern, aber bei Sonnenschein zu den Palmen aufzublicken ist auch wundervoll.
|
Garbage
AdministratorThe Wizard of Owls
|
Seh ich auch so, dass die 6000er Serie eigentlich näher dran war als es jetzt die 7000er zu sein scheint. V.a. so Sachen wie die hohe Leistungsaufnahme im Idle, die immer noch hohe Leistungaufnahme bei leichten Tasks wie YT, oder die von manchen Reviews negativ erwähnte Lüftersteuerung bei der XTX, sind halt jetzt in Kombination keine Einladung für einen Must-Buy. Ja klar wird sich da noch was tun, aber da sind wir dann halt wieder beim Thema, dass bei einem AMD-Launch eigentlich immer irgendwas nicht passt. Das war bei der 6000er Serie zur Überraschung mal nicht so sehr der Fall, wahrscheinlich musste man deshalb wieder in alte Muster zurück.
|
Viper780
ModeratorEr ist tot, Jim!
|
Mich haben die großen Unterschiede zwischen den Spielen stark verwundert. Das scheint durch (nicht vorhandene) Treiber bzw Spiel Optimierungen liegen. RDNA3 hat für die Shader ein Dual-Issue-Feature bekommen was wohl einiges Tuning bedarf. Ich bin von beiden Seiten mal auf das komplette Lineup gespannt. Fürchte aber dass wir im Bereich unter 600€ nur refreshes sehen werden. Multi Monitor und Video Verbrauch ist richtig böse. Das geht leider gar nicht. Das war früher schon immer ein Problem bei AMD, aber ich dachte das sei spätestens seit RDNA überwunden.. Eigentlich war AMD vor RDNA da deutlich besser als nvidia unterwegs und mit Vega gezeigt wie es gehen kann.
|
Starsky
Erbeeren für alle!
|
Mein Eindruck ist halt, daß bei AMD noch viel Potenzial bei den Treibern schlummert. Und wenn NV Anfang Jänner mit der 4070/Ti um die Ecke kommt, könnte auch ein gewisser preislicher Druck umgekehrt auf AMD wirken was mich zum Abwarten bringt.
|
ccr
|
Da kann schon noch Potential da sein, ja. Auch die Spiele können sicher noch auf das neue Design optimiert werden. Die Frage ist halt immer: wie lange dauert das? Selbst bei FSR 3.0 gibt es ja keinen Anhaltspunkt, ob das im Jänner oder im Dezember 2023 kommt - "nächstes Jahr" ist ein dehnbarer Begriff. Und es ist peinlich, dass man zu so einen wichtigen Launch, der eh schon verschoben wurde, trotzdem wieder problembehaftete Treiber ausliefert.
|
Viper780
ModeratorEr ist tot, Jim!
|
Und es ist peinlich, dass man zu so einen wichtigen Launch, der eh schon verschoben wurde, trotzdem wieder problembehaftete Treiber ausliefert. Von Problemen hab ich noch nichts gehört. Nur dass jedes Spiel einzeln optimiert werden muss.
|
ccr
|
Viele Reviewer berichten von Problemen mit den Treibern. Bildaussetzer, flimmern, Abstürze, teilweise dürften auch die Einstellungsmöglichkeiten noch nicht so richtig für die neuen Karten passen. Nichts, was sich nicht in den nächsten Wochen beheben ließe, andererseits entspricht es halt leider wieder allen Vorurteilen gegenüber AMD, und ist besonders mit Blick auf den verzögerten Release unschön.
|