"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

NVIDIA Ampere: RTX 30 Serie

WONDERMIKE 03.11.2019 - 14:37 630130 3393 Thread rating
Posts

b_d

natürlich unwissend
Avatar
Registered: Jul 2002
Location: 0x3FC
Posts: 10534
Zitat aus einem Post von Vinci
Ich find ein wenig Schade dass das komplette Internet auf den Hype Train aufspringt... Gibts eigentlich noch irgendwo kritischen Hardware Journalismus? Niemand scheints zu kümmern dass NVidia mit all den vorgestellten Technologien sich rasant Richtung Vendor-Lock bewegt... Wenn ich mir die Bilder im Control Thread anschau wos amal "nur" um RTX geht, dann kotzt mich das jetzt scho an. Nimma lang und Spiel XYZ startet auf nicht NVidia Karten gar ned.
raytracing ist eine option, keine dependency. sonst hätte man sich zu 3dfx zeiten auch über glide aufregen können. sehe ich aktuell (!) noch nicht so schlimm. hängt auch einzig und allein von den DEVs ab, und die sind gott sei dank net so verbandelt mit nvidia wie ios devs mit apple zB…

e: wenn ich lang genug darüber nachdenk war glide viel ärger, vorallem weils ne API war, kein feature. erinnert euch bitte an descent (1995). glide war imgo ein weitaus ärgerer life changer als jetzt raytracing…
Bearbeitet von b_d am 07.09.2020, 11:25

mr.nice.

Moderator
differential image maker
Avatar
Registered: Jun 2004
Location: Wien
Posts: 6419
Hier ein sehr interessanter Beitrag zum tatsächlichen VRAM Verbrauch:

Kurz gefasst, Spiele belegen oft mehr VRAM als sie tatsächlich benötigen, Auslesetools melden die belegte Speichermenge und liefern somit mitunter irreführende Zahlen.

deleted060824


Registered: Aug 2024
Location:
Posts: 0
Das ist bekannt. Trotzdem werden 10GB nicht reichen über die nächsten 2-3 Jahre. So lange hab ich vor die Karte zu nutzen.

erlgrey

formerly known as der~erl
Registered: Aug 2002
Location: Wien
Posts: 4418
Es kommt einfach darauf an ob ich mir eine gpu für 1 Jahr kaufe, oder vielleicht für 3 mit der Wahrscheinlichkeit auf ein >1440p Monitor Upgrade.
10gb sind weder unbrauchbar noch ausreichend in alle Ewigkeit imo.

Ich komme jetzt in 7dtd und 1440p, das ist durch voxel einfach vram intensiv seit a18, auf >8gb und wenn das passiert tut sogar af >4x weh, da hilft mir btw. Hbcc ein wenig. SC komm ich mit 8 noch recht gut aus bis auf paar locations, ich gehe aber nicht davon aus, dass das im nächsten Jahr noch so ist, schon gar nicht mehr wenn ein neuer Monitor kommt.

2020/21 eine gpu mit der gleichen (3070) oder nur geringfügig mehr vram als meine >2 Jahre alte vega56 zu kaufen, klingt einfach nicht nach einem guten Plan.


NV macht es ja recht geschickt, 3080 hat eine p/l die AMD vermutlich wirklich weh tut, ist aber vom vram her eher spärlich als üppig ausgestattet. Dh. die die mehr wollen müssen 1.5k in die Hand nehmen, oder auf eine super oder ti warten die nv vermutlich mal rausbringt, wenns sein muss. Es gibt sicher auch einige die doppelt kaufen werden.


ID lead engine eng. sieht 8gb als minimum an und more = better, da ist die 3080 ja fein raus. ;)
https://mobile.twitter.com/billykha...129891035914240

Ich denk man muss daraus keinen glaubenskrieg machen..
Bearbeitet von erlgrey am 07.09.2020, 12:13

JDK

Oberwortwart
Avatar
Registered: Feb 2007
Location: /etc/graz
Posts: 2813
Der Punkt mit der aktuellen VRAM Usage ist interessant, wusste nicht, dass z.B. RTSS das falsch reported.

Ich will die Karte allerdings auch 3+ Jahre benutzen und DirectStorage ist noch ein großes Fragezeichen (muss mir da die verlinkten Artikel noch durchlesen), weshalb der Punkt für mich jetzt eher nach Glaube klingt.

Aber gut, ich bin da mit Linux eh ein Corner Case und was Vinci angesprochen hat, ist auch bei mir im Hinterkopf.

InfiX

she/her
Avatar
Registered: Mar 2002
Location: Graz
Posts: 14029
Zitat aus einem Post von b_d
raytracing ist eine option, keine dependency. sonst hätte man sich zu 3dfx zeiten auch über glide aufregen können. sehe ich aktuell (!) noch nicht so schlimm. hängt auch einzig und allein von den DEVs ab, und die sind gott sei dank net so verbandelt mit nvidia wie ios devs mit apple zB…

ich seh raytracing allgemein kritisch, das hab ich glaub ich auch damals schon gesagt.

wenn es sich mal so richtig etabliert, nimmt es den spieleentwicklern einiges an arbeit ab... das heisst aber auch, dass evtl. eine gewisse kunst verloren gehen wird spielwelten zu beleuchten und eine entsprechende atmosphäre zu schaffen und systeme ohne raytracing aussen vor bleiben werden.

ist nicht nur bei raytracing ein thema, wo früher noch level bis ins kleinste detail durchgeplant waren sinds heute oft nur noch zusammengeschmissene asset-haufen wo sich alles 27 mal wiederholt... auch hier nimmt das natürlich den entwicklern einiges an arbeit ab... anders gehts aber bei dem detailgrad der dann in einzelne assets gesteckt wird auch kaum mehr, ich kann mich noch erinnern wie ich in half-life ganz alleine levels gebaut hab, sowas schafft man mit heutiger grafik einfach nicht mehr in dem zeitrahmen ohne auf solche hilfsmittel zurückzugreifen.

erlgrey

formerly known as der~erl
Registered: Aug 2002
Location: Wien
Posts: 4418
Bis rt Entwicklern viel Arbeit abnehmen kann dauert es leider noch.
Solang nicht RT fähige HW den Markt wirklich durchdrungen hat, müssen sie sich trotz rt noch zusätzlich mit den "legacy" Implementierungen rumschlagen.
RT required Titel schränken den Markt doch recht stark ein, das muss man sich auch mal leisten können als publisher, bis dahin ist rt einfach nur Mehraufwand und ein Fancy Feature.

Vinci

hatin' on summer
Registered: Jan 2003
Location: Wien
Posts: 5808
Zitat aus einem Post von b_d
raytracing ist eine option, keine dependency. sonst hätte man sich zu 3dfx zeiten auch über glide aufregen können. sehe ich aktuell (!) noch nicht so schlimm. hängt auch einzig und allein von den DEVs ab, und die sind gott sei dank net so verbandelt mit nvidia wie ios devs mit apple zB…

e: wenn ich lang genug darüber nachdenk war glide viel ärger, vorallem weils ne API war, kein feature. erinnert euch bitte an descent (1995). glide war imgo ein weitaus ärgerer life changer als jetzt raytracing…

Ja, noch halt. Ich post hier nochmal den Kingpin verlinkten Screenshot aus dem Control Thread:
https://screenshotcomparison.com/co.../5811/picture:0

Das is halt imho scho a Witz...

Und wenn sich so Dinge wie etwa DirectStorage etablieren können (ansich ja keine schlechte Idee), dann müssen diese Technologien auf alle Fälle offen sein. Ansonst haben wir das von dir erwähnte Glide Chaos bald wieder und sind zurück in einer Zeit wost beim Unreal zocken auf verschiedenen Grakas dacht hast du spielst unterschiedliche Spiele. :p

InfiX

she/her
Avatar
Registered: Mar 2002
Location: Graz
Posts: 14029
jo genau sowas mein ich :D da merkt man halt schon, dass sie das nur mit raytracing im hinterkopf designed haben und nicht die mühe gemacht haben eine andere technik zu verwenden.

directstorage ist ja ein MS ding, das ist also schon aus prinzip ned offen :p

Whiggy

Here to stay
Registered: Nov 2000
Location: Klagenfurt
Posts: 2338
Fürn FS brauchst gute CPU (vor allem Singlecoreleistung) je mehr Mhz, desto besser läuft das Ganze. Trotzdem, auch hier kann eine schlechte Graka einen Flaschenhals darstellen.

WONDERMIKE

Administrator
kenough
Avatar
Registered: Jul 2001
Location: Mojo Dojo Casa H..
Posts: 10651
Ich glaub die Zeiten sind vorbei wo man sich 10 Jahre mit der Hardware durchschummeln kann :D vorausgesetzt man will 2030 nicht in einen FullHD Schirm schaun :p

Zitat aus einem Post von InfiX
directstorage ist ja ein MS ding, das ist also schon aus prinzip ned offen :p

Ohne MS(und Sony) würden wir vielleicht garkeine Navi Karten bekommen und offener wirds halt nicht. Sei doch froh, dass sie Geld bei AMD in die Entwicklung pumpen ;)

Im Grunde gibts ja iirc 3 Wege um RT zu realisieren, nämlich mit dem Vulkan Teil, Nvidias eigenem Framework und DX12. Nachdem auf Konsolen wohl stark in Richtung DX12 entwickelt wird, fürchte ich mich da nicht vor einem Vendor Lock. Spiele wie Control wurden natürlich als Showcase entwickelt wo das halbe Haus mit Nvidia Consultants voll war. Aber das wird nicht plötzlich die Norm.

Wo Nvidia allerdings aktuell uneinholbar erscheint ist halt bei AI/Deeplearning. Da wärs halt super wenn Intel in den nächsten 5 Jahren in die Gänge kommt(auf den Markt sinds eh scharf)

Dune

dark mode lover
Registered: Jan 2002
Location: Wien
Posts: 9805
Wie kommt es eigentlich dass AMD mittlerweile für Konsolen bevorzugt wird, ist das ein reines Preisthema? AMD hat doch eher den Ruf lauter, heißer, hungriger und größer zu sein, zumindest was ich von den Vorgenerationen als Stigmata in Erinnerung habe.

MaxMax

Here to stay
Registered: Jul 2001
Location: Wien
Posts: 1932
AMD dürft halt pre-PS4 zeiten das bessere P\L verhältnis geboten haben als nv aus sicht von sony und M$. Verbrauch und damit hitze/lautstärke lässt sich eig. Recht einfach über taktraten/spannung/aktive shaderzahl (Softwareseitig einfach?) beeinflussen. Außerdem kocht ja nv gerne regelmässig eigene süppchen in form von SDKs und proprietären Schnittstellen und ich könnte mir vorstellen dass zB M$ eine bedingslose und alternativlose Unterstützung von win und directX gefordert hat damals.

b_d

natürlich unwissend
Avatar
Registered: Jul 2002
Location: 0x3FC
Posts: 10534
da gurkt iwo ein youtube vid zu dem thema rum, finds es aber gach nicht.

der hauptgrund war per se nicht der preis, sondern die tatsache, dass AMD beiden "alles aus einer hand" angeboten hat, sprich cpu, gpu, i/o, audio, uswusf. sprich, m$ und sony haben ihre reqs geschickt (die sogar ziemlich unterschiedlich waren), und AMD hat ab da "alles" designt.

bei intel hättens sie allein schon bei der gpu mindestens nochmal zu amd gehen müssen oder halt zu nivida. so konnten sie time-to-market kürzer halten und die lebenszykluskosten besser (auf mehrere jahre) abschätzen. also ja, streng genommen eh ne $$$ entscheidung, aber nicht explizit weil sie anfangs billiger angeboten haben, das eher sicher nicht.

JDK

Oberwortwart
Avatar
Registered: Feb 2007
Location: /etc/graz
Posts: 2813
Seid's ned ein bisserl zu alt, um "m$" zu schreiben? :P
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz