b_d
© Natural Ignorance (NI)
|
Ich find ein wenig Schade dass das komplette Internet auf den Hype Train aufspringt... Gibts eigentlich noch irgendwo kritischen Hardware Journalismus? Niemand scheints zu kümmern dass NVidia mit all den vorgestellten Technologien sich rasant Richtung Vendor-Lock bewegt... Wenn ich mir die Bilder im Control Thread anschau wos amal "nur" um RTX geht, dann kotzt mich das jetzt scho an. Nimma lang und Spiel XYZ startet auf nicht NVidia Karten gar ned. raytracing ist eine option, keine dependency. sonst hätte man sich zu 3dfx zeiten auch über glide aufregen können. sehe ich aktuell (!) noch nicht so schlimm. hängt auch einzig und allein von den DEVs ab, und die sind gott sei dank net so verbandelt mit nvidia wie ios devs mit apple zB… e: wenn ich lang genug darüber nachdenk war glide viel ärger, vorallem weils ne API war, kein feature. erinnert euch bitte an descent (1995). glide war imgo ein weitaus ärgerer life changer als jetzt raytracing…
Bearbeitet von b_d am 07.09.2020, 11:25
|
mr.nice.
differential image maker
|
Hier ein sehr interessanter Beitrag zum tatsächlichen VRAM Verbrauch: VRAM in 2020-2024: Why 10GB is enough.Part 1: Historical evidence of consoles vs PC VRAM requirements Historically, PC requirements have been at least semi-dictated by the games being created on consoles. I do believe we will still see Ultra Texture packs on PC that push further than consoles, and mods too will always push... Link: www.resetera.com Kurz gefasst, Spiele belegen oft mehr VRAM als sie tatsächlich benötigen, Auslesetools melden die belegte Speichermenge und liefern somit mitunter irreführende Zahlen.
|
Guest
Deleted User
|
Das ist bekannt. Trotzdem werden 10GB nicht reichen über die nächsten 2-3 Jahre. So lange hab ich vor die Karte zu nutzen.
|
erlgrey
formerly known as der~erl
|
Es kommt einfach darauf an ob ich mir eine gpu für 1 Jahr kaufe, oder vielleicht für 3 mit der Wahrscheinlichkeit auf ein >1440p Monitor Upgrade. 10gb sind weder unbrauchbar noch ausreichend in alle Ewigkeit imo. Ich komme jetzt in 7dtd und 1440p, das ist durch voxel einfach vram intensiv seit a18, auf >8gb und wenn das passiert tut sogar af >4x weh, da hilft mir btw. Hbcc ein wenig. SC komm ich mit 8 noch recht gut aus bis auf paar locations, ich gehe aber nicht davon aus, dass das im nächsten Jahr noch so ist, schon gar nicht mehr wenn ein neuer Monitor kommt. 2020/21 eine gpu mit der gleichen (3070) oder nur geringfügig mehr vram als meine >2 Jahre alte vega56 zu kaufen, klingt einfach nicht nach einem guten Plan. NV macht es ja recht geschickt, 3080 hat eine p/l die AMD vermutlich wirklich weh tut, ist aber vom vram her eher spärlich als üppig ausgestattet. Dh. die die mehr wollen müssen 1.5k in die Hand nehmen, oder auf eine super oder ti warten die nv vermutlich mal rausbringt, wenns sein muss. Es gibt sicher auch einige die doppelt kaufen werden. ID lead engine eng. sieht 8gb als minimum an und more = better, da ist die 3080 ja fein raus. https://mobile.twitter.com/billykha...129891035914240Ich denk man muss daraus keinen glaubenskrieg machen..
Bearbeitet von erlgrey am 07.09.2020, 12:13
|
JDK
Oberwortwart
|
Der Punkt mit der aktuellen VRAM Usage ist interessant, wusste nicht, dass z.B. RTSS das falsch reported.
Ich will die Karte allerdings auch 3+ Jahre benutzen und DirectStorage ist noch ein großes Fragezeichen (muss mir da die verlinkten Artikel noch durchlesen), weshalb der Punkt für mich jetzt eher nach Glaube klingt.
Aber gut, ich bin da mit Linux eh ein Corner Case und was Vinci angesprochen hat, ist auch bei mir im Hinterkopf.
|
InfiX
she/her
|
raytracing ist eine option, keine dependency. sonst hätte man sich zu 3dfx zeiten auch über glide aufregen können. sehe ich aktuell (!) noch nicht so schlimm. hängt auch einzig und allein von den DEVs ab, und die sind gott sei dank net so verbandelt mit nvidia wie ios devs mit apple zB… ich seh raytracing allgemein kritisch, das hab ich glaub ich auch damals schon gesagt. wenn es sich mal so richtig etabliert, nimmt es den spieleentwicklern einiges an arbeit ab... das heisst aber auch, dass evtl. eine gewisse kunst verloren gehen wird spielwelten zu beleuchten und eine entsprechende atmosphäre zu schaffen und systeme ohne raytracing aussen vor bleiben werden. ist nicht nur bei raytracing ein thema, wo früher noch level bis ins kleinste detail durchgeplant waren sinds heute oft nur noch zusammengeschmissene asset-haufen wo sich alles 27 mal wiederholt... auch hier nimmt das natürlich den entwicklern einiges an arbeit ab... anders gehts aber bei dem detailgrad der dann in einzelne assets gesteckt wird auch kaum mehr, ich kann mich noch erinnern wie ich in half-life ganz alleine levels gebaut hab, sowas schafft man mit heutiger grafik einfach nicht mehr in dem zeitrahmen ohne auf solche hilfsmittel zurückzugreifen.
|
erlgrey
formerly known as der~erl
|
Bis rt Entwicklern viel Arbeit abnehmen kann dauert es leider noch. Solang nicht RT fähige HW den Markt wirklich durchdrungen hat, müssen sie sich trotz rt noch zusätzlich mit den "legacy" Implementierungen rumschlagen. RT required Titel schränken den Markt doch recht stark ein, das muss man sich auch mal leisten können als publisher, bis dahin ist rt einfach nur Mehraufwand und ein Fancy Feature.
|
Vinci
hatin' on summer
|
raytracing ist eine option, keine dependency. sonst hätte man sich zu 3dfx zeiten auch über glide aufregen können. sehe ich aktuell (!) noch nicht so schlimm. hängt auch einzig und allein von den DEVs ab, und die sind gott sei dank net so verbandelt mit nvidia wie ios devs mit apple zB…
e: wenn ich lang genug darüber nachdenk war glide viel ärger, vorallem weils ne API war, kein feature. erinnert euch bitte an descent (1995). glide war imgo ein weitaus ärgerer life changer als jetzt raytracing… Ja, noch halt. Ich post hier nochmal den Kingpin verlinkten Screenshot aus dem Control Thread: https://screenshotcomparison.com/co.../5811/picture:0Das is halt imho scho a Witz... Und wenn sich so Dinge wie etwa DirectStorage etablieren können (ansich ja keine schlechte Idee), dann müssen diese Technologien auf alle Fälle offen sein. Ansonst haben wir das von dir erwähnte Glide Chaos bald wieder und sind zurück in einer Zeit wost beim Unreal zocken auf verschiedenen Grakas dacht hast du spielst unterschiedliche Spiele.
|
InfiX
she/her
|
jo genau sowas mein ich  da merkt man halt schon, dass sie das nur mit raytracing im hinterkopf designed haben und nicht die mühe gemacht haben eine andere technik zu verwenden. directstorage ist ja ein MS ding, das ist also schon aus prinzip ned offen
|
Whiggy
Here to stay
|
Fürn FS brauchst gute CPU (vor allem Singlecoreleistung) je mehr Mhz, desto besser läuft das Ganze. Trotzdem, auch hier kann eine schlechte Graka einen Flaschenhals darstellen.
|
WONDERMIKE
Administrator Administrator
|
Ich glaub die Zeiten sind vorbei wo man sich 10 Jahre mit der Hardware durchschummeln kann  vorausgesetzt man will 2030 nicht in einen FullHD Schirm schaun  directstorage ist ja ein MS ding, das ist also schon aus prinzip ned offen  Ohne MS(und Sony) würden wir vielleicht garkeine Navi Karten bekommen und offener wirds halt nicht. Sei doch froh, dass sie Geld bei AMD in die Entwicklung pumpen  Im Grunde gibts ja iirc 3 Wege um RT zu realisieren, nämlich mit dem Vulkan Teil, Nvidias eigenem Framework und DX12. Nachdem auf Konsolen wohl stark in Richtung DX12 entwickelt wird, fürchte ich mich da nicht vor einem Vendor Lock. Spiele wie Control wurden natürlich als Showcase entwickelt wo das halbe Haus mit Nvidia Consultants voll war. Aber das wird nicht plötzlich die Norm. Wo Nvidia allerdings aktuell uneinholbar erscheint ist halt bei AI/Deeplearning. Da wärs halt super wenn Intel in den nächsten 5 Jahren in die Gänge kommt(auf den Markt sinds eh scharf)
|
Dune
Dark mode
|
Wie kommt es eigentlich dass AMD mittlerweile für Konsolen bevorzugt wird, ist das ein reines Preisthema? AMD hat doch eher den Ruf lauter, heißer, hungriger und größer zu sein, zumindest was ich von den Vorgenerationen als Stigmata in Erinnerung habe.
|
MaxMax
Here to stay
|
AMD dürft halt pre-PS4 zeiten das bessere P\L verhältnis geboten haben als nv aus sicht von sony und M$. Verbrauch und damit hitze/lautstärke lässt sich eig. Recht einfach über taktraten/spannung/aktive shaderzahl (Softwareseitig einfach?) beeinflussen. Außerdem kocht ja nv gerne regelmässig eigene süppchen in form von SDKs und proprietären Schnittstellen und ich könnte mir vorstellen dass zB M$ eine bedingslose und alternativlose Unterstützung von win und directX gefordert hat damals.
|
b_d
© Natural Ignorance (NI)
|
da gurkt iwo ein youtube vid zu dem thema rum, finds es aber gach nicht.
der hauptgrund war per se nicht der preis, sondern die tatsache, dass AMD beiden "alles aus einer hand" angeboten hat, sprich cpu, gpu, i/o, audio, uswusf. sprich, m$ und sony haben ihre reqs geschickt (die sogar ziemlich unterschiedlich waren), und AMD hat ab da "alles" designt.
bei intel hättens sie allein schon bei der gpu mindestens nochmal zu amd gehen müssen oder halt zu nivida. so konnten sie time-to-market kürzer halten und die lebenszykluskosten besser (auf mehrere jahre) abschätzen. also ja, streng genommen eh ne $$$ entscheidung, aber nicht explizit weil sie anfangs billiger angeboten haben, das eher sicher nicht.
|
JDK
Oberwortwart
|
Seid's ned ein bisserl zu alt, um "m$" zu schreiben? :P
|