URL: https://www.overclockers.at/grafikkarten/rx6800xt-hell-let-loose_260264/page_2 - zur Vollversion wechseln!
manchal hilft generell wechsel zu frameless windowed mode oder wieder zurück auf fullscreen
sonst kann ich den enterprise driver empfehlen, kann das gleiche, scheint nur wesentlich fehlerfreier zu sein https://www.amd.com/en/support/kb/r...n-pro-win-21-q4
hab lange mit meiner auf LC gemoddeten Vega 64 gekämpft, seitdem ich den enterprise verwende, alle spiele super-smooth ohne probleme
Scheint so als ob VLC Player einfach verhindert das diverse Energiesparfunktionen greifen ?
Nochmals bezüglich des Spiels, ich hab explizit wegen SINGLECORE gefragt weil nunmal 98% aller Spiele einen oder vielleicht zwei Kerne nutzen. Das sich der 3600er Ryzen 'langweilt' liegt daran das er halt 6 Kerne + 6 virtuelle Kerne hat
Wenn die CPU - Auslastung gesamt bei 10% liegt mag das bedeuten 'jo der CPU als gesamtes ist fad, allerdings läuft 1 kern für das game auf 100% und kann halt nicht mehr'
Hatte das Erlebnis mit Black Desert Online, Rust und einigen anderen Spielen. Ryzen 3700x wird von nem 5600G sowas von dezimiert (bei manchen Games doppelte FPS) einfach weil die Singlecore-Leistung wesentlich höher ist. Die Anzahl der Kerne ist für Spiele sehr relativ ...
Das ist aber mal sowas von falsch, dass es nicht mehr lustig istZitat aus einem Post von JedimasterNochmals bezüglich des Spiels, ich hab explizit wegen SINGLECORE gefragt weil nunmal 98% aller Spiele einen oder vielleicht zwei Kerne nutzen.
. Da bist du 10 Jahre in der Vergangenheit gerade.Unity engine ist das Beispiel par excellence.
ok also ich werde mal das mit dem VLC probieren (auch wenn ich immer noch glaube, du willst mich bissl ********en
)
Und dass die Radeon Pro Treiber einfach mal so besser sein sollen - bei fast gleicher Performance ist halt auch wieder so komisch.
Probieren kann ichs aber, mir verstellts sowieso Random immer die "Tuning-Presets", vor allem wenn der Treiber wieder mal abschmiert.
vermutlich cpu limit, gibt genug spiele wo das der fall ist.
bzgl. der pro driver
da kommt viel seltener ein neuer raus, max 1 pro quartal
d.h. viel weniger bugs
und ich schätze sie müssen viel mehr wert auf den support älterer hardware legen
bei den normalen drivern gehts ja immer nur um die neusten features, spiele
Ist halt so wie die NVIDIA Studio Treiber auf Stabilität und Anwendungen optimiert, dafür eben nicht ständig Updates für die neuesten Spiele.
So Easy Peasy Lemon Squeezy wie du tust würde ich das aber auch nicht abtunZitat aus einem Post von xtrmDas ist aber mal sowas von falsch, dass es nicht mehr lustig ist. Da bist du 10 Jahre in der Vergangenheit gerade.





Du lässt hier eines außer Acht: es gibt in einer Spielwelt sehr sehr viele Objekte, die parallel berechnet werden müssen. Du hast nicht nur einen Charakter der genau eine Sache macht, du hast unzählige Dinge, die live berechnet werden müssen und das andauernd. Nur als Beispiel: Multiplayer-Spiel mit einer großen map und 64 Spielern - viel Spaß!
Die Parallelisierung übernimmt dabei die Engine und Engines werden meistens für viele Spiele genutzt, kaum ein Entwickler macht eine eigene Engine für sein Spiel (gibt's natürlich, würde ich aber als Ausnahme bezeichnen). Heutige Engines sind dafür ausgelegt und nachdem aktuelle Konsolen 8-Kern CPUs haben, werden 8 Kerne auf absehbare Zeit das Optimum bei Spielen bleiben.
Und nur weil die Single Core Leistung nach wie vor sehr wichtig ist, heißt das nicht, dass man deswegen nur 1-2 Kerne braucht. Viele Spiele starten heutzutage mit zwei Kernen bzw. Threads nicht einmal mehr und selbst mit vier Threads hat man enormen Leistungsverlust. Ab acht Threads ist man in einem Bereich, wo man schon relativ knapp an der maximalen Leistung dran ist - aber dabei darf man nicht vergessen, dass normalerweise neben dem Spiel noch viele weitere Dinge laufen, wie zum Beispiel ein Browser mit eventuell einem Video von YT, Musik, Discord, und so weiter. Lange Rede kurzer Sinn: doch, es ist so "Easy Peasy Lemon Squeezy"
.
Schade nur das das einzige was üblicherweise wirklich Leistung braucht die Grafikrenderpipeline ist ... wo sich die 64 hansln koordinatenmäßig auf der Map befinden hat damals schon ein singlecore Athlon in Battlefield 1942 packt - und nebenbei auf dem selben Kern noch die Grafik mitgemacht 
Tldr - bis auf wenige Ausnahmen (zb. Civilization) ist die Render-Engine das was die meiste CPU-Power in Games benötigt. Schön wenn die anderen 1-15 Kerne was zu tun haben aber ausgelastet ist sicher keiner so sehr wie der Kern der für die Darstellung zuständig ist (neben der GPU natürlich).
Wie ENIAC sehr richtig gesagt hat: Ist die GPU nicht auf Vollast ist das Limit die CPU (oder eine Einstellung wie VSync oder limitfps). Bugs oder Configprobleme sind natürlich nie ausgeschlossen ... (zb. Graka wird warum auch immer nur mit PCI 1x angesprochen oder es läuft irgendein kompatibilitätsmodus, ...)
das einzige spiel das ich kenn das es schafft alle kerne effektiv auszulasten is Cyberpunk, k.a. warum das andere nicht schaffen.
Soweit ich mich erinnern kann, war Battlefield 4 eines der ersten Spiele, das mehr als 4 CPU Threads ordentlich nutzen konnte und wo es auch Sinn machte. Mittlerweile gibt es diverse davon, von PUBG (Unreal Engine 4) weiß ich z.B., dass es 8 Threads komplett nutzen kann - nur verteilt es die Last eben auf alle vorhandenen Threads, was heutzutage oft mehr als 8 ist.
Zitat aus einem Post von InfiXdas einzige spiel das ich kenn das es schafft alle kerne effektiv auszulasten is Cyberpunk, k.a. warum das andere nicht schaffen.
Battlefield 1 schaffts auch ... war damals ja beim ersten Ryzen DAS Demospiel weil halt alle Kerne genutzt wurden ...
Ich vermute mal das die Renderengine hier einfach Teilbilder rendert die dann zusammengesetzt werden ? Ka, das letzte mal das ich mit Direct 3D herumgebastelt hab ist 15 Jahre her 
Punkt ist - ja es gibt Games die effektiv Multithreading nutzen, aber nein es ist bei weitem noch nicht standard.
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2026