Dune
Dark mode
|
Ich könnte mir übrigens gut vorstellen, dass man im FS2020 mit einer der neuen Navi Karte fürs gleiche oder bisserl weniger Geld besser fährt. Es mag sein dass das für viele Anwendungen so ist, der FS9/X, P3D und FS2020 fahren bisher aber leider immer besser mit Nvidia und Intel. Liegt viel an der Engine aber sicher auch am Support durch MS. zB https://www.pcgameshardware.de/Micr...view-1356467/2/Ich möchts nicht ausschließen aber es wäre schön sehr verwunderlich, wenn das diesmal anders wäre.
|
Viper780
ElderEr ist tot, Jim!
|
|
stevke
in the bin
|
Würde mich nicht so wundern wenn es in Zukunft für F2020 in eine andere Richtung geht, da FS2020 auch für die XBOX kommt und hier eine AMD GPU im Einsatz ist, könnte für MS ein Anreiz sein hier mehr Optimierungen vorzunehmen.
|
Dune
Dark mode
|
OT... https://www.heise.de/ratgeber/Flight-Simulator-Passende-PC-Hardware-mit-ausfuehrlichen-CPU-und-GPU-Benchmarks-4908739.html?seite=2 Kann leider nicht lesen, hinter Paywall. Würde mich aber auch stark wundern, da der FS2020 nicht so von Threads und modern Architektur profitiert sondern eher stumpf auf MHz skaliert, wie die Vorgänger. PCGHW, Tomshardware, 3DGuru et al sehen das anders. PCGHW: "Der geringe Unterschied von nur zwei Prozent zum übertakteten Intel Core i9-9900K zeigt zudem ein weiteres Problem der Engine auf: Sie ist nicht dazu in der Lage, zusätzliche CPU-Kerne in höhere Performance zu verwandeln" THW: "Looking at Intel vs. AMD, the Intel chips yet again proved to be superior for gaming purposes" Hat jetzt hier nicht viel im Thread verloren, aber ich denk nicht dass man das so behaupten kann
Bearbeitet von Dune am 29.09.2020, 16:37
|
shad
und des is des
|
Doch kann man, brauchst dir nur benches anschauen
|
Dune
Dark mode
|
Kann ich eben wie gesagt wegen Paywall nicht. Die Benchmarks die ich geposted habe, haben aber eine andere Aussage? Vielleicht mags mal wer posten und wir führen das im FS2020 Thread fort, dort ist es besser aufgehoben wenns um die CPU geht.
|
Viper780
ElderEr ist tot, Jim!
|
Kann leider nicht lesen, hinter Paywall. Für alle dies interessiert können mir ja eine PM schreiben. Im Grunde ist es egal welche CPU so lang 6-8 Kerne vorhanden sind. HT bzw SMT bringt wenig (bzw ist ab 6 Kernen kontraproduktiv) zur Grafikkarte eine RTX 2070 Super performt ca. gleich wie eine RX 5700 XT RX 5600 ähnlich einer Vega 64 oder 1080 Ti
|
charmin
Elder0_o
|
Die Antwort von Gigabyte fassts ganz gut zusammen: In response to the recent reports speculating that the use of POSCAP capacitors on the GeForce RTX 3080/3090 graphics cards could lead to stability issues and crashes, we would like to clarify the issue with the following statement:
1. It is false that POSCAP capacitors independently could cause a hardware crash. Whether a graphics card is stable or not requires a comprehensive evaluation of the overall circuit and power delivery design, not just the difference in capacitor types. POSCAPs and MLCCs have different characteristics and uses, thus it is not true to assert that one capacitor type is better than the other.
2. The GIGABYTE GeForce RTX 30 graphics cards are designed in accordance with NVIDIA specifications, and have passed all required testing, thus the product quality is guaranteed. GIGABYTE GeForce RTX 3080/3090 GAMING OC and EAGLE OC series graphics cards use high-quality, low-ESR 470uF SP-CAP capacitors, which meet the specifications set by NVIDIA and provide a total capacity of 2820u in terms of GPU core power, higher than the industry’s average. The cost of SP-CAP capacitors is not lower than that of MLCCs. GIGABYTE values product integrity highly and definitely does not reduce costs by using cheap materials.
NVIDIA has released a driver (version 456.55) on September 29, 2020 that improves stability. Users are advised to update to the latest driver for optimized performance. For users who encounter power-related issues with GIGABYTE GeForce RTX 30 series graphics cards, GIGABYTE will provide product replacement, free of charge.
GIGABYTE has been constantly improving and optimizing product quality, especially in terms of thermal designs, to provide the best gaming experience to the consumers for decades. For the latest AORUS GeForce RTX 30 graphics card series, we have also paid extra attention to the cooling performance and introduced industry-leading solutions such as MAX-Covered Cooling to ensure that the operation of each component is stable.
|
InfiX
she/her
|
naja... das klingt so nach... "schauts mit dem neuen treiber gehts, wir haben nix falsch gemacht"... da war die EVGA meldung authentischer  , auch wenn die kondensator-geschichte nicht auslöser ist hängts ja trotzdem damit zusammen.
|
charmin
Elder0_o
|
... hängts ja trotzdem damit zusammen. tut es das?
|
InfiX
she/her
|
laut allem was ich gesehen und gelesen hab ja, die MLCC konfig ist wohl besser beim abfedern von den taktspitzen, beheben aber das grundlegende problem nicht und crashen halt irgendwann trotzdem auch.
|
charmin
Elder0_o
|
laut allem was ich gesehen und gelesen hab ja, die MLCC konfig ist wohl besser beim abfedern von den taktspitzen, beheben aber das grundlegende problem nicht und crashen halt irgendwann trotzdem auch. ich lese Was wirklich hinter den Abstürzen und Instabilitäten der GeForce RTX 3080 und RTX 3090 stecken könnte https://www.igorslab.de/was-wirklic...e-investigativ/Aber ich kann mich auch täuschen. Hast du noch was gefunden dazu?
|
xtrm
social assassin
|
Da können aber dann die jeweiligen Hersteller nichts dafür, denn sie haben sich an die Spezifikationen von NVIDIA gehalten. Und wenn selbst NVIDIA sagt, dass es damit nicht zwangsläufig zusammenhängt (siehe meinen Link), dann glaube ich dem eher, als wenn der Herr Igor mal wieder irgendwas "untersucht" und dann das dreiviertelte Internet darauf aufspringt und es noch falscher wiedergibt.
|
WONDERMIKE
Administratorkenough
|
Also ich komme da zu dem Schluss, dass das Boostverhalten das Problem verursacht und Nvidia das nun per Treiber gelöst hat. https://www.youtube.com/watch?v=S-Kq7sMCncEWenn man es weiterspinnt, dann würde ich sagen liegts an der Qualität des Siliziums ob der Crash kommt oder nicht. Paul hat sich das, recht kurz, mit verschiedenen Karten angesehen und das würde auch zum Gesamtbild passen. https://www.youtube.com/watch?v=BkTgYMlCl4EIgors Standpunkt war aber auch, dass das GPU Lotto hier den größten Einfluss hat iirc.
|
charmin
Elder0_o
|
Da können aber dann die jeweiligen Hersteller nichts dafür, denn sie haben sich an die Spezifikationen von NVIDIA gehalten. Und wenn selbst NVIDIA sagt, dass es damit nicht zwangsläufig zusammenhängt (siehe meinen Link), dann glaube ich dem eher, als wenn der Herr Igor mal wieder irgendwas "untersucht" und dann das dreiviertelte Internet darauf aufspringt und es noch falscher wiedergibt. Naja der Igor is schon ein super Typ imho, er sagt ja klar, dass es ein Investigativartikel is und betont das "KÖNNTE". Dass es viele falsch wiedergeben, hmm, najo zumindest bauschen sies auf, wie Jay zb. obwohl i erm normal mag. Aber 22 minuten videos san halt unnedig wenn der content 2 kurze seiten sind. Also ich komme da zu dem Schluss, dass das Boostverhalten das Problem verursacht und Nvidia das nun per Treiber gelöst hat.
https://www.youtube.com/watch?v=S-Kq7sMCncE
Wenn man es weiterspinnt, dann würde ich sagen liegts an der Qualität des Siliziums ob der Crash kommt oder nicht. Paul hat sich das, recht kurz, mit verschiedenen Karten angesehen und das würde auch zum Gesamtbild passen.
https://www.youtube.com/watch?v=BkTgYMlCl4E
Igors Standpunkt war aber auch, dass das GPU Lotto hier den größten Einfluss hat iirc. Danke für die Videos, gibts die Liste zum schluss irgendwo als excel. 20 Minuten....
|