Intel steigt in den Grafikkartenmarkt ein (ARC-Serie)
mat 09.11.2017 - 11:09 176762 513
Longbow
Here to stay
|
Wie siehts eigentlich bei den Boardpartnern aus? Da gab es ja Berichte über sehr unglückliche Partner und es dürften leider nicht mehr geworden sein was ich so gesehen habe.
Gespannt bin ich jedenfalls auf den B770 Kampfmagier. Sag ich dir nächste Woche, Asrock steel legend ist bestellt
|
Dune
Dark mode
|
Wo hat Intel eigentlich die ganzen OEMs gefunden, die keiner kennt?
|
InfiX
she/her
|
der preis machts halt diesmal aus ^^
|
xtrm
social assassin
|
Der Preis macht's doch immer aus.
|
InfiX
she/her
|
Der Preis macht's doch immer aus. gemessen an den ganzen 4090 besitzern hier... nein scheinbar nicht
|
xtrm
social assassin
|
Wenn die 4090 statt 1500-2000 3500-4000 EUR kosten würde, wären es auch weniger Besitzer. Und wenn eine eher nicht sehr beeindruckende 4060 nur 150 EUR kosten würde, wäre sie auf einmal eine super Karte. Es geht im Endeffekt immer um den Preis (im Verhältnis zur Performance).
|
InfiX
she/her
|
was die B580 gut macht ist der preis. was die 4090 gut macht ist definitiv nicht der preis. so evtl. leichter verständlich?  e: wobei der preis zumindest bei uns in europa wohl garnicht mal so gut ist :/
Bearbeitet von InfiX am 13.12.2024, 03:30
|
xtrm
social assassin
|
Klar, ändert aber nichts an meiner Aussage. Die 4090 war ein schlechtes Beispiel, denn wer die mit Abstand schnellste Karte hat, kann seinen Preis halt nennen und es werden immer ein paar Fanatiker zuschlagen  . Alle Karten darunter jedoch definieren sich nur über den Preis, sprich deine B580 Aussage gilt für so ziemlich alle Karten außer der 4090  .
|
voyager
kühler versilberer :)
|
Und was man auch nicht vergessen darf, statt 35-40W Idle/Desktop sind sie jetzt unter 20W angekommen.
Das war ja immer n großes Manko bei den Arc
|
NeseN
Nobody f*ks with DeJesus!
|
Und was man auch nicht vergessen darf, statt 35-40W Idle/Desktop sind sie jetzt unter 20W angekommen. wo hast du die werte her? lt. GN sind sie etwas besser geworden, aber weiterhin schlechter als alles andere ausser alchemist. die sind mit BM erst bei ~35W angekommen.
idle_273819.jpg (downloaded 0x)
|
voyager
kühler versilberer :)
|
wo hast du die werte her? eins der Reviews gestern hats gemessen so. es war Kreativecke
|
Starsky
Erdbeeren für ALLE!
|
Vielleicht kommen die unterschiedlichen Leistungsaufnahmen durch unterschiedliche Treiberversionen oder Anzahl der verbundenen Monitore zustande? Oder vielleicht die Monitorfrequenz im Idle (VRR Setting)?
|
voyager
kühler versilberer :)
|
Hab grad was bei Heise gefunden: liegt wohl an den PCIe Settings https://www.heise.de/en/tests/Intel...44.html?seite=2One of the major criticisms of the Arc-A series was the unseasonably high power consumption in idle mode, i.e. when the card only had to display the Windows desktop. Although there were a few tricks, such as switching on native PCIe power management via ASPM in the BIOS and setting the "Connection state power management" for PCI Express to "Maximum power savings" in the Windows power saving plans, this did not work in all cases. This was also the case on our test system and various other PCs.
Intel's Arc B580 can now do this better. Without these tricks, the idle power consumption was still a high 37 to 40 watts, regardless of whether a Full HD display with 60 Hz was connected, a 4K144 screen or a mixed triple. However, with the above settings, the Arc B580 only needs just under 6 watts for an FHD60 display, 8 watts for two and 17 watts for three. 4K screens were at 21 (1 screen) to 23 watts (2 monitors), with 120 Hertz at 26 watts. With 144 Hertz in 4K or in mixed mode, the energy-saving tricks were virtually ineffective.
|
NeseN
Nobody f*ks with DeJesus!
|
interessant. hat jemand erfahrung ob das auch bei anderen herstellern funktioniert? meine 6900XT lutscht im idle auch ziemlich. ich hab zwar 3 monitore laufen, aber bisschen weniger würd ich schon nehmen.
|
COLOSSUS
AdministratorGNUltra
|
Also bei Radeon-GPUs liegt (afaik - ich hab nix Wissenschaftliches dazu gelesen, nur mit einer RX550, RX6400, RX6600 und RX6700 selbst ein paar Experimente angestellt) der hohe idle-Stromverbrauch, wenn er sich denn manifestiert, am hohen notwendigen Speichertakt bei (bzw. ab - aber ich glaube, dass der Zusammenhang nicht linear ist, sondern es gewisse "Klippen" gibt, wo ein unguenstiger Teiler oder so zu besonders schlechter Effizienz fuehrt) gewissen Bildwiederholfrequenzen. Da kann man sehr gut sehen, wie die Taktrate des Speichers nie mehr zur Ruhe kommt. Nochmal drastisch verschaerft wird die Situation durch mehr als ein Display.
Wenn man aber einen Sweet Spot erwischt, zieht eine RX6400 in WQHD mit 165Hz keine 3W im Desktop-Betrieb (KDE Plasma), und auch eine RX6600 bleibt bei ~5-6W.
|