Intel steigt in den Grafikkartenmarkt ein (ARC-Serie) - Seite 30

Seite 30 von 36 - Forum: Grafikkarten auf overclockers.at

URL: https://www.overclockers.at/grafikkarten/intel-steigt-in-den-grafikkartenmarkt-ein-arc-serie_250060/page_30 - zur Vollversion wechseln!


Longbow schrieb am 12.12.2024 um 20:06

Zitat aus einem Post von WONDERMIKE
Wie siehts eigentlich bei den Boardpartnern aus? Da gab es ja Berichte über sehr unglückliche Partner und es dürften leider nicht mehr geworden sein was ich so gesehen habe.

Gespannt bin ich jedenfalls auf den B770 Kampfmagier.
Sag ich dir nächste Woche, Asrock steel legend ist bestellt :)


Deleted84616 schrieb am 12.12.2024 um 20:08

Wo hat Intel eigentlich die ganzen OEMs gefunden, die keiner kennt? :D


InfiX schrieb am 12.12.2024 um 23:05

der preis machts halt diesmal aus ^^


xtrm schrieb am 12.12.2024 um 23:53

Der Preis macht's doch immer aus.


InfiX schrieb am 13.12.2024 um 00:43

Zitat aus einem Post von xtrm
Der Preis macht's doch immer aus.

gemessen an den ganzen 4090 besitzern hier... nein scheinbar nicht :p


xtrm schrieb am 13.12.2024 um 01:21

Wenn die 4090 statt 1500-2000 3500-4000 EUR kosten würde, wären es auch weniger Besitzer. Und wenn eine eher nicht sehr beeindruckende 4060 nur 150 EUR kosten würde, wäre sie auf einmal eine super Karte. Es geht im Endeffekt immer um den Preis (im Verhältnis zur Performance).


InfiX schrieb am 13.12.2024 um 02:08

was die B580 gut macht ist der preis.
was die 4090 gut macht ist definitiv nicht der preis.

so evtl. leichter verständlich? :p

e: wobei der preis zumindest bei uns in europa wohl garnicht mal so gut ist :/


xtrm schrieb am 13.12.2024 um 02:33

Klar, ändert aber nichts an meiner Aussage. Die 4090 war ein schlechtes Beispiel, denn wer die mit Abstand schnellste Karte hat, kann seinen Preis halt nennen und es werden immer ein paar Fanatiker zuschlagen :D. Alle Karten darunter jedoch definieren sich nur über den Preis, sprich deine B580 Aussage gilt für so ziemlich alle Karten außer der 4090 ;).


voyager schrieb am 13.12.2024 um 06:31

Und was man auch nicht vergessen darf, statt 35-40W Idle/Desktop sind sie jetzt unter 20W angekommen.

Das war ja immer n großes Manko bei den Arc


NeseN schrieb am 13.12.2024 um 07:14

Zitat aus einem Post von voyager
Und was man auch nicht vergessen darf, statt 35-40W Idle/Desktop sind sie jetzt unter 20W angekommen.

wo hast du die werte her?

lt. GN sind sie etwas besser geworden, aber weiterhin schlechter als alles andere ausser alchemist. die sind mit BM erst bei ~35W angekommen.

click to enlarge


voyager schrieb am 13.12.2024 um 07:41

Zitat aus einem Post von NeseN
wo hast du die werte her?

eins der Reviews gestern hats gemessen so. es war Kreativecke

click to enlarge


Starsky schrieb am 13.12.2024 um 07:48

Vielleicht kommen die unterschiedlichen Leistungsaufnahmen durch unterschiedliche Treiberversionen oder Anzahl der verbundenen Monitore zustande?
Oder vielleicht die Monitorfrequenz im Idle (VRR Setting)?


voyager schrieb am 13.12.2024 um 07:53

Hab grad was bei Heise gefunden: liegt wohl an den PCIe Settings
https://www.heise.de/en/tests/Intel...44.html?seite=2

Zitat
One of the major criticisms of the Arc-A series was the unseasonably high power consumption in idle mode, i.e. when the card only had to display the Windows desktop. Although there were a few tricks, such as switching on native PCIe power management via ASPM in the BIOS and setting the "Connection state power management" for PCI Express to "Maximum power savings" in the Windows power saving plans, this did not work in all cases. This was also the case on our test system and various other PCs.

Intel's Arc B580 can now do this better. Without these tricks, the idle power consumption was still a high 37 to 40 watts, regardless of whether a Full HD display with 60 Hz was connected, a 4K144 screen or a mixed triple. However, with the above settings, the Arc B580 only needs just under 6 watts for an FHD60 display, 8 watts for two and 17 watts for three. 4K screens were at 21 (1 screen) to 23 watts (2 monitors), with 120 Hertz at 26 watts. With 144 Hertz in 4K or in mixed mode, the energy-saving tricks were virtually ineffective.


NeseN schrieb am 13.12.2024 um 08:14

interessant. hat jemand erfahrung ob das auch bei anderen herstellern funktioniert? meine 6900XT lutscht im idle auch ziemlich. ich hab zwar 3 monitore laufen, aber bisschen weniger würd ich schon nehmen.


COLOSSUS schrieb am 13.12.2024 um 08:43

Also bei Radeon-GPUs liegt (afaik - ich hab nix Wissenschaftliches dazu gelesen, nur mit einer RX550, RX6400, RX6600 und RX6700 selbst ein paar Experimente angestellt) der hohe idle-Stromverbrauch, wenn er sich denn manifestiert, am hohen notwendigen Speichertakt bei (bzw. ab - aber ich glaube, dass der Zusammenhang nicht linear ist, sondern es gewisse "Klippen" gibt, wo ein unguenstiger Teiler oder so zu besonders schlechter Effizienz fuehrt) gewissen Bildwiederholfrequenzen. Da kann man sehr gut sehen, wie die Taktrate des Speichers nie mehr zur Ruhe kommt. Nochmal drastisch verschaerft wird die Situation durch mehr als ein Display.

Wenn man aber einen Sweet Spot erwischt, zieht eine RX6400 in WQHD mit 165Hz keine 3W im Desktop-Betrieb (KDE Plasma), und auch eine RX6600 bleibt bei ~5-6W.




overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2026