URL: https://www.overclockers.at/grafikkarten/intel-steigt-in-den-grafikkartenmarkt-ein-arc-serie_250060/page_22 - zur Vollversion wechseln!
Wünschen tut sich das jeder (außer AMD und nvidia) - aber wie realistisch dass in dem GPU Zyklus ist, is halt fraglich.
Intel hat die GPU Sparte auch schon angezählt. Also ich fürchte es wird beim Duopol bleiben
Naja, es liegt schon auch an den Konsumenten und welche Produkte gekauft werden. Alle jammern zurecht wegen der teuren Grafikkarten, aber die Intel mit ansprechender Leistung im 300 - 400 Euro Bereich will irgendwie trotzdem keiner?
Zitat aus einem Post von mr.nice.Naja, es liegt schon auch an den Konsumenten und welche Produkte gekauft werden. Alle jammern zurecht wegen der teuren Grafikkarten, aber die Intel mit ansprechender Leistung im 300 - 400 Euro Bereich will irgendwie trotzdem keiner?
na toll, laut linus ist das im treiber jetzt a proton dx9 wrapper port ... just lol
Zitat aus einem Post von Jedimasterna toll, laut linus ist das im treiber jetzt a proton dx9 wrapper port ... just lol
DX9 war bei ARC schon immer eine emulation, ursprünglich war es halt über DX12 geregelt.
Najo ... ein Konzern wie Intel muss offenbar auf die Arbeit eines einzelnen Entwicklers zurückgreifen der offenbar besser ist als alles was die experten bei Intel zusammengebracht haben ... und stellt den nicht ein sondern klaut seine Arbeit weil eh open source ?
Zumindest verstehe ich so momentan die Situation...
Was heißt "muss"? Es gab den Mode in DX12, also haben sie ihn genutzt. Und wenn es etwas Besseres gibt, das gut funktioniert und Open Source ist - wieso sollte man es nicht nutzen? Wozu unnötig Geld und Zeit dafür rausballern, für Spiele, die immer weniger gespielt werden und eh kein Geld generieren (DX9 Games)?
Zitat aus einem Post von JedimasterZumindest verstehe ich so momentan die Situation...
Wenn es so ist wie du das jetzt grade darstellst ists ok. Linus hats halt im Video a bissal anders präsentiert (they took the work of mostly one guy maintaining proton oder so ähnlich)
Zitat aus einem Post von TOMIgnoriert mal die Präsentationsart und jeglichen bias bzgl. Hosts und versucht Euch auf den Inhalt zu konzentrieren
Zitat aus einem Post von JedimasterWenn es so ist wie du das jetzt grade darstellst ists ok. Linus hats halt im Video a bissal anders präsentiert (they took the work of mostly one guy maintaining proton oder so ähnlich)
gamersnexus hat sich die a770 und a750 performance mit den neuesten treibern angeschaut:
Nachdem Intel langsam die Software in Griffe bekommt (DX9 title Performance fix, und ich glaub auch was gelesen zu haben bzgl. multi-monitor stromverbrauch fix), hat wer im Scope ob sie bzgl. Idle Stromverbrauch auch schon optimiert wurde?
Mit dem neuesten price reduction kommt die 16GB Variante in interessante Preisregionen.
Hat wer eine Ahnung, wie sich eine ARC Karte mit G-Sync Only Monitoren (no freesync) so tut? Ich vermute mal deren "Adaptive Sync" sollte einfach funktionieren, oder?
edit: Oha, "adaptive Sync" scheint einfach ein Intel-Name für den VESA Standard sein der bei AMD Freesnync heisst.... also vermutlich ist mein ASUS ROG PG279 an NVIDIA gebunden *schnauf*
Adaptive Sync ist der Name von VESA, also eigentlich vorbildlich von Intel, dass sie weder einen eigenen Namen noch Standard erfinden.
Was ich bei kurzer Recherche gesehen habe, ist dein Schirm offenbar tatsächlich G-Sync only.
Bzgl. Treiberentwicklung bei Intel hatte ich zuletzt eigene Erfahrungen was den Fortschritt angeht.
Intel UHD770 IGP aus Alder Lake: Mit Treibern vom Herbst gab es bei mit zwei in-house entwickelten Anwendungen Probleme, in Form nicht sichtbarer Animationen was das Gerät gerade tut.
Mit einem aktuellen Treiber von vor 3 Wochen ging die Animation jetzt, bei einer Anwendung sind aber manche Farben falsch (z.B. bläulich statt gelblich).
Das ist teilweise recht alter Code und die Animation basiert auf DX9c, aber es zeigt, dass sich da zumindest was in die richtige Richtung bewegt, auch wenn es noch immer nicht fehlerfrei ist.
Blöd nur in diesem Fall, dass bei den Steuerungsrechnern deswegen eine diskrete Grafikkarte verbaut werden musste (=zusätzliche Kosten), um eine fehlerfreie Ausgabe zu garantieren (3D Leistung wäre der IGP leicht ausreichend gewesen).
overclockers.at v4.thecommunity
© all rights reserved by overclockers.at 2000-2025