"We are back" « oc.at

AMD RX Vega

smashIt 23.08.2016 - 12:36 219411 1015 Thread rating
Posts

creative2k

eigentlich mag ich nimmer
Avatar
Registered: Jul 2002
Location: Vienna
Posts: 8498
Zitat aus einem Post von Dune-
Wer ist dann der Markt? Ich denke nicht, dass es noch sooo viele private Miner gibt, das macht kaum Sinn mit den Strompreisen und der aktuellen Schwierigkeit.

Wenn du meinst! :p

Garbage

Elder
The Wizard of Owls
Avatar
Registered: Jul 2000
Location: GR.ch|TI.ch
Posts: 11406
Letztendlich hat Vega das selbe Problem das AMD seit Jahren mitzieht.
Sie wollen super für GPU-Computing und HPC sein, gleichzeitig aber auch für Spiele top.

Das Problem ist aber, dass sie einerseits eine enorme Zahl an Recheneinheiten verbauen, die zwar schon eine tolle Rohleistung bringen, aber für HPC in vielen Fällen aus anderen Gründen schlechter sind als die Karten von NVIDIA.

Gleichzeitig haben sie aber nicht die Resourcen um die vorhandene Rechenleistung für Spiele umzusetzen und auf den Bildschirm zu bringen. Das hat man schon bei Polaris gesehen, wo die RX470/570 bei gleichem Speichertakt kaum schlechter war als die RX480/580 und davor bei Fiji.
Man muß sich ja nur ansehen wie gut Hawaii immer noch mithält, obwohl Takt und Cores geringer sind, aber da ist das Verhältnis von ROPs und TMUs ein anderes, nämlich besser.

Viper780

Elder
Er ist tot, Jim!
Avatar
Registered: Mar 2001
Location: Wien
Posts: 50476
Warum nvidia Punktet ist dass sie Cuda recht geschickt in den Markt gebracht haben. Viele Entwickler haben sich nur damit beschäftigt aber nicht mit OpenCL

chap

small gift, big smile
Avatar
Registered: Jul 2008
Location: aut.graz
Posts: 2096
Zitat aus einem Post von creative2k
Stromverbrauch sind ja nicht nur Kosten, sondern auch Abwärme. Das ganze muss erstmal gekühlt werden. Bei NV gehts mit der 1080 schon in Richtung ITX Mini Karte während Vega Richtung Triple Slot oder AIO Wak geht. (was bei der 1080TI erst der Fall ist). Anders kannst du Vega gar nicht richtig kühlen.

Wenn AMD die Vega mit wwi zB 400Watt Verbrauch rausgebracht hätte, welche die 1080Ti schlägt, wärs ja nicht so tragisch, aber mir erschließt sich der Sinn dahinter einfach nicht.

Der einzige Vorteil ist der Preis (wenn er denn mal sinkt) und Freesync, ja, aber sonst verstehe ich schon warum man lieber zu NV greift.
Vergiss es, das will kaum jemand in diesem Thread lesen ;)

blood

darkly dreaming
Avatar
Registered: Oct 2002
Location: Wien
Posts: 9350

30cm karte mit 3 lüftern und 320w TDP sind kein problem ^^
Bearbeitet von blood am 06.09.2017, 21:16

erlgrey

formerly known as der~erl
Registered: Aug 2002
Location: Wien
Posts: 4449
gibt es eigentlich noch paar mehr sachen die hier schief gehen können?

Zitat
This morning I received a phone call from ASUS, asking us if we’d be willing to take down the article for a few days as they have made a mistake.
...
The sample we received did not get a final BIOS for its final clock frequencies and fan tweaking. Ergo, the sample we received carries a default reference BIOS.
http://www.guru3d.com/news-story/re...-strix-8gb.html

sollte sich jemand wundern, warum die strix bei computerbase so viel runder abgeschnitten hat.

blood

darkly dreaming
Avatar
Registered: Oct 2002
Location: Wien
Posts: 9350
Also darum lief die karte mit referenzclocks ^^

Oxygen

Sim Racer
Avatar
Registered: Feb 2004
Location: Mühl4tel
Posts: 3935
Ich steh jetzt vor der entscheidung ob ich mir VEGA kaufen soll.

Da ich auch einen neuen Monitor brauche, kommt mir ein VEGA 64 Setup mit diesem Acer Monitor um über 150€ günstiger als ein GTX 1080 Setup mit G-Sync.

Ich frag mich nur ob mein Netzteil (Enermax Platimax D.F. 600W) nicht ein bisschen zu schach für VEGA +OC ist.
Stromverbrauch des Gesamtsystems bei Prime liegt bei ca.210 Watt, CPU OC habe ich jetzt bei 3,85GHz @~1,3v Lastspannung. Muss nochmal checken wie das mit 1,35-1,4v Lastspannung ausschaut. :p

Die Graka wird auf Wakü umgebaut und soll ans maximum getrieben werden, ob sich das unter last noch ausgeht mit 600w bzw. hab ich dann noch reserven?
Möchte nicht dass das NT unter last immer auf vollgas läuft.
Ein neues NT kommt nicht in frage, da kauf ich mir vorher eine GTX 1080.

mr.nice.

differential image maker
Avatar
Registered: Jun 2004
Location: Wien
Posts: 6559
Oxygen die über 150 € kann ich nicht nachvollziehen.

AOC Agon AG271QG + GTX 1080 macht 700 + 510 = 1210
Acer XF270HUA + Vega 64 macht 520 + 640 = 1160

Also ich komme da auf 50 Euro Unterschied.

Zu den aktuellen Preisen kann ich Vega nicht wirklich empfehlen, außer man hat bereits einen FreeSync-Monitor,
für den eine AMD Vorgänger-Generation nicht mehr ausreichend viel Leistung hat. Oder eben zum Etherum mining.

retro

computer says no
Avatar
Registered: Jul 2002
Location: XXII
Posts: 3260
bzw. aktuell kostet der AOC Agon AG271QG 664,05 + die 1080 510 = 1,173

creative2k

eigentlich mag ich nimmer
Avatar
Registered: Jul 2002
Location: Vienna
Posts: 8498

Bei solchen "Reviews" wundert mich der Mining Hype für die Masse auch nicht mehr.

blood

darkly dreaming
Avatar
Registered: Oct 2002
Location: Wien
Posts: 9350
wäre nicht das erste mal, dass ein redditpost als news source verwendet wurde :mad:

Oxygen

Sim Racer
Avatar
Registered: Feb 2004
Location: Mühl4tel
Posts: 3935
Zitat aus einem Post von mr.nice.
Oxygen die über 150 € kann ich nicht nachvollziehen.

AOC Agon AG271QG + GTX 1080 macht 700 + 510 = 1210
Acer XF270HUA + Vega 64 macht 520 + 640 = 1160

Also ich komme da auf 50 Euro Unterschied.

Zu den aktuellen Preisen kann ich Vega nicht wirklich empfehlen, außer man hat bereits einen FreeSync-Monitor,
für den eine AMD Vorgänger-Generation nicht mehr ausreichend viel Leistung hat. Oder eben zum Etherum mining.

Sorry aber ein AOC Monitor kommt mir sicher nicht ins Haus.
Hätte den ASUS PG279Q genommen und der Kostet ~800€.

retro

computer says no
Avatar
Registered: Jul 2002
Location: XXII
Posts: 3260
Tawain, Taiwan ? Was erwartest dir für einen Unterschied? Wenn dann würd ich auf 27" 2160p nehmen den Unterschied siehst wirklich.
Bearbeitet von retro am 09.09.2017, 12:46

Garbage

Elder
The Wizard of Owls
Avatar
Registered: Jul 2000
Location: GR.ch|TI.ch
Posts: 11406
Das ist doch ziemlich mau und wirft die Frage auf: Warum?
Entweder sind die Features HW-seitig kaputt oder zumindest buggy und nicht 100% so wie gewollt und man muß per SW drumherum arbeiten, oder sie hatten erst so spät finale Muster, dass sie mit den Treibern nicht fertig geworden sind (oder beides).
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz