Joe_the_tulip
Vereinsmitgliedbanned by FireGuy
|
|
Visitor
Here to stay
|
Juhu, die geduldigen werden doch noch belohnt! Ich hoffe die Karten sind dann zu vernünftigen Preisen erhältlich und auch verfügbar. Stromverbrauch und Lautstärke sind auch noch ein Kaufargument für mich. Mal abwarten, ich hab noch Zeit. Bin gespannt was Nvidia für einen Gegner zu bieten hat
|
Skobold
Inventor of Super Toast
|
Hoffentlich passt das Konzept auch preislich, 3dfx hat es damals das Genick gebrochen.
Bearbeitet von Skobold am 25.11.2007, 16:51
|
Hornet331
See you Space Cowboy
|
ihmo wird das konzept sehr fraglich werden, vorallem wenn das teil über cf angesprochen wird. Wenn cf nicht funzt -> singelcore performance....
|
.dcp
notamodbuthot
|
ihmo wird das konzept sehr fraglich werden, vorallem wenn das teil über cf angesprochen wird. Wenn cf nicht funzt -> singelcore performance.... ich hoff ja dass das nicht der fall sein wird. oder hab ichs überlesen? da stand nix von der verwendeten parallelisierungstechnik, oder?
|
Hornet331
See you Space Cowboy
|
wie soll das teil sonst funzen? gpus ansich selbst sind eigentlich schon extreme multicore cpus. multicore mit multicpu macht ihmo wenig sinn, siehe bei den ganzen dual gpu karten die es bis jetzt gegebn hat, dort ist alles auch über sli/cf abgewickelt worden. Ich hoffe inständig das der D9E ein singelcore bleibt.
|
Mr. Zet
Vereinsmitgliedresident spacenerd
|
Multicore ist die Zukunft in _jeder_ "computation heavy" Anwendung. War nur eine Frage der Zeit, bis auch GPUs diesen Weg gehen, wo sie doch eh schon massivst parallelisierte Recheneinheiten besitzen.
Ob so eine Multicore-GPU dann SLI/CF verwendet ist eigentlich vollkommen "wurscht", solange dass dann OHNE Mainboardsupport funktioniert. Aber ich denke diesen Schritt geht ja bereits die 3870X2, zumindest hab ich noch nirgendwo gelesen, dass die Karte nur auf CF Boards lauffähig sein soll.
Fraglich ist halt, wie schnell solche GPUs dann auch von den Entwicklern ausgenutzt werden. Ohne speziell entwickelte Engines spielt sich dabei nämlich fast gar nichts ab, siehe CF/SLI aktuell.
|
Hornet331
See you Space Cowboy
|
cf/sli support hat rein garnichts mit der engien der entsprechenden software zu tun.
Derzeit ist es alleinig eine frage des treibers der das verwaltet.
Und wie gesagt ich seh keinen vorteil darin. Auf beyond3d diskutieren die das auch, und auch dort denken viele ähnlich, das es kaum vorteile bringt auf mcm oder mgp zu setzen. weil sich das grundlegende problem nicht ändert.
|
mr.nice.
differential image maker
|
4 x R670 on a DIE = R700XT?
Also die vierfache Leistung einer HD 3850 halte ich für die Highend-Modelle der HD-4000 Serie für durchaus realistisch.
|
vanHell
Tauren Marine
|
Fraglich ist halt, wie schnell solche GPUs dann auch von den Entwicklern ausgenutzt werden. Ohne speziell entwickelte Engines spielt sich dabei nämlich fast gar nichts ab, siehe CF/SLI aktuell. Zur zeit können sie sowas auch garnicht ausnutzen weils keine API für den (kontrollierten) zugriff auf die 2te GPU gibt. Atm liegt es nur an den Treibern. 4 x R670 on a DIE = R700XT?
Also die vierfache Leistung einer HD 3850 halte ich für die Highend-Modelle der HD-4000 Serie für durchaus realistisch. 3,5 fache leistung halt ich für theoretisch möglich. Nix skaliert mit 100% und Grafikkarten schon garnicht.
Bearbeitet von vanHell am 25.11.2007, 14:26
|
Hornet331
See you Space Cowboy
|
4 x R670 on a DIE = R700XT?
Also die vierfache Leistung einer HD 3850 halte ich für die Highend-Modelle der HD-4000 Serie für durchaus realistisch. laut gerücheten hat die gpu ~300mio transistoren (also ~RV610/620 niveau ohne UVD etc.)
|
Visitor
Here to stay
|
Wenn eine GPU die ca. Leistung einer X1950pro hat, dann ist das ja perfekt!
Ich spiele alle meine Spiele auf 1920x1200 max details+ max AA +max AF
Neue Spiele wie Crysis oder COD4 nicht, da reicht die Leistung bei weitem nicht mehr aus. Aber neue Spiele unterstützen ja CF/SLI wo liegt also das Problem?
Bei Spielen wo man es nicht braucht, muss es ja nicht gehen. Oder bringt das etwas wenn man in Quake 4 280 FPS hat?
Außerdem könnte ja sein, dass im Desktop mode nur eine GPU aktiv ist und die vielleicht auch noch powerstates benutzt.
Mal abwarten, aber wenn die Karten so werden wie ich es mir vorstelle, dann sin die perfekt für mich.
mfg Visitor
|
Mr. Zet
Vereinsmitgliedresident spacenerd
|
Derzeit ist es alleinig eine frage des treibers der das verwaltet. richtig. Zur zeit können sie sowas auch garnicht ausnutzen weils keine API für den (kontrollierten) zugriff auf die 2te GPU gibt. Atm liegt es nur an den Treibern. richtig. cf/sli support hat rein garnichts mit der engien der entsprechenden software zu tun. falsch. Das ist genau das gleiche, wie mit threaded Software im allgemeinen: Wenn du ein Programm schreibst, dass nur einen Thread hat, dann bringt deiner Anwendung für sich betrachtet eine Multi-Core (oder auch nur Multi-Threaded wie beim P4) genau _gar nichts_. Dem User, der mehr als eine Anwendung offen hat, bringt das natürlich sehr wohl etwas, weil die Ressourcen weniger knapp sind, aber deine Software wird nicht besser performen als auf einer Single-Core CPU. Genau das gleiche gilt auch für Multithreading auf der Grafikarte, nur wer spielt schon 2 oder mehr Spiele gleichzeitig? Jetzt widerspreche ich mir kurz noch selber, und sage, dass es bei der Grafik doch nicht gleich ist. Warum? Weil beim Rendering der Szene _relativ_ wenige Bildpunkte von einander abhängig sind. Es lässt sich also auch bei einer Single(graphics)threaded Engine ein Layer dazwischen schieben (SLI/CF) und Requests auf einzelne Cores umleiten, und so die Performance erhöhen. ABER es sind nunmal nicht alle Bildpunkte von einander unabhängig UND, ohne Zusammenarbeit der Spielentwickler mit den Treiberentwicklern lässt sich von außen noch weniger machen, weil schwer bzw. gar nicht erkennbar ist wie die einzelnen Abläufe und Abhängigkeiten in der Engine intern gehandhabt werden. Genau das führt dann dazu, dass manche spiele mit aktiviertem SLI/CF sogar schlechter laufen, als ohne. Einfach weil sie nicht darauf ausgelegt sind, bzw. die Abarbeitungsreihenfolgen so "schlecht" gewählt sind, dass sich die Arbeit nicht günstig aufteilen lässt. Die Lösung des ganzen? Engines müssen ihre Arbeit von vornherein auf mehrere "gThreads" aufteilen, und zwar am besten so, dass möglichst wenig Synchronisation notwendig ist. Klarer Weise muss der Treiber dazu die notwendigen APIs für Mutlithreading auf der GPU zur Verfügung stellen, ja sogar noch mehr, der Treiber muss ähnliche Aufgaben übernehmen, wie das Betriebssystem es für Prozesse und Threads auf der CPU übernimmt: Scheduling, Synchronisationsmechanismen, Deadlock-prevention/-detection, etc. Solang das der Treiber nicht kann, und zwar für 1 bis n Cores, können das klarerweise auch die Spieleentwickler in ihren Engines nicht ausnutzen, aber um MultiCore GPUs (egal ob wie jetzt über SLI/CF oder "on die") auch nur irgendwie sinnvoll nutzbar zu machen, führt imho kein Weg an solchen Treibern vorbei. Aber wenn es soweit ist, dann _müssen_ die Engines davon auch Gebrauch machen, denn wenn die Renderarbeit weiterhin nur in einem gThread steckt, wird die Optimierung von außen (also nur durch den Treiber der versucht die Arbeit aufzuteilen) immer nur eine Krücke bleiben.
Bearbeitet von Mr. Zet am 26.11.2007, 10:19 (typo fixed)
|
NeseN
Nobody f*ks with DeJesus!
|
ich hab so ne vorahnung, das das in die hose gehen könnte -.-
gibts von amd schon irgendwas offizielles darüber?
|
Visitor
Here to stay
|
ich hab so ne vorahnung, das das in die hose gehen könnte -.-
gibts von amd schon irgendwas offizielles darüber? Das hoffe ich doch nicht! Seit AMD ATI gekauft hat, gehts ja bergauf. In der kurzen Zeit Energiesparoptionen für Desktop Grafikkarten und die "offene" Hardware damit anständige Linux Treiber entwickelt werden können. Wenn das dann wirklich mit jeder Anwendung funktioniert die Crossfire unterstützt sehe ich da nur Vorteile.
|