vanHell
Tauren Marine
|
CUDA??
|
Castlestabler
Here to stay
|
Cuda erlaubt die Programmierung und die Ausführung, aber programmieren muss man es noch immer und da profitieren nur Anwendungen mit starker Parallelität.
|
t3mp
I Love Gasoline
|
CUDA?? Programmieren != Programmieren
|
Viper780
ModeratorEr ist tot, Jim!
|
wobei man vielleicht (spitzfindig ) bemerken sollte, daß nv wenigstens die stromsparmodi beherrscht, sprich heruntertakten im idle. cores runtertakten kann ATI auch. Problem hier ist die absenkung des DDR5 Speichers und der Spannung da sonst oft ein flackern im Bild auftritt welches von vielen usern als defekt aufgefasst wird
|
Turrican
LegendAmiga500-Fan
|
ja, das mit dem flackern ist mir auch schon aufgefallen. wenn nvidia aber auch mal karten mit ddr5 hat, werden sie auf das selbe problem stoßen?
|
mat
AdministratorLegends never die
|
Wer auch immer auf die tolle Idee kommt GPU´s als CPU Ersatz zu verwenden, der darf mal versuchen das zu programmieren. Jeder Programmierer wird sich freuen. Grundsätzlich läuft nur alles schnell auf einer GPU, dass sehr viele gleiche Berechnungen braucht, also viele Pixel die alle gleichzeitig berechnet werden.
Versuch auf dem gleichen System ein Betriebssystem zu verwenden und die GPU ist extrem langsam. Mittlerweile schaffen es nur sehr wenige Programmiere Quad Cores gut anzusprechen und jetzt soll man auf einmal 240 und mehr Prozessoren ansprechen, die alle den gleichen Befehl ausführen müssen.
Es gibt grundlegende Unterschiede zwischen einer GPU und einer CPU und das bleibt so, es können nur die Funktionen zusammengeführt werden. Ich hab in der letzten Zeit viel mit GPGPU-Programmierung herumgespielt und ich muss dir wirklich recht geben. Zwar muss ein Befehl nur für ein Wavefront gleich sein, aber der Unterschied ist programmiertechnisch (abhängig von der Berechnung) sehr klein. Abgesehen davon, dass nur wenige Berechnungen überhaupt parallelisierbar sind, gibt es dazu noch etliche andere Restriktionen: - keine Double-Precision-Math-Funktionen
- Branching (if und Co) ist so gut wie verboten
- Read und write (Gather & Scatter) von einem Stream ist entweder unmöglich oder unmöglich langsam
- Kein ordentlicher Profiler
- Nur CUDA hat FFT-Funktionen, OpenCL 1.0 und ATI Stream nicht
Abhängig von der gewählten Schnittstelle gibt es noch mehr Nachteile, wie die bindende C-Syntax bei ATI Stream Brook+. Egal, jedenfalls waren die letzten Wochen sehr ernüchternd.
|
Viper780
ModeratorEr ist tot, Jim!
|
ja, das mit dem flackern ist mir auch schon aufgefallen. wenn nvidia aber auch mal karten mit ddr5 hat, werden sie auf das selbe problem stoßen? kann ich dir nicht sagen, glaub eher es liegt am Speichercontroller und der Implementierung von ATI. Aber ist eher ein gefühl von mir als wirklich wissen
|
Castlestabler
Here to stay
|
Das der Speicher auch ein wenig schuld daran ist, dass sie Idle-Leistung nicht berauschend ist, muss ich zugeben, aber in einem PC macht ein RAM-Riegel zwischen 5 und 10W aus. Wenn man das vergleicht verbraucht die GPU selber noch immer zuviel Saft, auch wenn der RAM sich nicht heruntertaktet.
Vielleicht kann es ja einer mal kontrollieren, aber aus allen Meldungen, bis jetzt, scheint es so, das die ATI-Karten die Core-Spannung nie anpassen, warum auch immer. Der Takt alleine hat zwar Einfluss auf die aufgenommene Leistung, aber sinnvoller ist noch immer die Spannung. Und eine Spannungsanpassung müsste möglich sein, weil keine der Komponenten wird im Idle stark belastet und der Speichercontroller sollte als einzige Komponente noch gleich viel Strom ziehen, aber eben fast keine Zugriffe machen.
|
Viper780
ModeratorEr ist tot, Jim!
|
Das der Speicher auch ein wenig schuld daran ist, dass sie Idle-Leistung nicht berauschend ist, muss ich zugeben, aber in einem PC macht ein RAM-Riegel zwischen 5 und 10W aus. Wenn man das vergleicht verbraucht die GPU selber noch immer zuviel Saft, auch wenn der RAM sich nicht heruntertaktet.
Vielleicht kann es ja einer mal kontrollieren, aber aus allen Meldungen, bis jetzt, scheint es so, das die ATI-Karten die Core-Spannung nie anpassen, warum auch immer. Der Takt alleine hat zwar Einfluss auf die aufgenommene Leistung, aber sinnvoller ist noch immer die Spannung. Und eine Spannungsanpassung müsste möglich sein, weil keine der Komponenten wird im Idle stark belastet und der Speichercontroller sollte als einzige Komponente noch gleich viel Strom ziehen, aber eben fast keine Zugriffe machen. Spannung ist das selbe mit dem flackern, vorallem will ATI von den "digitalen" Spannungswandlern weg, die ein dynamisches Lastprofil erlauben. Da diese sehr heiß werden und einen schlechteren Wirkungsgrad haben. Die Spannung geht quadratisch in den Stromverbrauch ein, der Takt "nur" Linear. hab mich mal gespielt, aber recht viel mehr ist da auch nicht drinnen (und ich bin auf 90MHz Takt und 0.85V runter)
|
Castlestabler
Here to stay
|
0,85V ist ja schon erstaunlich, ich rede jetzt nicht von 0,3-0,4V Spannungssenkung, sondern im Idle halt nur 0,1V weniger. Bringt auch schon was und ich kann mir nicht vorstellen, das die Karte da nicht normal läuft.
|
zottel35
Addicted
|
Das fiepen liegt zu 100% am netzteil!
Hab jetzt schon 3 PSUs, ähm seit ein paar tagen sogar ein viertes netzteil getestet.
Be Quiet Dark Power Pro P6 530w (leichtes fiepen) GTX280/8800GTX Corsair HX620w (sehr lautes fiepen) GTX280/HD2900 Pro Enermax Revolution 85+ 950w (_kein fiepen_) GTX280 PC Power & Cooling Silencer 750W (sehr lautes fiepen) mit 4870x2 Eben nicht - liegt an den Spawas auf der Grafikkarte und ist meistens nur im 3D Modus hörbar wenn eine extrem hohe Framerate hast oder in den Spielemenüs..., hab auch schon gehört das es auch schon im 2D Modus gefiept hat - ich hatte kurz mal eine 4850 für 5min im Rechner - war kaum auszuhalten... was für eine hast den? meine 88er 320 war lauter als die gtx260... 8800GTS 640 - welche genau weiß ich nicht, ist auf jeden Fall leise hab aber auch schon gelesen das die G80er Serie das fiepen hatte, aber äußerst selten.
|
Viper780
ModeratorEr ist tot, Jim!
|
0,85V ist ja schon erstaunlich, ich rede jetzt nicht von 0,3-0,4V Spannungssenkung, sondern im Idle halt nur 0,1V weniger. Bringt auch schon was und ich kann mir nicht vorstellen, das die Karte da nicht normal läuft. also ich hab kein wirklich gutes Strommessgerät aber die Einsparung war unter 10W (bezogen aufs Gesamtsystem)
|
Indigo
raub_UrhG_vergewaltiger
|
die sollen von mir aus noch einen kleinen 2D only mobile grafikkern implementieren (auf die paar transistoren kommts auch nicht mehr draufan), dann könnte man im desktopbetrieb den 3D blutsauger komplett abdrehen...
früher (und auch heute) gibts grakas die im normalbetrieb so gut wie nix brauchen (siehe notebooks)
|
mr.nice.
Moderatordifferential image maker
|
Ich finde aus Kosumentensicht die GTX 275 und 285 nicht schlecht, was den Preis, die Lautstärke und die gebotene Leistung betrifft. Der Stromverbrauch und die Größe sind definitiv verbesserungswürdig.
Der Hybridpower on a board Gedanke gefällt mir, ich denke da z.B. an eine Karte mit 9400 und GTX 285 auf einer Platine, im 2D- und Videomodus wird der große Kern komplett abgeschaltet und im 3D Modus könnte der kleine Core für Physik-Berechnungen herangezogen werden.
Das der GT300 erst 2010 auf den Markt kommt dürfte mit mehreren Dingen zu tun haben, wohl zeitnah zum DX11 Release, andererseits die Probleme mit der 40nm Produktion und dann bleibt noch die generelle schwächelnde Nachfrage. Zu guter letzt hat nVidia immer noch die stärkste Singlechip Grafikkarte im 300,- Euro Segment, steht daher imho nicht total unter Zugzwang.
|
Castlestabler
Here to stay
|
Eine 9400er ist wohl noch immer viel zu stark für 2D. Bei zwei Karten ist das Problem des Speichercontrollers nicht ohne, entweder man verbaut noch mal extra RAM oder man schafft es das zwei Karten auf den gleichen RAM zugreifen können.
Nvidia ist im Moment eh nicht so schlecht unterwegs, die 30W von der GTX-Reihe sind schon halbwegs annehmbar. Hauptproblem bleibt weiterhin, das keiner selber produziert und deswegen die Auswahl an verbaubaren Bausteinen beschränkt ist und das extrem geniale Design von den Intel i7 ist bei den GPU´s leider nicht anwendbar.
|