Zaphod
Tortenfreund
|
Quad-Core bereits 2007
Dual-Core CPUs werden durch bessere Unterstützung auch für Spieler immer interessanter. AMD will noch eine Schippe drauflegen und das Phänomen "Multikern-Prozessor" schon bald weiter ausbauen. Dazu sollen schon 2007 Anwender in den Genuss von Quad-Core-Prozessoren kommen.
Wie das Magazin CRN berichtet, will AMD jedoch an der bestehenden Architektur festhalten. Will heissen: Wenn Sie ein Sockel M2-Mainboard besitzen, so soll dies durch ein einfaches BIOS-Update fit für die neuen Vierkerner sein. Erste Demo-Systeme will AMD bereits Mitte diesen Jahres vorführen und dabei die Leistungsstärke der kommenden CPUs als Serverplattform beweisen. Man sei mit den eigenen strategischen Partnern bereits drauf und dran, den Sockel M2 so anzupassen, dass er in Zukunft die Quad-Core-Prozessoren schlucken kann.
Ob ein solcher Prozessor im Preis-Leistungsverhältnis für den Spieler interessant wird oder aber vorerst gezielt der Servermarkt bedient werden soll, muss sich noch herausstellen. Quelle: Gamestar
|
Yankee
Big d00d
|
scheinbar sinds bei den fertigungsprozessen bzw. mit der technologie schon hart am limit des machbaren. sonst würdens nicht auf leistungssteigerung durch multikern architektur setzen...
|
COLOSSUS
AdministratorGNUltra
|
"make -j9", ich komme!
|
daisho
SHODAN
|
Die Frage ist nur wegen der Software. Afaik wird es ja pro Core immer komplizierter für Programmierer ( wenn mehrere Cores für ein Programm arbeiten sollen ) oder?
|
COLOSSUS
AdministratorGNUltra
|
Jein - der "schwierigste" oder kritischste Schritt ist wohl der von 1 auf n Cores (weil manche Probleme schwer oder ueberhaupt nicht parallelisierbar sind). Hat man jetzt 4 Cores zur Verfuegung statt 2, kann das OS mehr Prozessen und/oder Threads "exklusiver" ungeteilte Rechenzeit auf einigen Kernen zur Verfuegung stellen. Bloed halt, wenn man sein Programm in sagen wir drei Threads (Audio, Video, Logik oder sowas) aufgeteilt hat, dann aber ploetzlich z. B. 8 CPUs zur Verfuegung stehen - das kostet relativ zur theoretischen Gesamtperformance des Systems natuerlich sehr viel (in dieser Applikation eben nicht nutzbarer, aber fuer was Anderes verfuegbare) Rechenleistung.
Der zu erwartende bemerkbare Performanceschub ist also nicht so stark wie beim Sprung von einem auf zwei Kerne. Ueberhaupt: Ich habe kuerzlich Benchmarks zu SMP/NUMA-Loesungen unter verschiedensten OS gesehen; der Linux-Kernel (2.6) zum Beispiel (der im Vergleich zu anderen OS extrem gut skaliert) steigert sich von 4 auf 8 CPUs kaum noch merklich, Windows verliert sogar im einstelligen Prozentbereich.
Zumindest mit heute gaengiger Programmierpraxis - und aufgrund fundamentaler mathematischer Probleme innerhalb der Informatik - wird diese "wir hau'n einfach mehr Core auf den Carrier"-Mentalitaet auch nicht der Weisheit letzter Schluss sein.
|
GATTO
Here to stay
|
Kann es sein das Microsoft genau deswegen schon am Nachfolger zu Vista bastelt?? Rein logisch könnte man ja alles auch auf 8 Threads ausweiten.. z.B.bei Videoprocessing würd ich mir das praktisch vorstellen: eine CPu rein für Windows und Hardware, 2. für Audio, die weiteren für resizing, je eien für jeden weiteren filter und den rest fürs eigentliche encoden. Wäre zwar dann maximal so schnell wie der langsamste filter aber dennoch schneller wie wenns auf einer Core hintereinander gemacht wird.
MFG GATTO
|
t3mp
I Love Gasoline
|
Dann wird wohl endlich das Zeitalter des ZETA-OS anbrechen...? @GATTO: Microsoft arbeitet aus den selben Gründen am Nachfolger von Vista wie ATI schon längst am "RV600" und Nvidia am "G80" arbeiten, das ist ganz normal und lässt besonders im Falle von Microsoft nicht auf besonders außergewöhnliche Revolutionen schließen.
Bearbeitet von t3mp am 28.01.2006, 13:10
|
xdfk
pädagogisch wertvoll
|
Kann es sein das Microsoft genau deswegen schon am Nachfolger zu Vista bastelt?? Rein logisch könnte man ja alles auch auf 8 Threads ausweiten.. z.B.bei Videoprocessing würd ich mir das praktisch vorstellen: eine CPu rein für Windows und Hardware, 2. für Audio, die weiteren für resizing, je eien für jeden weiteren filter und den rest fürs eigentliche encoden. Wäre zwar dann maximal so schnell wie der langsamste filter aber dennoch schneller wie wenns auf einer Core hintereinander gemacht wird.
MFG GATTO noch viel einfacher: die cpus rendern zeitlich versetzt jeweils eine sequenz des gesamten films. wuerde bis ins unendliche skalieren(theoretisch) bei echtzeit anwendungen ist es aber schon schwieriger. ich bin jetzt mit dem make -j2 schon absolut happy am neuen imac
|
daisho
SHODAN
|
Der neue mit dem Intel CoreDuo? Dann hast aber -j3
|
MrBurns
Back from Banland
|
scheinbar sinds bei den fertigungsprozessen bzw. mit der technologie schon hart am limit des machbaren. sonst würdens nicht auf leistungssteigerung durch multikern architektur setzen... Das denk ich auch. Die leistungssteigerungen inzwischen 2003 udn 2006 waren ja auch viel geringer als zwischen 2000 und 2003...
|
MrBurns
Back from Banland
|
Jein - der "schwierigste" oder kritischste Schritt ist wohl der von 1 auf n Cores (weil manche Probleme schwer oder ueberhaupt nicht parallelisierbar sind). Hat man jetzt 4 Cores zur Verfuegung statt 2, kann das OS mehr Prozessen und/oder Threads "exklusiver" ungeteilte Rechenzeit auf einigen Kernen zur Verfuegung stellen. Bloed halt, wenn man sein Programm in sagen wir drei Threads (Audio, Video, Logik oder sowas) aufgeteilt hat, dann aber ploetzlich z. B. 8 CPUs zur Verfuegung stehen - das kostet relativ zur theoretischen Gesamtperformance des Systems natuerlich sehr viel (in dieser Applikation eben nicht nutzbarer, aber fuer was Anderes verfuegbare) Rechenleistung.
Der zu erwartende bemerkbare Performanceschub ist also nicht so stark wie beim Sprung von einem auf zwei Kerne. Ueberhaupt: Ich habe kuerzlich Benchmarks zu SMP/NUMA-Loesungen unter verschiedensten OS gesehen; der Linux-Kernel (2.6) zum Beispiel (der im Vergleich zu anderen OS extrem gut skaliert) steigert sich von 4 auf 8 CPUs kaum noch merklich, Windows verliert sogar im einstelligen Prozentbereich.
Zumindest mit heute gaengiger Programmierpraxis - und aufgrund fundamentaler mathematischer Probleme innerhalb der Informatik - wird diese "wir hau'n einfach mehr Core auf den Carrier"-Mentalitaet auch nicht der Weisheit letzter Schluss sein. ich glaub da Problem liegt weniger in den Mathematisschen problemen selbst sondern eher daran, dass die heutigen Programme nicht für 8 Cores programmiert sind. Der Cell-Prozessor der PS3 profitiert ja auch stark von den 8 Kernen, weil die PS3-Spiele halt speziell für 8 Threads programmiert sind...
|
Agens
Little Overclocker
|
Kann dem nur zustimmen: Entweder die Programme werden angepasst dass sie mit mehreren Thread rennen oder man bekommt es irgendwie hin, dass ein Betriebssystem einen Thread nicht nur auf einer CPU laufen lassen kann (selbst wenn dann Vorteile durch Cache wieder wegfallen und ich keine echte Vorstellung hab wie das gehen sollte )...
|
quad-prozzi-fan
I do it my way.....
|
Wenn sie jetzt an die Grenzen der Machbarkeit im Single-Core bereich gestoßen sind, wieso sind die dann nicht ganz eifrig drann, dass sie was komplett neues entwickeln?
Ich weiß ist so einfach dahin gesagt und ist sicher verdammt schwer aber irgentwas müssen sie sich doch einfallen lassen, sonst sama irgentwann soweit, dass ma 20 Cores auf einem Chip ham der ziehmli groß ist und wir die Cores aber net nutzen können weil es keine gscheite Software dazu gibt!
Aber Quad-Core hört sich schon cool an und ich hoff echt das die Software das zukünftig nutzen kann.
Kann man eigetlich abschätzen wie teuer so eine Quad-Core Cpu sein wird?
lg dual-prozzi-fan
|
that
Hoffnungsloser Optimist
|
Das meiste, was viel Rechenleistung braucht, passiert in Schleifen, und das lässt sich bei entsprechender Programmierung in vielen Fällen parallelisieren. Aber es erfordert ein Umdenken bei der Softwareentwicklung. Hier ist ein netter (wenn nicht sogar "der") Artikel zu diesem Thema: http://www.gotw.ca/publications/concurrency-ddj.htm
|
I__rObOt
Big d00d
|
bin mal auf die abwärme von 4 cores gespannt
|