"Christmas - the time to fix the computers of your loved ones" « Lord Wyrm

David Kirk (nVidia) im Interview

JC 30.09.2003 - 10:16 12289 14
Posts

JC

Administrator
Disruptor
Avatar
Registered: Feb 2001
Location: Katratzi
Posts: 9067
Der Chefentwickler von nVidia, David Kirk, wurde von den Kollegen von FiringSquad interviewt. Dabei kamen interessante Dinge auf den Tisch, wie etwa eine Begründung, warum nVidia nun doch Microsoft's HLSL dem hauseigenen Cg vorzieht.
Auch zum Detonator 50 lässt Dr. Kirk einige Sachen aus dem Sack: An den Shadern sei kräftig gearbeitet worden und diese würden nun auf eine andere Weise optimiert werden. Die derzeitige, schlechte Performance - im direkten Vergleich zu ATI - läge an der Unterschätzung der Kompilierungs- und Optimierungstechnologien. Doch auch andere Details wie etwa FP24- vs. FP32-Precision, sowie Hardware- und Half Life 2-Performance kamen ins Gespräch. Kurzum ist mit der Hardware alles in Ordnung und die derzeit schlechte Performance nur ein Software-Problem.

-fenix-

OC Addicted
Registered: Dec 2001
Location: Wien 21
Posts: 4650
ziemliches marketingblahblah

"eigendlich haben wir die weit bessere hardware nur weiß/merkt das keiner"
"24bit FP hat keine zukunft weil die zahl nicht schön ist"
"mit neuen treibern werden wir alles in grund und boden ownen"

JC

Administrator
Disruptor
Avatar
Registered: Feb 2001
Location: Katratzi
Posts: 9067
True. Das letzte Interview mit ihm war definitiv technisch detaillierter. Bis Half Life rauskommt, ist ja noch Zeit; da begnüge ich mich vorerst mal mit abwarten und Tee trinken :D

Mr. Zet

Super Moderator
resident spacenerd
Avatar
Registered: Oct 2000
Location: Edge of Tomorrow
Posts: 12040
hmm die technischen Argumente können stimmen, oder auch nicht. Da nVidia ja leider keine genauen Details der CineFX Pipeline bekanntgibt, bleibt weiterhin alles Spekulation.

In diesem Sinne setz ich mich zu JC und trinke mit ihm einen Tee ;)


PS: das restliche Marketinggeschwafel war wirklich sehr zweifelhaft und daher unnötig :o

Hellknight[FA]

Big d00d
Avatar
Registered: Jun 2002
Location: Bayern, Waldmün..
Posts: 258
Zitat von -fenix-
"eigendlich haben wir die weit bessere hardware nur weiß/merkt das keiner"
"24bit FP hat keine zukunft weil die zahl nicht schön ist"
"mit neuen treibern werden wir alles in grund und boden ownen"

Genauso sehe ich das auch - sonst hätte ich keine NV-Karte :D ;)

JC

Administrator
Disruptor
Avatar
Registered: Feb 2001
Location: Katratzi
Posts: 9067
Imho ist es gar nicht mal so sehr Marketing-Blabla.

Cg
Warum sollte sich nVidia noch viel um Cg kümmern, wenn's mit MS' HLSL genauso funktioniert? Auf Non-Windows-Systemen bzw. unter OpenGL wird auch Cg weiterhin verwendet werden :)

24 vs 32 Bit Presicion
Imho hat Kirk recht gut dargelegt, was es mit der 24Bit-Präzision auf sich hat. Es ist korrekt, dass es unüblich und daher nicht Standard ist. Er führt weiterhin aus, dass 24Bit zuviel für Farbberechnungen sind und zuwenig für Geometrieberechnungen und dergleichen. 16 Bit Genauigkeit reicht für Farbberechnungen demnach aus und 32 Bit sind notwendig für den Rest.
Auch wenn er nicht sagt, dass es derzeit ein recht effizenter Kompromiß ist, so hat er imho recht, wenn er behauptet, dass die 24 Bit Genauigkeit nur temporär ist.

Hardware- bzw. Spiele-Performance
Hier spricht mir Kirk aus der Seele. Er gibt zu, dass die Performance nicht gerade beraubend ist - doch das war schließlich von Anfang an klar: Die FX benötigt optimierten Code.
Der Zeit- und Kostenaufwand steigt dadurch natürlich an, weshalb einige Hersteller wohl gerne darauf verzichten. Optimierte Treiber - die natürlich IMMER der Hardware hinterherkinken - bringen zwar auch noch Verbesserungen, doch den Großteil der Optimierungen müsste natürlich der Spiele-Produzent erledigen. Würden das auch alle tun, anstatt ihre Zeit mit Benchmarks zu verschwenden, kämen wir wohl in den Genuss einer weitaus besseren Grafik.

Viel wichtiger ist es jedoch, andere mit seiner Penislänge zu übertreffen und andere Produkte schlecht zu machen. :rolleyes:

Mr. Zet

Super Moderator
resident spacenerd
Avatar
Registered: Oct 2000
Location: Edge of Tomorrow
Posts: 12040
Zitat von JC
Viel wichtiger ist es jedoch, andere mit seiner Penislänge zu übertreffen und andere Produkte schlecht zu machen. :rolleyes:
worauf beziehst du dich? :confused:
ATi's Shaderday?
Wen anderen?
tombman? :p :D


@Marketing-blabla: ich habe mich eher auf solche Aussagen bezogen:
Zitat
You know in our case I haven’t worked with all of the developers, but the ones that I have worked with have seen marked improvements when they start to actually work with our hardware and optimize for our hardware.
Die sich für mich nach "Arbeitet mit uns, wir sind die Guten, wir verhelfen euch zu besseren Verkaufszahlen" anhören ;)

mat

Administrator
Legends never die
Avatar
Registered: Aug 2003
Location: nö
Posts: 25421
top! und JC spricht mir aus der seele.. :)

btw: genauso ists mit intels hyperthreading. wird von der software einfach noch viel zu wenig unterstützt. im 3d bereich kenn ich nur eine engine (Auran Jet), sowie ein paar spiele (zB Jedi Knight II). relativ dürftig, wenn man bedenkt wie lange ht schon für developers zur verfügung steht. Hat wahrscheinlich eher den grund dass sich die implementierung für die spielefirmen nicht auszahlt.

JC

Administrator
Disruptor
Avatar
Registered: Feb 2001
Location: Katratzi
Posts: 9067
Ich beziehe mich darauf, dass jeder "Spieler" in diesem Markt mit harten Bandagen kämpft ("Unsere neue GPU kann soviel mehr als die von xxx", "[unser produkt] ist mind. doppelt so schnell", ...). Da ist weder ATI noch nVidia eine Ausnahme.
Und ja, der Shaderday fällt da auch hinein.

@Marketing-Blabla
Beantworte dir die Frage selbst: Bringen die Optimierungen was oder nicht? :p

Es war ja von anfang an klar, dass die FX-Karten keine "gewöhnlichen" Karten mehr sein werden. Cinematic Computing steht im Vordergrund, nicht höhere Framerates oder was dergleichen. Von Anfang an forcierte nVidia Cg und behauptete, dass nur mit entsprechender Optimierung ein passables Ergebnis möglich ist.

Bei Intel ist's ja auch nicht so ein Trara, wenn Optimierungen aufgrund von erweiterten Befehlssätzen stattfinden.

Mr. Zet

Super Moderator
resident spacenerd
Avatar
Registered: Oct 2000
Location: Edge of Tomorrow
Posts: 12040
JC
I know ;)

aber wie du selbst gesagt hast: abwarten und Tee trinken ... bisher gibt es weder Hieb und Stichfeste "Beweise" dafür was der Deto 50 bringen wird, noch ob und wie gut die Developer für CineFX optimieren werden.

Und wenns auch noch so ausgelutscht ist: Man erinnere sich an 3Dfx: Die bessere (fortschrittlichere) Hardware ist leider kein Garant für wirtschaftlichen Erfolg :(

add(some seconds later):
Glaube es ist auf jedenfall der richtige Schritt von nVidia, Cg - zumindest was DX betrifft - "fallen" zu lassen und auf HLSL zu setzen.
Ich denke sie haben sich damit nicht gerade viele Freunde gemacht, indem sie nicht nur speziellen Code verlangten (was ja durchaus legitim wäre), sondern auch noch eine eigene Shader-Language voraussetzten.
Bearbeitet von Mr. Zet am 30.09.2003, 17:42

JC

Administrator
Disruptor
Avatar
Registered: Feb 2001
Location: Katratzi
Posts: 9067
@Z
True :)

Ich persönlich erwarte von den 50er Dets nicht allzuviel, erwarte jedoch eine spürbare Steigerung. Tja ... der Tee ist schon kalt ;)

Ohne Zweifel liegen die Dinge heute anders. Ich möchte aufgrund meiner nicht allzu genauen Kenntniss auch nicht behaupten, dass diese oder die andere Lösung besser ist, aber ich hielt und halte die FX-Architektur für keine schlechte Sache. Man muss sie nur nutzen :)

//add (aufgrund deiner änderung)
Wie Kirk bereits erwähnte: Es gab damals keine andere High Level Coding Language. Sie machten es vor und widerwillig nahmen es die Kunden an. Jetzt geht der Trend in die richtige Richtung :)

Mr. Zet

Super Moderator
resident spacenerd
Avatar
Registered: Oct 2000
Location: Edge of Tomorrow
Posts: 12040
Zitat von JC
//add (aufgrund deiner änderung)
Wie Kirk bereits erwähnte: Es gab damals keine andere High Level Coding Language. Sie machten es vor und widerwillig nahmen es die Kunden an. Jetzt geht der Trend in die richtige Richtung :)
Ich habs ja gelesen ;)
Ich meinte nur, nVidia hätte ja auch stur sein können und auf ihrer eigenen Sprache beharren (sicher wäre das dumm gewesen, aber "dumme" Aktionen kommen einfach überall und immer wieder vor ;)).

tombman

the only truth...
Avatar
Registered: Mar 2000
Location: Wien
Posts: 9496
Also von mir aus kann ja kirk die fx schönreden was er will.

Nvidia war einfach zu spät dran mit ihrer dx9 Lösung --> der MArkt und die developer richten und optimieren nach ATI --> Nvidia kommt mit 32 bit was keiner braucht und was nur langsam ist --> Ati gewinnt.

Klar ist 24 bit ungewöhnlich, aber FÜR DIESE Zeit offenbar ideal. Und klar wird 32bit Standard, trotzdem gewinnt ATI diese Runde.

Und wenn gabe newell sagt er hat 5 mal mehr Zeit in die Optmierung von FX als in die von ati investiert, dann kanns aber bitte ned sein, daß es nur auf Optimierung hinausläuft...
Irgendwas MUSS mit der FX ned stimmen... (und ich tipp da mal ganz banal auf nur 4pipes ;))

Und carmack und newell verstehen die Architektur ned? Na wer dann bitte DANN? --> Lächerlich..

Kommt man wie ein trotziges KInd vor was ned verlieren kann:

"Aber die wollten nicht mir spielen und jetzt hab ich die falsche Turnhose an (=32bit)"
"Aber dann hol ich meinen großen Bruder und der wird alles ownen (= in Zukunft wird alles besser durch mad-Optimierungs-skills)"
"Ihr seids ja alle deppat (=they don´t understand our architecture)"

Und wegen dieser Nvidia Pleite wurde jetzt HL2 verschoben --> klar, damit man ein paar Monate mehr optimieren kann, damit ja die Nvidia Kunden auch des game kaufen ---> :mad:

Dann sollens des game dooch releasen und später einen nvidia patch rausbringen ;) (i weiß, würde keiner machen ;))

Mr. Zet

Super Moderator
resident spacenerd
Avatar
Registered: Oct 2000
Location: Edge of Tomorrow
Posts: 12040
Zitat von tombman
Und wegen dieser Nvidia Pleite wurde jetzt HL2 verschoben --> klar, damit man ein paar Monate mehr optimieren kann, damit ja die Nvidia Kunden auch des game kaufen ---> :mad:

Dann sollens des game dooch releasen und später einen nvidia patch rausbringen ;) (i weiß, würde keiner machen ;))

pfff

Valve in allen Ehren, aber du glaubst doch nicht wirklich, dass die nicht auch in gewisser Weise "froh" sind darüber den schwarzen Peter jetzt auf nVidia abzuwälzen. OK, hätte die Performance gepasst, wärs vielleicht wirklich released worden, aber bei dem Crap der in letzter Zeit auch von angesehenen Studios veröffentlicht wird, sollen die von mir aus Ruhig noch 2 oder 3 Monate dran rumwerken.
Imho kann das Spiel dadurch ja nur besser werden, weil während die engine-g33ks für die FX optimieren, wird der Rest der Truppe ja nicht untätig herumsitzen, sondern sicherlich bugfixen was das Zeug hält (es gibt immer genug Bugs, man muss sie nur finden ;) ).

Vielleicht wurde HL2 wegen nvidia verschoben, aber ungelegen kommt ihnen das wahrscheinlich gar nicht. Immerhin lässt sich zu Weihnachten sowieso mehr Umsatz machen.

ENIAC

Do you Voodoo
Avatar
Registered: Sep 2003
Location: Klosterneuburg
Posts: 1761
@Tombman und Mr.Z

Ihr habts ja beide recht!!! Einerseits bezweifle ich auch, dass HL2 nur wegen Nvidia no net released wurde! Valve nutzt die Zeit sicha ned nur für die FX-Optimierung :)

Andererseits, was is mit der FX los!!!! Seit der FX5800 geht bei Nvidia alles daneben! Okay zugegeben mit der FX5900 habens schon irgendwie den Anschluß gefunden - und warum: Nur wegen der Speicheranbindung von 256 bit anstatt bei der "alten" FX 5800 mit 128 bit!

Ich bin weder ein Befürworter von Ati, noch von Nvidia! Die Karte, welche die bessere Leistung fürs Geld bringt wird gekauft!
Damals fiel meine Entscheidung auf die Radeon 9700 Pro und ich bereue diesen kauf bis heut no ned!!!

Aber wie oben schon erwähnt: Abwarten und Tee trinken!!! Wenn HL2 released wurde können ma ja noch mal darüber diskutieren ;)
Kontakt | Unser Forum | Über overclockers.at | Impressum | Datenschutz