NVidia: Gründe für das Fermi-Desaster genannt

Frank Ritter

Grafikkarten-Hersteller NVidia hatte 2009 große Probleme, mit dem Konkurrenten ATI mitzuhalten. Die angekündigte Grafikkartengeneration mit dem so genannten “Fermi”-Chip verzögerte sich erst immer wieder und war nach Veröffentlichung kaum konkurrenzfähig. NVidia-Chef Huang erläuterte nun die Gründe für die Probleme.

Auf der von NVidia veranstalteten GPU Developers Conference in San Jose, Kalifornien gab NVidia-Chef Jen-Hsun Huang sichtlich zerknirscht zu Protokoll, warum die Geschichte von Fermi als holprig bezeichnet werden kann.

Sowohl Management- als auch technische Probleme seien ursächlich für den Fermi-Fehlschlag gewesen, so Huang gegenüber Journalisten. Die GF100-GPU, die aus bis zu 3 Milliarden Transistoren besteht habe in früheren Versionen darunter gelitten, dass die Kommunikation zwischen einzelnen Streaming-Prozessoren mit dem Grafikkartenspeicher aufgrund elektrischer Interferenzen nicht funktioniert habe. Aber auch zwischen den Teams bei NVidia, die die einzelnen Chip-Einheiten entwickelten, wurde nicht hinreichend kommuniziert.

Im Ausblick für die Zukunft gab Huang zu Protokoll, dass man aus begangenen Fehlern gelernt habe und zukünftig besser kommunizieren wolle. Nach dem Trend zu auf einem Die kombinierten Grafikchips und Prozessoren gab Huang an, dass bei der Konkurrenz in Form von ATIs Fusion die CPU-, bei Intels Sandy Bridge die GPU-Einheit zu schlecht sei. Die Zeit für kombinierte Grafik- und Hauptprozessor-Chips sei einfach noch nicht gekommen, so Huang.

Neue Artikel von GIGA SOFTWARE

GIGA Marktplatz