Mit dem neu entwickelten Rechenchip D1 will Tesla die Serverprodukte von AMD und Nvidia übertreffen. Ein Supercomputer auf Basis des D1 soll in puncto Effizienz und Flächenverbrauch besser abschneiden als die bisher von Tesla eingesetzten Nvidia-Beschleuniger.
Das US-Unternehmen Tesla entwickelt nicht nur Elektroautos, Batteriespeicher und Photovoltaikanlagen, sondern auch Rechenchips. Auf einer kürzlichen Präsentation zum Thema AI stellte das Unternehmen das "Projekt Dojo" vor, mit dem Tesla die bisher zum AI-Training eingesetzten Nvidia-Grafikkarten ersetzen will.
Tesla mit D1-Chips und Training Tiles
Herzstück des Dojo-Projekts soll ein Rechenchip namens D1 sein, der im 7-nm-Prozess gefertigt wird und dabei 50 Milliarden Transistoren auf 645 mm² unterbringt. Der Chip ist dabei in 354 sogenannte Training Nodes gegliedert, die jeweils eine Quadcore-CPU beinhalten. Diese soll sich speziell für die Matrixmultiplikation (8x8) sowie Berechnungen in den Formaten FP32, BFP16, CFP8, INT32, INT16 und INT8 eignen. Damit konkurriert der D1 nicht mit klassischen CPUs, sondern mit Rechenbeschleunigern wie Nvidias A100 oder AMDs Instinct MI100.
Insgesamt soll ein einzelner D1 eine Rechenleistung von 362 TFLOPS bei Berechnungen mit FP16/CFP8-Daten erreichen, bei FP32-Daten werden hingegen 22,6 TFLOPS genannt. Beide Werte liegen über den Angaben der Konkurrenzprodukte von AMD und Nvidia, das gilt aber auch für die TDP des Chips. Diese ist beim Tesla D1 mit 400 W deutlich höher als bei der Konkurrenz, die mit 300 W (AMD) beziehungsweise 250 W (Nvidia) antritt.
Chip | AMD Instinct MI 100 | Nvidia A100 | Tesla D1 |
---|---|---|---|
FP64 | 11,5 TFLOPS | 9,7 TFLOPS | - |
FP32 | 23,1 TFLOPS | 19,5 TFLOPS | 22,6 TFLOPS |
FP16 | 184,6 TFLOPS | 312 TFLOPS | 362 TFLOPS |
Transistoren | 50 Milliarden | 54 Milliarden | 50 Milliarden |
Chipfläche | 750 mm² | 826 mm² | 645 mm² |
Fertigung | 7 nm TSMC | 7 nm TSMC | 7 nm |
TDP | 300 W | 250 W | 400 W |
Auch spannend: AMD Instinct MI200: Grafik zeigt die Dual-Die-GPU für HPCs
Der D1-Chip soll von Tesla in sogenannten Training Tiles verwendet werden, die 25 D1-Chips kombinieren. Diese Training Tiles sollen eine zusammengefasste Rechenleistung von 9 PFLOPS bei einem Verbrauch von 10 kW haben. In Zukunft will Tesla insgesamt 120 Training Tiles zu einem Supercomputer zusammenfügen, der damit eine Rechenleistung von 1,1 ExaFLOPS bieten würde.
Laut Tesla soll dieser Supercomputer dann fünfmal kleiner und zugleich 30 Prozent effizienter sein als die aktuelle Konkurrenz von Nvidia. Dabei ist aber zu bedenken, dass Tesla den D1 womöglich spezifisch auf das eigene Anwendungsgebiet zugeschnitten hat, wohingegen sich die Produkte von Nvidia und AMD für mehrere Einsatzgebiete gleichzeitig eignen, was bei der Entwicklung ein Nachteil ist.
Quelle: via Computerbase / Videocardz
Die mit * gekennzeichneten Links sind Affiliate Links. Affiliate-Links sind keine Anzeigen, da wir bei der Recherche und Auswahl der vorgestellten Produkte unabhängig sind. Für Produktverkäufe erhalten wir eine kleine Provision, mit der wir die kostenlosen Inhalte der Webseite teilweise finanzieren.
Tesla D1: Neuer Supercomputer-Chip soll es mit AMD und Nvidia aufnehmen - PC Games Hardware
Read More
No comments:
Post a Comment