Während die ersten Versuche mit personalisierten KI-Assistenten wie Rabbit R1 und Humane AI Pin nicht gerade auf Begeisterung stoßen, findet der grundlegende Kampf um die Zukunft der KI anderswo statt. Was wirklich zählt, sind extrem leistungsfähige Maschinen, die große KI-Modelle lernen und KI-Dienste über das Internet anbieten können.
Es handelt sich um riesige Rechenzentren mit Chips, die sowohl für das Training von KI-Modellen als auch für deren Betrieb (Inference) optimiert sind. In diesem Bereich dominiert derzeit Nvidia mit ihren H100-Chips und dem aufkommenden H200. Der extreme Preis dieser Chips, ihre relative Knappheit sowie der ständig wachsende Bedarf an Rechenleistung führen dazu, dass praktisch alle großen Hersteller – einschließlich Intel und AMD – eigene Hardware entwickeln.
In der Vergangenheit habe ich bereits über die Entwicklung des Google Axion-Chips berichtet, der für Google-Serverfarmen entwickelt wurde. Dieser Chip soll 30 % effizienter arbeiten als aktuelle ARM-basierte Prozessoren und bis zu 50 % effizienter sein als x86-Chips. Ziel ist es, die Anschaffungs- und Betriebskosten zu senken und eine eigene, von Nvidia unabhängige Quelle für Chips zu schaffen. Die Entwicklung und Herstellung kundenspezifischer Chips ist eine kostspielige Angelegenheit, was zeigt, wie wichtig dies für Unternehmen in Zukunft sein wird.
Meta hat die Entwicklung eines Chips mit dem Codenamen Artemis angekündigt, der KI-Funktionen für Facebook, Instagram und WhatsApp bereitstellen soll. Der vollständige Name lautet Meta Training and Inference Accelerator (MTIA), ein Chip zur Beschleunigung von Lern- und Inferenzprozessen, der "die perfekte Balance zwischen Leistung und Stromverbrauch in Rechenzentren" bieten soll. Artemis wurde entwickelt, um den aggressiven Einsatz von KI-Produkten auf Meta-Plattformen zu unterstützen und gleichzeitig die Abhängigkeit von Nvidia-Grafikprozessoren zu verringern, was ein Schlüssel zur Optimierung der Betriebskosten ist.
Metas Ziel ist es zweifelsohne, die Kosten zu senken, insbesondere beim Stromverbrauch und bei der Anschaffung teurer Grafikprozessoren. Mark Zuckerberg hat kürzlich angekündigt, 350.000 Nvidia H100-Chips zu erwerben, um den aktuellen Bedarf an KI-Beschleunigern zu decken. Mit weiteren Übernahmen dürfte Meta bis Ende des Jahres eine Rechenkapazität erreichen, die bis zu 600.000 dieser Chips entspricht. Auch wenn Meta plant, schrittweise auf die eigenen MTIA-Chips umzusteigen, kann die vollständige Implementierung dieser proprietären Lösungen noch ein bis zwei Jahre dauern. Während dieser Übergangsphase wird das Unternehmen weiterhin die Lösungen von Nvidia nutzen, um seine wachsenden KI-Anforderungen zu erfüllen.
Auch Huawei bereitet seine Chips vor, die im Jahr 2026 erscheinen sollen. Dieses Unternehmen gehört zu den von den Vereinigten Staaten mit einem Embargo belegten Unternehmen, aber China ist sich sehr wohl bewusst, dass es in der Frage der KI-Entwicklung nicht zurückbleiben darf. Im Mittelpunkt des Streits steht die Situation um Taiwan, wo die USA zwar behaupten, die "Ein-China-Politik" zu unterstützen, aber auch die Unabhängigkeit Taiwans befürworten, das dank der TSMC (Taiwan Semiconductor Manufacturing Company Limited) ein äußerst wichtiger Akteur im Technologiebereich ist.
Die Tatsache, dass sich der Westen den Verlust der Produktionskapazitäten von TSMC nicht leisten kann und daher gezwungen ist, Taiwan vor einem gewaltsamen Anschluss an China zu schützen, wird mitunter als „Silizium-Schild“ bezeichnet. Angesichts der sich zuspitzenden internationalen Lage versucht die US-Regierung, China von ihren Technologien abzuschneiden – das bedeutet, dass sie nicht nur eigene Chipdesigns, sondern auch die dazugehörigen Fertigungstechnologien unter Embargo stellt. Es ist daher nur logisch, dass China nach eigenen Lösungen sucht, um diese Sanktionen zu umgehen.