Skip to content

Wie der wandelnde KI-Chipmarkt Nvidias Zukunft formen wird

Kundenbedürfnisse wandeln sich in der sich entwickelnden KI-Industrie – eine Chance für Nvidia und Wettbewerber.


Kundenbedürfnisse entwickeln sich, während die künstliche Intelligenz-Branche im Übergang ist, und das bietet Nvidia und seinen Konkurrenten eine Chance. Der AI Chip-Kampf, den Nvidia dominiert hat, verlagert sich bereits auf ein neues Schlachtfeld - eines, das viel größer, aber auch wettbewerbsintensiver sein wird. Nvidia hat sich zu einem 2 Billionen US-Dollar-Unternehmen entwickelt, indem es die für das unglaublich komplizierte Training von künstlichen Intelligenz-Modellen essentiellen Chips bereitgestellt hat.


Mit der raschen Entwicklung der Branche bietet der größere Markt jedoch das Potential, Chips zu verkaufen, die diese Modelle nach dem Training ausführen, um Texte und Bilder für die schnell wachsende Anzahl von Firmen und Personen zu liefern, die tatsächlich generative AI Tools nutzen. Im Moment trägt dieser Wechsel zu Nvidias lukrativen Umsatzzahlen bei. Finanzvorstand Colette Kress teilt mit, dass in den vergangenen 12 Monaten mehr als 40% des Data-Center-Geschäfts von Nvidia für die Bereitstellung von AI-Systemen statt für das Training genutzt wurde, was ein erstes bedeutendes Anzeichen für den Shift ist.


Diese Aussage von Kress beruhigte Bedenken, dass der Wechsel hin zu Chips für die Ausführung von AI-Systemen - auch als "Inferenz" bezeichnet - Nvidias Position bedroht, da diese Arbeit mit weniger leistungsstarken und günstigeren Chips erledigt werden kann als denjenigen, die Nvidia zum Marktführer im AI-Boom gemacht haben. "Es herrscht die Wahrnehmung, dass Nvidias Marktanteil bei Inferenzen geringer sein wird als beim Training", bemerkt Ben Reitzes, ein Analyst bei Melius Research gegenüber Kunden. "Diese Enthüllung hilft dabei, die Fähigkeit des Unternehmens zu erhellen, von der bevorstehenden Explosion der Inferenzen zu profitieren."


Viele Konkurrenten glauben, dass sie im AI Markt bessere Chancen haben, da Chips für Inferenzen immer wichtiger werden. Intel, das Prozessoren für Rechenzentren herstellt, ist davon überzeugt, dass seine Chips zunehmend attraktiver werden, weil Kunden sich darauf konzentrieren, die Betriebskosten von AI-Modellen zu senken. Die Art von Chips, in der Intel spezialisiert ist, wird bereits weitreichend für Inferenzen eingesetzt und die Verwendung von Nvidias fortschrittlichen und teureren H100 AI Chips ist nicht unbedingt entscheidend für diese Aufgabe.


"Die Wirtschaftlichkeit von Inferenzen sieht so aus, dass ich keine $40.000 H100 Umgebungen einrichten werde, die zu viel Strom verbrauchen und neue Modelle für Management, Sicherheit und IT-Infrastruktur erfordern", sagt Intels CEO Pat Gelsinger in einem Interview im Dezember. "Wenn ich diese Modelle mit Standard(Intel)-Chips ausführen kann, ist die Entscheidung eindeutig."


Für Vivek Arya, einen Analysten bei der Bank of America, war der Shift hin zu Inferenzen die vielleicht wichtigste Nachricht, die am vergangenen Mittwoch aus Nvidias Quartalsbericht hervorging. Dieser übertraf die Erwartungen der Wall Street und führte dazu, dass der Aktienkurs um 8,5% stieg und das Unternehmen auf eine Bewertung von rund 2 Billionen US-Dollar brachte. Arya sagt, dass Inferenzen an Bedeutung gewinnen werden, da der Fokus auf der Generierung von Einkommen aus AI-Modellen liegen wird, nachdem eine Welle von Investitionen auf das Training dieser Modelle gefolgt ist. Dies könnte im Vergleich zum Training von AI, wo Nvidia dominierend ist, wettbewerbsintensiver sein.


Die Geschwindigkeit, mit der sich die Inflation des Inferenzwerts entwickelt, könnte schneller sein als erwartet. Anfang dieses Jahres schätzten Analysten von UBS, dass 90% der Nachfrage nach Chips aus dem Training stammten und dass Inferenzen nächstes Jahr nur 20% des Marktes ausmachen würden. Nvidias Beitrag von etwa 40% seines Data-Center-Umsatzes aus Inferenzen sei "eine größere Zahl, als wir erwarten würden", bemerkten die Analysten in einer Notiz. Tatsächlich geben Nvidias Finanzergebnisse am Mittwoch Anlass zur Annahme, dass sein Anteil am Markt für AI-Chips von über 80% noch nicht ernsthaft in Frage gestellt wird.


Nvidias Chips, die für das Training von AI-Systemen verwendet werden, werden voraussichtlich auch in absehbarer Zukunft sehr begehrt sein. Beim Training von AI-Systemen werden riesige Datenmengen durch die Modelle geschleust, um ihnen beizubringen, Sprache auf eine Art und Weise vorherzusagen, die menschenähnlichen Ausdruck ermöglicht. Für diese Arbeit wird eine enorme Rechenkapazität benötigt, die ideal für Nvidias Grafikprozessoren, oder GPUs, geeignet ist.


Bei Inferenzen handelt es sich um den Vorgang, bei dem diese Modelle aufgefordert werden, neue Informationen zu verarbeiten und zu antworten - eine leichtere Aufgabe. Zusätzlich zu etablierten Konkurrenten wie Intel und Advanced Micro Devices könnten auch eine Reihe von AI-Chip-Startups an Fahrt gewinnen, da Inferenzen in den Mittelpunkt rücken. "Wir erleben einen explosionsartigen Anstieg unserer Infektionsfallzeiten", sagt Rodrigo Liang, CEO von SambaNova, einem Startup, das eine Kombination aus AI-Chips und Software herstellt, die sowohl Inferenzen als auch Training durchführen kann.


"Die Leute erkennen langsam, dass 80% der Kosten auf Inferenzen zurückzuführen sein werden und ich nach alternativen Lösungen suchen muss", sagt er. Groq, ein Startup, das von dem ehemaligen Google AI-Chip Ingenieur Jonathan Ross gegründet wurde, verzeichnet ebenfalls in den vergangenen Monaten starkes Interesse, nachdem auf der Homepage des Unternehmens gezeigt wurde, wie schnell die Infektionen mit Hilfe der Company-Chips von einer großen Sprachmodellantwort antworten konnten.


Das Unternehmen plant, in diesem Jahr 42.000 Chips einzusetzen und im nächsten Jahr eine Million, aber Ross gibt an, dass darüber nachgedacht werde, diesen Betrag auf 220.000 dieses Jahr und 1,5 Millionen im nächsten Jahr zu erhöhen. Ein Faktor, der den Wechsel anstößt, ist, dass einige der fortschrittlichsten AI-Systeme so optimiert wurden, dass sie bessere Antworten ohne erneutes Training produzieren, wodurch mehr von der Rechenarbeit in die Infektion wechselt. Und Groqs Spezialchips, sagt er, sind signifikant schneller und günstiger im Einsatz als Nvidias oder dasselbe von anderen Chipunternehmen.


"Bei Inferenzen hängt die Implementierung von den Kosten ab", sagt Ross. "Es gibt eine Reihe von Modellen, die bei Google trainiert wurden, die funktionierten, aber etwa 80% von ihnen wurden nicht in Betrieb genommen, weil sie zu teuer waren, um in die Produktion zu kommen." Große Technologieunternehmen - einschließlich Meta, Microsoft, Alphabet-Google und Amazon.com - haben daran gearbeitet, in-house Infektion zu entwickeln, um den bevorstehenden Wechsel und die Vorteile, die ein günstigeres Infektion ermöglichen, zu erkennen.


Amazon zum Beispiel hat seit 2018 Infektionschips und Infektionen machen 40% der Computerkosten für seine Alexa Smart Assistant aus, sagt Swami Sivasubramanian, Leiter von Daten und Maschinenlernen bei der Cloud-Computing-Abteilung des Unternehmens, letzten Jahr. Nvidia strebt bei der Umstellung auf Inferenzen an, an der Spitze zu bleiben. Ein kommender Chip erzielte im letzten Jahr branchenführende Ergebnisse in einem wichtigen AI-Projekt-Ranking, das Nvidias Jahrelanges Engagement in Wettbewerben der Branche ausbaut.


Im Dezember schoss Nvidia zurück, nachdem AMD neue AI-Chips vorgestellt hatte, die laut Aussage von AMD besser als die NVIDIA-Infektionschips seien. In einem Blogbeitrag widersprach Nvidia diesem Argument und sagte, dass AMD für seine Leistungsforderungen keine optimierte Software verwendet habe und dass Nvidia-Chips, wenn dies der Fall wäre, doppelt so schnell wären.