5 Min Lesedauer

Das Gehirn und sein Körper: Warum Grafikkarten (GPUs) das Herzstück der KI sind

Grafikkarten wurden eigentlich entwickelt, um große Videospielwelten schnell darstellen zu können. Diese Rechenleistung ist auch für KIs nützlich.
Grafikkarte
Anders als Prozessoren, können Grafikkarten tausende Aufgaben gleichzeitig durchführen | Quelle: Thomas Foster
💡
Das Wichtigste in Kürze:

CPU vs. GPU: Ein normaler Prozessor (CPU) ist ein Universalgenie für wenige, komplexe Aufgaben nacheinander (seriell). Eine Grafikkarte (GPU) ist eine Armee von Spezialisten, die Tausende einfacher Aufgaben gleichzeitig (parallel) erledigen kann.

KI-Training liebt Parallelität: Das Training von Neuronalen Netzen besteht aus Millionen von einfachen, sich wiederholenden Rechenoperationen (Matrix-Multiplikationen). Die parallele Architektur der GPUs beschleunigt diesen Prozess massiv – von Monaten auf Stunden.

Hardware und Software im Einklang: Unternehmen wie Nvidia wurden dominant, weil sie nicht nur die leistungsfähige Hardware (GPUs) bauten, sondern auch die passende Software (wie CUDA) bereitstellten. Dies machte die enorme Rechenleistung für die KI-Entwicklung erst leicht zugänglich und nutzbar.

Wir können einer Maschine ein paar Worte zurufen, und sie malt uns ein fantastisches Bild. Wir können mit einem Chatbot sprechen, der Gedichte schreibt und komplexe Probleme erklärt. Künstliche Intelligenz (KI) scheint wie ein reines Software-Wunder, ein körperloses Gehirn im digitalen Raum.

Doch dieses Gehirn braucht einen extrem leistungsfähigen Körper, um zu denken. Und das Herzstück dieses Körpers, das Organ, das den "Denkprozess" der KI erst in einer für uns nutzbaren Geschwindigkeit ermöglicht, ist meist keine gewöhnliche Computer-Komponente, sondern eine, die ursprünglich für einen ganz anderen Zweck entwickelt wurde: die Grafikkarte.

In diesem Artikel tauchen wir in den Maschinenraum der KI ein. Wir erklären, warum die Hardware, die einst nur für brillante Videospiele gebaut wurde, heute das Schicksal von Tech-Giganten bestimmt und warum Firmen wie Nvidia plötzlich zu den wertvollsten der Welt gehören.


Der traditionelle Arbeiter – Die CPU (Der Prozessor)

Jeder Computer hat einen Hauptprozessor, eine CPU (Central Processing Unit). Man kann sich die CPU wie einen hochqualifizierten Meisterhandwerker oder einen Chefkoch vorstellen. Sie ist ein Universalgenie, extrem schnell und intelligent. Sie kann sehr komplexe, unterschiedliche Aufgaben nacheinander mit höchster Präzision ausführen.

Wenn Sie ein Programm auf Ihrem Computer starten, eine E-Mail schreiben oder eine Datei speichern, kümmert sich die CPU darum. Sie ist auf serielle Verarbeitung optimiert: "Mach zuerst Schritt A, dann, wenn A fertig ist, mach den komplexen Schritt B, und danach den schwierigen Schritt C." Sie ist ein brillanter Generalist, aber sie kann immer nur eine Handvoll Aufgaben gleichzeitig bewältigen.


Die Armee der Spezialisten – Die GPU (Die Grafikkarte)

Eine GPU (Graphics Processing Unit), also eine Grafikkarte, ist anders aufgebaut. Statt einiger weniger, hochintelligenter Kerne (wie beim Chefkoch) besitzt eine GPU Tausende von einfachen, spezialisierten Kernen. Stellen Sie sich eine riesige Armee von Hilfsköchen vor. Keiner von ihnen kann ein ganzes 5-Gänge-Menü kochen. Aber alle Tausend können eine einzige, simple Aufgabe perfekt und vor allem gleichzeitig ausführen: zum Beispiel Kartoffeln schälen.

Dieser Ansatz nennt sich parallele Verarbeitung. Die GPU ist dafür gebaut, Tausende von ähnlichen, einfachen Rechenoperationen auf einmal durchzuführen. Ihren Ursprung hat sie im Gaming. Um eine flüssige 3D-Welt auf dem Bildschirm darzustellen, muss der Computer für Millionen von Bildpunkten (Pixeln) gleichzeitig berechnen, welche Farbe und Helligkeit sie haben sollen. Eine CPU wäre damit völlig überfordert, weil sie jeden Pixel nacheinander abarbeiten würde. Die GPU-Armee erledigt das im Handumdrehen für alle Pixel parallel.


Warum KI das Rechnen in der Masse liebt

Hier schließt sich nun der Kreis zur Künstlichen Intelligenz, insbesondere zu Neuronalen Netzen, die das Gehirn nachahmen und die Grundlage für Modelle wie ChatGPT bilden.

Der Lernprozess einer KI (das Training) ist im Grunde eine gigantische, aber repetitive Rechenaufgabe. Wie wir in vorherigen Artikeln gelernt haben, passt das Modell bei jedem Lerndurchgang Millionen von winzigen "Stellschrauben" (Parametern) an, um seinen Fehler zu minimieren. Die Mathematik dahinter ist als Matrix-Multiplikation bekannt.

Man muss kein Mathematiker sein, um das Prinzip zu verstehen. Stellen Sie sich zwei riesige Excel-Tabellen mit Tausenden von Zeilen und Spalten vor. Um das Ergebnis zu berechnen, muss jede Zelle der einen Tabelle mit jeder Zelle der anderen multipliziert und aufaddiert werden.

  • Die CPU (der Chefkoch) würde diese Aufgabe Zelle für Zelle, eine nach der anderen, abarbeiten. Das würde bei Millionen von Parametern Tage, Wochen oder sogar Monate dauern.
  • Die GPU (die Armee der Hilfsköche) kann Tausende dieser simplen Multiplikationen auf einen Schlag erledigen. Sie weist jedem ihrer kleinen Rechenkerne eine eigene kleine Rechenaufgabe zu und führt alle parallel aus.

Dadurch wird der Lernprozess von KI-Modellen massiv beschleunigt – von Monaten auf Tage, von Tagen auf Stunden. Die Fähigkeit zur parallelen Verarbeitung macht die GPU zum perfekten "Körper" für das "Gehirn" des Neuronalen Netzes. Es ist, als würde man das Sehzentrum unseres Gehirns nutzen, das ebenfalls darauf spezialisiert ist, Millionen von Lichtreizen parallel zu verarbeiten, anstatt jedes Photon einzeln zu analysieren.


Nvidia: Vom Gaming-König zum KI-Giganten

Jahrelang war Nvidia der unangefochtene König für Gaming-Grafikkarten. In den frühen 2000er-Jahren bemerkten KI-Forscher, dass sich diese leistungsstarken GPUs perfekt für ihre wissenschaftlichen Berechnungen eigneten.

Nvidia traf daraufhin eine strategische Entscheidung: Anstatt sich weiter nur auf Gamer zu konzentrieren, entwickelten sie eine spezielle Software-Plattform namens CUDA. Diese Plattform machte es für Entwickler und Forscher extrem einfach, die Rechenkraft der GPUs nicht nur für Grafik, sondern für allgemeine wissenschaftliche Zwecke – wie eben das Training von KI – zu nutzen. Sie bauten nicht nur den schnellsten Motor (die GPU), sondern auch das beste Getriebe und das einfachste Lenkrad (CUDA), um diesen Motor zu steuern.

Dieser Vorsprung hat Nvidia zum dominanten Ausstatter der KI-Revolution gemacht. Die riesigen Rechenzentren, in denen heute die großen KI-Modelle trainiert werden, sind vollgepackt mit Zehntausenden ihrer spezialisierten GPUs.


Fazit: Ohne Körper kein Geist

Künstliche Intelligenz ist weit mehr als nur Code. Sie ist ein untrennbares Zusammenspiel von Software (dem Gehirn) und Hardware (dem Körper). Die komplexen und wunderschönen Fähigkeiten eines Neuronalen Netzes könnten sich ohne einen Körper, der seine millionenfachen Gedankenblitze parallel und blitzschnell verarbeiten kann, niemals entfalten.

Die CPU bleibt der unverzichtbare Alltagsmanager in unseren Computern. Aber das Herzstück der modernen KI, der Muskel, der die schwere Arbeit des Lernens verrichtet, ist die GPU. Wenn Sie also das nächste Mal über die Wunder der KI staunen, denken Sie an die Armee der stillen Arbeiter, die in den Rechenzentren dieser Welt unermüdlich parallel rechnen – und damit das Denken erst ermöglichen.


Weiterführende Fragen

Kann ich dann einfach meine Gaming-Grafikkarte zu Hause benutzen, um eine KI zu trainieren?

Ja, aber nur bis zu einem gewissen Grad. Für das Experimentieren und Trainieren kleinerer KI-Modelle ist eine moderne Gaming-GPU wunderbar geeignet. Die professionellen GPUs, die in Rechenzentren eingesetzt werden, unterscheiden sich jedoch erheblich: Sie verfügen über viel mehr speziellen Speicher (VRAM), was für riesige Modelle wie GPT-4 entscheidend ist, sind auf einen Dauerbetrieb von 24/7 ausgelegt und bieten eine nochmals um ein Vielfaches höhere Rechenleistung.

Gibt es auch Alternativen zu GPUs von Nvidia für KI?

Ja, der Markt ist in Bewegung. AMD, der Hauptkonkurrent von Nvidia im GPU-Markt, stellt ebenfalls leistungsfähige Grafikkarten her, die für KI genutzt werden können. Darüber hinaus entwickeln große Tech-Firmen ihre eigenen, noch spezialisierteren Chips. Das bekannteste Beispiel sind die TPUs (Tensor Processing Units) von Google, die von Grund auf nur für die Art von Mathematik entwickelt wurden, die Neuronale Netze benötigen, und dadurch oft noch effizienter sind.

Bedeutet das, dass der Energieverbrauch für KI immer weiter steigen wird, weil wir immer größere GPUs brauchen?

Das ist eine der größten Herausforderungen der KI-Branche. Der Energiehunger großer KI-Modelle ist enorm. Es gibt jedoch einen starken Gegentrend: Die Forschung konzentriert sich nicht nur auf noch mehr Leistung, sondern vor allem auf mehr Effizienz, also mehr Rechenleistung pro Watt Energieverbrauch. Zukünftige Chip-Architekturen und auch intelligentere KI-Algorithmen, die mit weniger Daten und Rechenaufwand auskommen, sind der Schlüssel, um dieses Problem in den Griff zu bekommen.

Melde Dich für den Newsletter an. 📧

Jetzt kostenlos abonnieren und immer auf dem Neuesten bleiben. 🚀