
KI-Training ist ein Lernzyklus. Ein Modell macht eine Vorhersage, vergleicht sie mit der richtigen Antwort, berechnet den Fehler und passt sich minimal an. Dieser Prozess wird millionenfach wiederholt.
Es gibt verschiedene Lernstile. Am häufigsten ist das "Überwachte Lernen" mit beschrifteten Beispielen (beispielsweise Katzenbildern). Es gibt aber auch Lernen durch eigenständiges Sortieren oder durch Belohnung und Bestrafung.
Das Prinzip gilt auch für Sprache. ChatGPT lernt, indem es immer wieder das nächste Wort in einem Satz vorhersagt und seine Vorhersage mit dem Originaltext vergleicht. So lernt es Grammatik, Fakten und Zusammenhänge.
Wir haben bereits darüber gesprochen, was eine KI ist und was ein neuronales Netz im Inneren zusammenhält. Aber eine Frage bleibt offen: Wie wird ein solches Netz von einem Haufen zufälliger "Taschenrechner" zu einem Experten, der Texte schreiben oder Bilder erkennen kann?
Die Antwort liegt in einem Wort, das du ständig hörst: Training.
Schritt 1: Das untrainierte Modell – Ein leeres Blatt Papier
Stell dir vor, unser neuronales Netz ist wie ein Kind, das noch nie ein Tier gesehen hat. Seine internen Verbindungen und Parameter sind komplett zufällig eingestellt. Wenn du ihm jetzt ein Bild zeigst und fragst "Ist das eine Katze?", ist die Antwort reiner Zufall. Es weiß es schlicht und einfach nicht.
Genauso startet eine KI: als ein untrainiertes Modell, das noch nichts über die Welt oder seine spezifische Aufgabe weiß.
Schritt 2: Der Lernzyklus – Die Kraft der Wiederholung
Jetzt beginnt das eigentliche Training. Und dieser Prozess läuft immer wieder in den gleichen, einfachen Schritten ab. Wir bleiben bei unserer Analogie: Wir haben einen riesigen Stapel Bildkarten, auf denen entweder eine Katze zu sehen ist oder nicht.
1. Ein Beispiel zeigen (Der Input)
Wir nehmen die erste Karte – ein Bild von einer Katze 🖼️ – und zeigen sie dem Kind (unserem KI-Modell).
2. Eine Vermutung anstellen (Die Vorhersage)
Das Kind, das noch keine Ahnung hat, rät einfach mal: "Das ist ein Hund!"
Das KI-Modell macht genau das Gleiche. Es verarbeitet das Bild und gibt aufgrund seiner zufälligen Einstellungen eine Vorhersage aus. Hierbei gilt: Die Antwort der KI ist höchstwahrscheinlich nicht mal ein Tier - sie kann genauso gut "Mensch", "Auto" oder "Oma" sagen.
3. Mit der Wahrheit vergleichen (Der Fehler)
Jetzt kommt der entscheidende Moment des Lernens. Wir geben Feedback. Wir sagen dem Kind: "Nein, das ist nicht .... Das ist eine Katze." ✅
In der KI-Welt berechnen wir mathematisch den "Fehler" (auch "Loss" genannt) – also den Unterschied zwischen der Vorhersage des Modells (nehmen wir als Beispiel "Auto") und der richtigen Antwort ("Katze").
4. Eine winzige Korrektur vornehmen (Die Anpassung)
Das Kind verarbeitet unser Feedback. Sein Gehirn nimmt eine winzige Anpassung vor: "Okay, dieses Ding mit den spitzen Ohren und den Schnurrhaaren ist also eine Katze. Merke ich mir."
Exakt das passiert auch im neuronalen Netz. Ein Korrektursignal wird von hinten nach vorne durch das gesamte Netz geschickt. Es sagt jedem einzelnen Neuron: "Hey, dein Beitrag hat zu einem Fehler geführt. Ändere deine Einstellung ein winziges bisschen, damit die Antwort beim nächsten Mal etwas näher an 'Katze' dran ist."
5. Wiederholen. Millionenfach.
Dieser Zyklus aus Zeigen → Raten → Vergleichen → Korrigieren ist der Kern des Trainings. Und jetzt kommt der entscheidende Punkt: Wir machen das nicht zehnmal. Wir machen es hunderttausende, millionen- oder sogar milliardenfach. Mit jeder einzelnen Wiederholung wird das Modell ein winziges Bisschen schlauer. 🔁
Schritt 3: Das trainierte Modell – Der fertige Experte
Nachdem das Kind tausende von Katzen- und Hundebildern gesehen hat, hat es ein inneres Konzept davon entwickelt, was eine Katze ausmacht. Zeigt man ihm jetzt ein neues, unbekanntes Katzenbild, wird es mit hoher Wahrscheinlichkeit sagen: "Das ist eine Katze!" 🏆
Genauso ist es mit dem KI-Modell. Nach dem intensiven Training sind seine internen Parameter nicht mehr zufällig. Sie sind perfekt darauf abgestimmt, die Muster zu erkennen, die eine Katze von allem anderen unterscheiden. Das "dumme" Modell ist zu einem Experten für eine ganz spezifische Aufgabe geworden. Es ist jetzt ein trainiertes Modell.
Wie ChatGPT trainiert wird
Jetzt denkst du vielleicht: "Okay, das Lernen mit beschrifteten Katzenbildern ist klar. Aber wie lernt ein Modell wie ChatGPT, das ganze Gespräche führt, auf diese Weise?"
Es ist faszinierend: Das grundlegende Prinzip des Lernzyklus (Zeigen → Raten → Vergleichen → Korrigieren) bleibt exakt dasselbe. Nur die "Beispiele" und die "richtigen Antworten" sehen anders aus.
Stell dir vor, statt eines Stapels Bildkarten haben wir das gesamte Internet als riesiges Textarchiv. Ein großer Teil des Trainings von ChatGPT (besonders in den Anfängen) funktionierte so:
- Ein Beispiel zeigen (Der Input): Man nimmt einen Satz aus dem Internet, aber lässt das letzte Wort weg. Zum Beispiel: "Die Katze klettert auf den..."
- Eine Vermutung anstellen (Die Vorhersage): Das untrainierte KI-Modell (ein riesiges neuronales Netz) rät, welches Wort als Nächstes kommen könnte. Am Anfang ist das reiner Zufall, es könnte "Apfel" vorschlagen.
- Mit der Wahrheit vergleichen (Der Fehler): Jetzt kommt der entscheidende Punkt. Wir wissen ja aus dem Originaltext, wie der Satz wirklich weiterging. Nehmen wir an, das richtige Wort war "Baum". Das Modell vergleicht seine Vorhersage ("Apfel") mit der Wahrheit ("Baum") und stellt fest: "Ich lag falsch."
- Eine winzige Korrektur vornehmen (Die Anpassung): Genau wie bei der Katze wird jetzt ein Korrektursignal durch das gesamte Netzwerk geschickt. Es passt die internen Parameter so an, dass die Wahrscheinlichkeit für "Apfel" beim nächsten Mal etwas sinkt und die für "Baum" etwas steigt.
Diesen Prozess wiederholt man milliardenfach. Man nimmt unzählige Texte und lässt das Modell immer wieder das nächste Wort vorhersagen. Mit der Zeit lernt es nicht nur einzelne Wörter, sondern komplexe Grammatik, Satzstrukturen, Fakten und sogar Argumentationsketten – einfach nur, indem es versucht, menschliche Texte so gut wie möglich nachzuahmen.
Nicht jedes Training ist gleich: Die drei Lernstile
Die Methode, die wir gerade beschrieben haben – mit den beschrifteten Bildkarten ("Das ist eine Katze") – ist die häufigste Art des Trainings. Man nennt sie Überwachtes Lernen (Supervised Learning), weil ein "Lehrer" (der Mensch) dem Modell die richtigen Antworten gibt.
Es gibt aber noch zwei weitere wichtige Lernstile:
- Unüberwachtes Lernen (Unsupervised Learning): Stell dir vor, du gibst dem Kind den ganzen Stapel Bilder, aber ohne ihm zu sagen, was darauf zu sehen ist. Du sagst nur: "Sortiere diese Karten in Gruppen, die irgendwie zusammengehören." Das Kind würde vielleicht einen Stapel für "flauschige Vierbeiner", einen für "Vögel" und einen für "Fische" machen, ohne die genauen Namen zu kennen. Genau das macht diese Art von KI: Sie findet von selbst verborgene Muster und Strukturen in unbeschrifteten Daten.
- Verstärkendes Lernen (Reinforcement Learning): Hier lernt die KI durch Belohnung und Bestrafung, ähnlich wie beim Hundetraining. Stell dir eine KI vor, die ein Computerspiel lernt. Für jeden Punkt, den sie bekommt, erhält sie eine positive Belohnung. Für jeden Fehler (z.B. gegen eine Wand laufen) einen negativen Punkt. Die KI probiert einfach Dinge aus und lernt mit der Zeit, welche Aktionen zur höchsten Belohnung führen.
Fazit: Training ist ein Handwerk, keine Magie
Das Training einer KI ist also kein mystischer Akt, sondern ein systematischer und datenintensiver Prozess. Es geht darum, ein Modell durch unzählige Beispiele und winzige Korrekturen so lange zu formen, bis es die gewünschte Fähigkeit beherrscht.
Zu verstehen, dass eine KI auf diese Weise lernt, ist extrem wichtig. Es zeigt uns auch, warum die Qualität und die Vielfalt der Daten, mit denen wir sie füttern, so entscheidend sind. Aber das ist ein Thema für unseren nächsten Artikel.
Weiterführende Fragen
Lernt eine KI wie ChatGPT ständig weiter, während ich mit ihr spreche?
Nein, zumindest nicht bei den großen, öffentlichen Modellen. Das Training ist ein abgeschlossener, extrem aufwändiger Prozess. Deine Gespräche werden zwar (je nach deinen Datenschutzeinstellungen) zur zukünftigen Verbesserung neuerer Modelle genutzt, aber das aktuelle Modell, mit dem du sprichst, lernt nicht in Echtzeit von dir. Man kann dem Modell aber per Einstellungen und Eingaben bestimmte Verhaltensweisen "aufzwingen", etwa "Beginne deine Antworten immer mit 'Hallo'" oder "Formuliere deine Antworten als Gedicht". Diese übernimmt das Modell dann, "lernt" aber nichts daraus in dem Sinne.
Was passiert, wenn die Trainingsdaten schlecht oder voreingenommen sind?
Die KI lernt exakt das, was in den Daten steckt – mit allen Fehlern und Vorurteilen. Wurde eine KI zur Personalauswahl hauptsächlich mit Daten von männlichen Bewerbern trainiert, wird sie wahrscheinlich Männer bevorzugen. Dieses Problem nennt man "Bias" und es ist eine der größten Herausforderungen in der KI-Ethik.
Warum ist das Training von KI-Modellen so teuer und energieintensiv?
Weil der Lernzyklus milliardenfach mit riesigen Datenmengen auf tausenden von hochspezialisierten Computerchips (GPUs) durchgeführt werden muss. Dieser Prozess kann Wochen oder Monate dauern und verbraucht dabei so viel Strom wie eine kleine Stadt. Deshalb können nur große Unternehmen die riesigen Basismodelle wie GPT-4 trainieren.
Werden Machine Learning und Deep Learning gleich trainiert?
Im Prinzip ja, aber der Unterschied liegt im Detail und im Ausmaß.
Der grundlegende Lernzyklus – also eine Vorhersage machen, sie mit der Wahrheit vergleichen und sich dann anpassen – ist bei beiden gleich. Der Teufel steckt jedoch darin, wer lernt und wie er lernt:
- Komplexität des Modells: Klassisches Machine Learning nutzt oft einfachere mathematische Modelle. Deep Learning hingegen nutzt riesige, vielschichtige neuronale Netze (das "Team aus Taschenrechnern"), die viel komplexere Zusammenhänge lernen können.
- Umgang mit Daten: Beim klassischen Machine Learning musste ein Mensch oft die wichtigsten Merkmale aus den Daten vorab auswählen (z. B. bei einer Immobilie die Wohnfläche und die Zimmeranzahl). Deep Learning findet diese wichtigen Merkmale durch seine vielen Schichten von ganz allein heraus – es lernt selbst, dass "spitze Ohren" bei einer Katze wichtig sind, ohne dass man es ihm explizit sagen muss.
- Benötigte Datenmenge: Deep Learning benötigt für sein Training meistens extrem große Datenmengen (Millionen von Beispielen), um sein volles Potenzial zu entfalten. Einige klassische Machine-Learning-Methoden können auch mit deutlich weniger Daten gute Ergebnisse liefern.
Jetzt kostenlos abonnieren und immer auf dem Neuesten bleiben. 🚀