6 Min Lesedauer

Wem gehört die KI? Die Macht der großen Tech-Konzerne und die Rufe nach Regulierung

Wem gehört die KI wirklich? Dieser Artikel erklärt die Risiken der aktuellen Machtkonzentration und zeigt, wie der EU AI Act und die Open-Source-Bewegung versuchen, die Regeln für eine faire und demokratische KI-Zukunft zu schreiben.
Wem gehört die KI? Die Macht der großen Tech-Konzerne und die Rufe nach Regulierung
Nur eine Handvoll Tech-Unternehmen besitzen zusammen nahezu alle KI-Modelle, die wir heute nutzen | Quelle: Towfiqu Barbhuiya
💡
Das Wichtigste in Kürze:

Die mächtigste KI gehört einer Handvoll Tech-Konzerne. Unternehmen wie Google, Microsoft/OpenAI und Meta kontrollieren die KI-Entwicklung, da nur sie über die nötige Rechenleistung, die riesigen Datenmengen und das gebündelte Talent verfügen.

Regulierung ist die politische Antwort. Mit dem EU AI Act versucht Europa als Vorreiter, klare Regeln für den Einsatz von KI zu schaffen. Das Gesetz teilt KI in Risikoklassen ein, verbietet gefährliche Anwendungen und schreibt Transparenz vor.

Open Source ist die technische Gegenbewegung. Eine wachsende Zahl von frei verfügbaren KI-Modellen fördert Transparenz und Innovation und reduziert die Abhängigkeit von den großen "Gatekeepern".

Künstliche Intelligenz fühlt sich oft an wie eine unsichtbare, allgegenwärtige Kraft. Sie ist wie die Elektrizität oder das Internet – eine grundlegende Infrastruktur, die unser Leben immer stärker durchdringt. Wir nutzen sie, wir staunen über sie, wir fürchten uns manchmal vor ihr. Aber eine Frage stellen wir uns dabei viel zu selten: Wem gehört diese Infrastruktur eigentlich? Wer kontrolliert die Schalter?

Die Antwort ist ebenso einfach wie beunruhigend: Die grundlegenden, mächtigsten KI-Modelle, die heute die Welt verändern – die sogenannten Foundation Models –, befinden sich in den Händen einer Handvoll von Billionen-Dollar-Konzernen. Unternehmen wie Microsoft (mit seiner engen Partnerschaft mit OpenAI), Google (Alphabet)Meta und Amazon sind nicht nur die wichtigsten Spieler auf dem Feld. Ihnen gehört das Spielfeld, der Ball und die Tore.

🦾
Foundation Models (Grundlagenmodelle): Aufwendig trainierte KI-Modelle (wie GPT-4 oder Googles Gemini), die ein breites, allgemeines Verständnis von Sprache, Bildern und Logik besitzen. Sie dienen als "Fundament", auf dem unzählige kleinere, spezialisierte KI-Anwendungen (über APIs) aufgebaut werden können.

Diese massive Machtkonzentration wirft fundamentale Fragen für unsere Gesellschaft, unsere Wirtschaft und unsere Demokratie auf. Und sie ist der Grund, warum weltweit – und in Europa ganz besonders – die Rufe nach Regulierung immer lauter werden. In diesem Artikel beleuchten wir, warum diese Macht so konzentriert ist, welche Gefahren das birgt und wie die Gesellschaft versucht, die Kontrolle zurückzugewinnen.


Die drei Säulen der KI-Macht

Warum kann nicht einfach ein cleveres Startup in einer Garage das nächste ChatGPT bauen? Weil die Entwicklung von Foundation Models unvorstellbare Ressourcen erfordert, die sich in drei Säulen zusammenfassen lassen.

1. Die Säule der Rechenleistung (Compute)
Das Training eines großen Sprachmodells ist einer der rechenintensivsten Prozesse, die die Menschheit je unternommen hat. Es erfordert Zehntausende der leistungsstärksten Grafikkarten (GPUs) von Herstellern wie NVIDIA, die über Monate hinweg rund um die Uhr laufen. Die Kosten allein für die Rechenzeit und die Energie gehen in die Hunderte von Millionen oder sogar Milliarden von Dollar – pro Modell. Nur die größten Tech-Konzerne der Welt können sich den Bau und Betrieb dieser gigantischen "KI-Fabriken" leisten.

2. Die Säule der Daten
Wie wir wissen, ist KI nur so gut wie die Daten, mit denen sie trainiert wird. Und wer hat die größten und vielfältigsten Datensätze der Welt? Wieder dieselben Konzerne. Google hat das Wissen aus Milliarden von Suchanfragen und dem gesamten Internet. Meta hat die Daten aus den sozialen Interaktionen von Milliarden von Menschen auf Facebook und Instagram. Microsoft hat die Daten aus seinem Cloud-Dienst Azure und seiner Suchmaschine Bing. Diese exklusiven, über Jahrzehnte angesammelten Datenschätze sind ein uneinholbarer Wettbewerbsvorteil.

3. Die Säule des Talents
Die besten KI-Forscher und -Entwickler der Welt sind eine rare und begehrte Ressource. Die großen Tech-Konzerne können Gehälter zahlen und eine Forschungsinfrastruktur bieten, mit der Universitäten und kleinere Unternehmen nicht konkurrieren können. Das führt zu einem "Brain Drain", bei dem das weltweit führende Talent in einer Handvoll von Unternehmen konzentriert wird.

Diese drei Säulen – Rechenleistung, Daten und Talent – bilden eine fast unüberwindbare Eintrittsbarriere. Sie haben dazu geführt, dass eine der wichtigsten Technologien unserer Zeit von einer kleinen Gruppe von Akteuren aus dem Silicon Valley kontrolliert wird.


Die Risiken der Machtkonzentration

Warum ist es ein Problem, wenn so wenige Unternehmen so viel Kontrolle haben?

  • Wirtschaftliche Abhängigkeit: Kleinere Unternehmen, die innovative KI-Anwendungen entwickeln, sind oft vollständig von den APIs der großen Anbieter abhängig. Der "Besitzer" des Foundation Models kann jederzeit die Preise erhöhen, die Nutzungsbedingungen ändern oder einem Konkurrenten den Zugang sperren. Er wird zum ultimativen Gatekeeper (Torwächter) der KI-Wirtschaft.
🦾
Gatekeeper (Torwächter): Ein Unternehmen, das eine so dominante Marktposition hat, dass es den Zugang zu einer wichtigen Ressource oder einem Markt kontrollieren kann. Im KI-Kontext kontrollieren die Besitzer der Foundation Models den Zugang zur KI-Technologie selbst.
  • Kulturelle Dominanz: Die Werte, die Ethik und die unbewussten Vorurteile (der Bias) der Entwicklerteams aus einer einzigen Kultur (überwiegend der US-amerikanischen Westküste) werden direkt in die Modelle eincodiert. Diese Modelle prägen dann, wie weltweit Informationen zusammengefasst, Texte übersetzt und Bilder generiert werden. Das birgt die Gefahr einer globalen, kulturellen Monokultur.
  • Mangelnde demokratische Kontrolle: Die Entscheidungen, die diese Modelle treffen, haben immense gesellschaftliche Auswirkungen. Welche Inhalte werden zensiert? Welche politischen Meinungen werden als "Standard" und welche als "extrem" eingestuft? Diese Entscheidungen werden heute intransparent in den Vorstandsetagen von Unternehmen getroffen, ohne öffentliche Debatte oder demokratische Legitimation.

Der Ruf nach Regeln – Der EU AI Act als Vorreiter

Als Antwort auf diese Risiken hat die Europäische Union einen weltweit einzigartigen und wegweisenden Schritt unternommen: den EU AI Act. Es ist der erste umfassende Versuch, den Einsatz von Künstlicher Intelligenz gesetzlich zu regeln. Das Ziel ist nicht, Innovation zu bremsen, sondern Leitplanken zu errichten, um die Grundrechte der Bürger zu schützen.

Der zentrale Ansatz des AI Acts ist ein risikobasierter Ansatz. KI-Anwendungen werden nicht alle gleich behandelt, sondern in Risikoklassen eingeteilt:

  1. Inakzeptables Risiko (Verboten): Hierunter fallen KI-Systeme, die eine klare Bedrohung für die Grundrechte darstellen. Dazu gehören zum Beispiel Social Scoring-Systeme durch Regierungen, die das Verhalten von Bürgern bewerten, oder KI, die unterschwellige Manipulation einsetzt. Diese Systeme werden in der EU verboten.
  2. Hohes Risiko (Streng reguliert): Das ist die wichtigste Kategorie. Hierunter fallen KI-Systeme, die in kritischen Bereichen eingesetzt werden, wie z.B. bei der Bewerberauswahl, der Kreditvergabe, in der medizinischen Diagnostik oder bei der Strafverfolgung. Diese Systeme sind nicht verboten, müssen aber extrem strenge Anforderungen erfüllen: hohe Datenqualität, menschliche Aufsicht, Transparenz und robuste Sicherheitsvorkehrungen sind Pflicht.
  3. Begrenztes Risiko (Transparenzpflicht): Hierunter fallen die meisten KI-Systeme, mit denen wir täglich interagieren, wie zum Beispiel Chatbots oder Deepfakes. Die wichtigste Regel hier ist die Transparenz. Du als Nutzer musst klar und deutlich darauf hingewiesen werden, dass Du mit einer KI interagierst oder dass ein Bild künstlich erzeugt wurde.
  4. Minimales Risiko: Für KI-Anwendungen mit minimalem Risiko (wie z.B. Spam-Filter oder KI in Videospielen) gibt es keine speziellen Auflagen.

Der EU AI Act ist ein Versuch, einen demokratischen Rahmen für eine mächtige Technologie zu schaffen. Er setzt einen globalen Standard und zwingt Unternehmen weltweit, sich mit den ethischen Folgen ihrer Produkte auseinanderzusetzen, wenn sie auf dem europäischen Markt aktiv sein wollen.


Ein Hoffnungsschimmer? Die Open-Source-Bewegung

Neben der Regulierung gibt es eine weitere starke Gegenbewegung zur Macht der Tech-Giganten: die Open-Source-KI. Das Prinzip von Open Source ist, dass der "Bauplan" eines Software-Produkts – der Quellcode – öffentlich zugänglich gemacht wird. Jeder kann ihn einsehen, nutzen, verändern und weiterverbreiten.

  • Offene Modelle: Überraschenderweise hat ausgerechnet Meta mit seinen Llama-Modellen eine Welle von leistungsstarken Open-Source-LLMs losgetreten. Auch andere Initiativen aus Europa und den USA oder auch China ziehen nach.
  • Geteilte Infrastruktur: Plattformen wie Hugging Face haben sich zum "GitHub der KI" entwickelt. Sie sind ein riesiger, offener Hub, auf dem Forscher und Entwickler aus aller Welt Tausende von KI-Modellen und Datensätzen teilen und gemeinsam daran arbeiten.

Die Vorteile sind klar: Open Source fördert Transparenz (jeder kann den Code prüfen), beschleunigt Innovation (man muss das Rad nicht immer neu erfinden) und reduziert die Abhängigkeit von den großen Gatekeepern.

Die Risiken sind aber auch real: Wer ist verantwortlich, wenn ein frei verfügbares, unzensiertes Open-Source-Modell für die Erstellung von Desinformation oder schädlichen Inhalten missbraucht wird? Die Debatte zwischen Sicherheit durch Kontrolle (geschlossene Modelle) und Sicherheit durch Transparenz (offene Modelle) ist in vollem Gange.


Fazit: Eine Frage der Gestaltung

"Wem gehört die KI?" ist vielleicht die wichtigste Frage unserer Zeit. Aktuell lautet die Antwort: Einer Handvoll von Konzernen. Doch das ist kein Naturgesetz. Die Zukunft der KI ist kein rein technologischer Pfad, sondern ein gesellschaftlicher Gestaltungsraum.

Durch mutige Regulierung wie den EU AI Act und eine lebendige Open-Source-Bewegung entstehen gerade zwei mächtige Werkzeuge, um die Macht neu zu verteilen und sicherzustellen, dass diese revolutionäre Technologie im Dienste der gesamten Gesellschaft steht und nicht nur den Interessen einiger weniger. Die kommenden Jahre werden entscheiden, welchen Weg wir als globale Gemeinschaft einschlagen. Es liegt an uns allen, diese Debatte zu fordern und mitzugestalten.


Weiterführende Fragen

Wird der EU AI Act die KI-Innovation in Europa ausbremsen?

Das ist die zentrale Sorge der Kritiker. Befürworter argumentieren jedoch, dass klare Regeln und Vertrauen die Grundlage für eine nachhaltige und gesellschaftlich akzeptierte KI-Wirtschaft sind. Indem der AI Act einen "Gütesiegel"-Standard für vertrauenswürdige KI schafft, könnte er sogar zu einem Wettbewerbsvorteil für europäische Unternehmen werden.

Warum veröffentlichen Konzerne wie Meta ihre KI-Modelle als Open Source, wenn sie damit Geld verdienen könnten?

Dafür gibt es strategische Gründe. Indem Meta die Open-Source-Community stärkt, schwächt es die dominante Marktposition seiner direkten Konkurrenten wie OpenAI und Google. Zudem profitiert Meta selbst von den unzähligen Verbesserungen und neuen Anwendungen, die eine globale Community auf Basis ihrer Modelle entwickelt.

Werden die USA und China ähnliche Gesetze wie den EU AI Act erlassen?

Das ist unwahrscheinlich, zumindest nicht in derselben Form. Die USA setzen traditionell eher auf Selbstregulierung der Industrie und auf gezielte Gesetze für spezifische Sektoren. China hingegen nutzt KI auch als Instrument staatlicher Kontrolle und hat daher ein völlig anderes Interesse an Regulierung. Der EU AI Act wird aber durch seine Marktmacht (Unternehmen, die in der EU verkaufen wollen, müssen sich an die Regeln halten) eine globale Wirkung entfalten.

Melde Dich für den Newsletter an. 📧

Jetzt kostenlos abonnieren und immer auf dem Neuesten bleiben. 🚀