Überschrift und Einstieg
Die Debatte über künstliche Intelligenz dreht sich immer weniger um Parameterzahlen und Benchmarks – und immer mehr um eine unbequemere Frage: Wem vertrauen wir eigentlich die Steuerung dieser Systeme an?
Ein monumentales Sam‑Altman‑Porträt im New Yorker und eine bissige Analyse bei Ars Technica zeichnen das Bild eines Mannes, den frühere Weggefährten als äußerst machtorientiert und locker im Umgang mit der Wahrheit beschreiben. Das wäre nur mäßig interessant, wenn er nicht faktisch einer der wichtigsten Gatekeeper für KI‑Infrastruktur weltweit wäre. In diesem Artikel geht es deshalb nicht darum, den New‑Yorker‑Text nachzuerzählen, sondern darum, was dieser Fall über das Geschäftsmodell der gesamten Branche aussagt – und warum das für die DACH‑Region besonders relevant ist.
Die Nachricht in Kürze
Laut Ars Technica zeichnet ein neues, rund 16.000 Wörter langes Profil von Sam Altman im Magazin The New Yorker ein deutlich kritisches Bild des OpenAI‑Chefs. Die Autoren Ronan Farrow und Andrew Marantz haben mit mehr als 100 Personen aus seinem Umfeld gesprochen.
Wie Ars Technica zusammenfasst, schildern mehrere Quellen Altman als jemanden, der Absprachen uminterpretiert, Vereinbarungen nachträglich verhandelt und Ziele, Visionen und bereits Erreichtes bewusst verschwimmen lässt. Ehemalige Vorstände und Mitarbeiter stellen demnach seine Aufrichtigkeit offen infrage; einzelne sprechen sogar von soziopathischen Zügen. Microsoft‑Manager berichten laut Artikel von einem zunehmend belasteten Verhältnis, obwohl der Konzern Milliarden in OpenAI investiert hat.
Parallel verweist Ars Technica auf Altmans eigene Blogtexte, in denen er eine fast grenzenlos optimistische Zukunft mit selbstreplizierenden Robotern und rasant wachsendem Wohlstand entwirft – gesellschaftliche Risiken oder Machtkonzentration spielen darin nur eine Nebenrolle.
Warum das wichtig ist
Zyniker könnten sagen: »Charismatischer US‑Gründer überschätzt sich selbst und nimmt es mit Fakten nicht so genau« – kennen wir doch. Doch diesmal geht es nicht um eine Social‑Media‑App, sondern um Basistechnologie, die immer tiefer in Wirtschaft und Staat eindringt.
Große Sprachmodelle von OpenAI stecken inzwischen in Microsoft 365, im Windows‑Betriebssystem, in Entwicklerwerkzeugen und Wissensdatenbanken. Wenn eine solche Firma von einer Person geführt wird, die laut zahlreichen engen Kontakten bereit ist, Wahrheit und Narrativ den eigenen Machtinteressen unterzuordnen, dann haben wir kein Image‑, sondern ein Governance‑Problem.
Die KI‑Debatte fragt seit Jahren: Wie richten wir mächtige Modelle an menschlichen Werten aus? Der Altman‑Fall dreht die Frage um: Wie richten wir die Menschen aus, die über Entwicklung, Sicherheit und Einsatz dieser Modelle entscheiden? Solange die ökonomischen Anreize darin bestehen, möglichst schnell möglichst viel Marktanteil zu sichern, werden diejenigen belohnt, die Risiken kleinreden und Regulierer mit Heilsversprechen einlullen.
Profiteure des aktuellen Systems sind klar: Gründer, Frühinvestoren und Cloud‑Plattformen wie Microsoft oder Google, die enorme Macht über Daten, Rechenressourcen und Schnittstellen gewinnen. Verlierer sind kleinere Unternehmen, die diese Black‑Box‑Modelle als quasineutrale Infrastruktur nutzen müssen, ohne Kontrolle über Trainingsdaten oder Roadmap. Verlierer sind auch Bürgerinnen und Bürger, deren Daten ungefragt zum Training verwendet wurden, sowie öffentliche Institutionen, die sich in eine Abhängigkeit von Anbietern begeben, deren Führung sie nicht gewählt haben.
Die unmittelbare Folge ist ein sich vertiefender Vertrauensverlust – nicht in KI als Technik an sich, sondern in die Art und Weise, wie sie von einigen wenigen Akteuren durchgesetzt wird.
Der größere Kontext
Altman fügt sich nahtlos in ein bekanntes Muster der Tech‑Geschichte ein. Elon Musk, der zwischen Raketen, Elektroautos, Hyperloop‑Fantasien und der Demontage von Twitter/X pendelt, inszeniert sich ebenfalls als Retter der Zivilisation – und relativiert zugleich Regulierung und demokratische Prozesse. Mark Zuckerberg hat nach dem gescheiterten Metaverse‑Wetteinsatz Meta kurzerhand zur »AI‑Company« erklärt. Investoren wie Marc Andreessen veröffentlichen Manifeste, in denen Technologie nahezu ausschließlich als Heilsbringer erscheint.
Historisch ist das nichts Neues. Die USA hatten ihre Eisenbahn‑ und Ölbarone, Europa seine Industriekapitäne. Jeder Technologieschub wurde von Figuren begleitet, die Fortschritt rhetorisch mit persönlicher Machtsteigerung verknüpften. Der Unterschied heute: KI‑Systeme greifen nicht nur in Logistik oder Energieversorgung ein, sondern strukturieren Informationsflüsse, Arbeit und Kreativität – und das global in Echtzeit.
OpenAI selbst hat 2023 bereits einen Governance‑Stresstest erlebt: Ein Non‑Profit‑Board versuchte, Altman abzusetzen, um kurz darauf unter massivem Druck von Mitarbeiter:innen und Investoren umgebaut zu werden. Das war ein deutliches Signal, wie wenig robust »ethische« Strukturen sind, wenn sie mit dreistelligen Milliardenbewertungen kollidieren.
Auch andere Labore stehen unter demselben Druck. Google DeepMind ringt mit der Konzernlogik von Alphabet, Anthropic präsentiert sich als sicherheitsbewusste Alternative, ist aber ebenso auf Wachstumskapital und Cloud‑Deals angewiesen. Selbst im Open‑Source‑Segment werden Modelle zunehmend von großen Playern mitdefiniert. Persönlichkeiten wie Altman sind also keine Ausrutscher, sondern die logische Folge eines Systems, das Narrative stärker belohnt als nüchterne Infrastrukturarbeit.
Die europäische und DACH‑Perspektive
Für Europa und speziell die DACH‑Region ist das ambivalent. Einerseits profitieren deutsche, österreichische und Schweizer Unternehmen massiv von schnell verfügbaren KI‑Diensten aus den USA. Copiloten helfen beim Programmieren, beim Schreiben von E‑Mails, beim Analysieren von Dokumenten – produktivitätsseitig ist das attraktiv.
Andererseits sind Deutschland, Österreich und die Schweiz besonders sensibel, was Datenschutz, Machtkonzentration und die Rolle von Plattformen angeht. Die DSGVO hat weltweit Maßstäbe gesetzt, die Öffentlichkeit diskutiert kritisch über TikTok, Meta & Co. Genau in diese Kultur platzt nun die Erkenntnis, dass zentrale KI‑Infrastruktur maßgeblich von Personen geprägt wird, deren Werteverständnis und Ehrlichkeitsbegriff sich deutlich von hiesigen Erwartungen unterscheiden.
Die EU versucht mit dem AI Act, dem Digital Services Act (DSA) und dem Digital Markets Act (DMA) genau diese Asymmetrie zu korrigieren: Hochrisiko‑KI soll verpflichtend transparent, prüfbar und menschlich überwachbar sein – unabhängig davon, wie sehr sich ein CEO als wohlmeinender Visionär inszeniert.
Parallel entstehen europäische Alternativen. Aleph Alpha in Heidelberg positioniert sich explizit als vertrauenswürdiger, europäischer KI‑Anbieter; französische Firmen wie Mistral setzen auf offenere Modelle. In Berlin, München und Zürich entstehen Ökosysteme um Open‑Source‑Modelle, die On‑Premise laufen können – ein wichtiger Punkt für Behörden, Krankenhäuser oder Banken.
Für Nutzer:innen und Unternehmen in der DACH‑Region stellt sich damit eine strategische Frage: Setzen wir aus Bequemlichkeit auf proprietäre US‑Modelle und akzeptieren die damit verbundene Abhängigkeit von deren Führungspersonal? Oder investieren wir bewusst in europäische Alternativen und in Governance‑Strukturen, die stärker unserem Rechts- und Werteverständnis entsprechen?
Ausblick
Ein unmittelbarer Absturz von OpenAI oder Sam Altman ist wenig wahrscheinlich. Die Produkte sind nützlich, die Verflechtung mit Microsoft ist tief, und der Markt hat ein kurzes Gedächtnis. Trotzdem markiert der New‑Yorker‑Bericht einen Wendepunkt: Die Persönlichkeit des Gründers wird selbst zum Risiko‑Faktor, den Regulierer, Kunden und Partner nicht länger ignorieren können.
Wir werden vermutlich eine stärkere Fokussierung auf Unternehmensführung und Rechenschaftspflichten sehen. Die Diskussion wird sich wegbewegen von reinen Output‑Themen (Bias, Halluzinationen) hin zu Fragen wie: Wer entscheidet, wann ein Modell ausgeliefert wird? Welche unabhängigen Gremien haben Einsicht in Trainingsdaten und Evaluierungen? Wie sind Safety‑Teams organisatorisch geschützt?
Für Unternehmen und Behörden bedeutet das: Bei KI‑Beschaffungen müssen sie dieselbe Sorgfalt walten lassen wie bei kritischer IT‑Infrastruktur. Es reicht nicht, auf Demo‑Shows und Hochglanz‑Whitepaper hereinzufallen. Gefragt sind Vertragsklauseln zu Audit‑Rechten, Datenportabilität, Exit‑Strategien und klaren Haftungsregeln.
Technologisch dürfte der Trend zu offenen, lokal betreibbaren Modellen anhalten. Die Kombination aus Datenschutzauflagen, Industriespionage‑Sorgen und wachsender Skepsis gegenüber »KI‑Overlords« spielt Anbietern wie Aleph Alpha, Open‑Source‑Communities und Konsortien wie GAIA‑X in die Karten. Staatliche Förderprogramme in Deutschland und der EU könnten diesen Trend verstärken.
Offen bleibt, ob sich langfristig ein eher »langweiliges« Infrastruktur‑Paradigma durchsetzt – mit stärker regulierten, weniger personenzentrierten Akteuren – oder ob das Silicon‑Valley‑Modell der charismatischen Alleskönner noch eine Weile dominiert. Davon hängt ab, wie viel Last künftig Regulierung und Gerichte tragen müssen.
Fazit
Das Problem ist nicht nur, dass Sam Altman persönlich Zweifel an seiner Vertrauenswürdigkeit weckt. Das Problem ist, dass zentrale KI‑Infrastruktur so gebaut ist, dass genau solche Charaktere darin aufsteigen und kaum gebremst werden. Für Europa und die DACH‑Region ergibt sich daraus ein klarer Auftrag: nicht nur zu kritisieren, sondern bewusst in alternative Modelle, Anbieter und Governance‑Strukturen zu investieren – und bei jeder neuen »magischen« KI‑Lösung zu fragen: Würden wir dieser Führung auch ein Kraftwerk oder ein Schienennetz anvertrauen?



