1. Überschrift & Einstieg
Dass ein Chatbot dabei hilft zu formulieren, wie oft Flugzeuge gewartet werden oder wie Gaspipelines überwacht werden, sollte uns alle alarmieren. Genau in diese Richtung bewegt sich das US-Verkehrsministerium (DOT), das laut Recherchen von ProPublica und Ars Technica Googles Gemini zum Entwurf von Sicherheitsvorschriften einsetzt. Entscheidend ist dabei nicht Perfektion, sondern Tempo – „gut genug“ statt gründlich.
Dieser Fall ist mehr als eine US-Kuriosität. Er ist ein erster Härtetest für eine viel größere Frage: Wird der Staat die Ausarbeitung von Regeln an kommerzielle KI-Modelle delegieren – und was bedeutet das für Sicherheit, Rechtsstaatlichkeit und Vertrauen, auch in Europa?
2. Die Nachricht in Kürze
Wie ProPublica berichtet und Ars Technica detailliert aufarbeitet, nutzt das US-Verkehrsministerium den KI-Dienst Google Gemini, um Entwürfe für Bundesvorschriften im Bereich Luftfahrt, Straßenverkehr und Pipeline-Sicherheit zu erstellen.
Interne Protokolle, auf die sich die Berichte stützen, zeigen: Die Leitung des Ministeriums will das zeitaufwendige Verfassen von Regelungstexten drastisch beschleunigen. Entwürfe, die bislang Wochen oder Monate dauerten, sollen innerhalb von 30 Tagen stehen; Gemini liefere erste Textfassungen in unter 30 Minuten. Der Chefjurist des DOT machte demnach deutlich, dass es nicht um perfekte, sondern um ausreichend brauchbare Regeltexte gehe, um das Verfahren voranzutreiben.
Mehrere Beschäftigte äußerten anonym erhebliche Zweifel, ob ein allgemeiner Chatbot der Aufgabe gewachsen ist. Sie verweisen auf die hohe Komplexität von Sicherheitsregulierung und auf bekannte Halluzinationen großer Sprachmodelle – etwa in Gerichtsverfahren, in denen Anwaltskanzleien bereits für erfundene Zitate sanktioniert wurden. Laut ProPublica kam Gemini bereits bei mindestens einem noch unveröffentlichten Entwurf der Luftfahrtbehörde FAA zum Einsatz. Google wiederum bewirbt die Zusammenarbeit als Vorzeigeprojekt der digitalen Transformation der Verwaltung.
3. Warum das wichtig ist
Im Bereich Verkehrssicherheit ist „gut genug“ ein gefährliches Leitbild. Ein schlampiger Online-Regeltext führt zu nervigen Cookie-Bannern; ein schlampig formulierter Luftfahrtsicherheitsstandard kann zu Toten führen. Regulatorische Texte sind die letzte Verteidigungslinie zwischen hochkomplexen technischen Systemen und Menschenleben. Wer diese Texte als austauschbare Füllmasse behandelt, hat das Grundprinzip von Sicherheitsregulierung nicht verstanden.
Wer profitiert? Kurzfristig die Führung des DOT und die Trump-Administration, die einen schlagzeilenträchtigen Modernisierungserfolg vorweisen können: eine Behörde, die plötzlich schnell und „innovationsfreundlich“ wirkt. Google gewinnt noch mehr: Referenzen dafür, dass sein Modell im Kern staatlicher Entscheidungsprozesse eingesetzt werden kann. Wenn das DOT ernsthaft davon spricht, 80–90 Prozent der Entwurfsarbeit an Gemini auszulagern, rücken alle anderen Behörden als potenzielle Kunden in den Fokus.
Die Verliererseite ist breiter. Zunächst die Öffentlichkeit, die nicht nachvollziehen kann, welche Absätze lebenswichtiger Vorschriften direkt oder indirekt von einem proprietären Modell formuliert wurden, dessen Trainingsdaten und Fehlerprofile unbekannt sind. Dann die Fachbeamtinnen und -beamten, deren Rolle von inhaltlicher Autorenschaft zu nachträglicher „KI-Kontrolle“ degradiert wird. Das schwächt genau das institutionelle Wissen, das wir in Krisenfällen dringend brauchen.
Hinzu kommt der Vertrauensschaden. Selbst wenn kein einziger KI-gestützter Paragraph gravierende fachliche Fehler enthielte: Allein die Vorstellung, dass der normative Rahmen für Flug- oder Pipelinesicherheit überwiegend von einem Chatbot stammt, untergräbt die Legitimität der Regulierung – insbesondere in einem ohnehin polarisieren Umfeld.
4. Der größere Kontext
DOTs Vorstoß kommt zu einem Zeitpunkt, an dem generative KI das Rechtssystem bereits mehrfach blamiert hat. In den USA und anderswo wurden Anwälte sanktioniert, weil sie Schriftsätze mit frei erfundenen Urteilen einreichten, die ihnen ein Chatbot geliefert hatte. Richter gaben offen zu, dass sie sich von vermeintlich plausiblen, aber falschen Texten täuschen lassen können. Die Lektion: Sprachmodelle sind Meister der Rhetorik, aber keine verlässlichen Wissenssysteme.
Gleichzeitig läuft weltweit ein Wettrennen darum, KI in der Verwaltung zu nutzen – von der automatischen Beantwortung von Bürgeranfragen bis zur Zusammenfassung interner Aktenvermerke. Das meiste davon ist relativ risikoarm. Der Schritt des DOT ist qualitativ anders: Er verschiebt KI in den Kernbereich staatlicher Machtausübung, die Normsetzung.
Parallelen lassen sich zur Finanzkrise 2008 ziehen. Damals verließen sich Banken und Aufsichtsbehörden blind auf komplexe Risikomodelle, die Risiken systematisch unterschätzten. Die Modelle waren nicht per se „böse“; das Problem war die institutionalisierte Überschätzung ihrer Aussagekraft. Heute droht eine Wiederholung: Ein neues, schwer durchschaubares Werkzeug wird in einen Bereich getragen, in dem Fehler enorme gesellschaftliche Folgekosten haben.
Zum Vergleich: Software, die direkt in Flugsteuerungssystemen oder Atomkraftwerken läuft, unterliegt strengsten Zertifizierungs- und Testregimen, inklusive unabhängiger Audits und formaler Nachweise. Dass nun ausgerechnet die Regeln für solche Systeme teilweise von einem generischen Textgenerator stammen sollen, ohne annähernd vergleichbare Qualitäts- und Haftungsmechanismen, wirkt aus europäischer Sicht fahrlässig.
5. Die europäische / DACH-Perspektive
Europäische Leserinnen und Leser sollten sich nicht in Sicherheit wiegen. US-Verkehrsregeln wirken faktisch global. Airlines, Hersteller und Logistikunternehmen aus der EU orientieren sich an FAA-Standards, wenn sie den US-Markt bedienen oder internationale Zertifizierungen anstreben. Wenn diese Standards durch die Eigenheiten eines einzelnen KI-Modells geprägt werden, betrifft das auch Passagiere in Frankfurt, Zürich oder Wien.
Zugleich ist absehbar, dass der politische Spin aus Washington – „moderne Regulierer setzen aggressiv auf KI“ – auch in Europa Anhänger finden wird, nicht zuletzt in Haushaltsdebatten. Der Unterschied: Die EU verfügt mit DSGVO, Digital Services Act, Data Act und dem in Vorbereitung befindlichen AI Act über einen Rahmen, der Transparenz, Erklärbarkeit und menschliche Verantwortung ausdrücklich einfordert. Eine europäische Verkehrsbehörde, die 80 Prozent ihrer Entwurfsarbeit an ein US-Modell auslagert, hätte nicht nur ein Datenschutz-, sondern auch ein Begründungsproblem gegenüber Gerichten.
Für die DACH-Region ist der Fall ein Weckruf. In Deutschland, Österreich und der Schweiz laufen bereits zahlreiche Pilotprojekte zum Einsatz generativer KI in Ministerien und Verwaltungen – bislang überwiegend für interne Texte. Der Schritt zur Nutzung bei Verordnungen oder technischen Richtlinien ist kleiner, als man denkt. Wenn Regierungen diesen Schritt gehen wollen, brauchen sie vorher klare Leitplanken: von der Verpflichtung zur Dokumentation jedes KI-Einsatzes bis hin zu verpflichtenden technischen und rechtlichen Audits.
6. Ausblick
Wie geht es weiter? In den USA ist mit gerichtlichen Auseinandersetzungen zu rechnen. Spätestens wenn ein sicherheitsrelevanter Zwischenfall mit einem von Gemini mitverfassten Regeltext in Verbindung gebracht wird, werden Gerichte klären müssen, ob die Behörde ihre Sorgfaltspflichten verletzt hat. Das kann schnell dazu führen, dass Dokumentations- und Offenlegungspflichten für KI-Einsatz im Verwaltungsverfahren entstehen – de facto ein neues Transparenzregime.
Politisch hängt viel vom Ausgang dieses Experiments ab. Erfolgt über Jahre kein sichtbarer Schaden, könnten andere Länder und Organisationen dem Beispiel folgen – nicht unbedingt aus Überzeugung, sondern aus Spardruck. Kommt es zu einem spektakulären Fehlschlag, droht ein regulatorischer Backlash, der generative KI aus sensiblen Bereichen auf Jahre hinaus verbannt.
Die großen Anbieter werden darauf reagieren, indem sie „Government Editions“ ihrer Modelle mit Protokollierung, eingeschränkten Trainingsdaten und Domänen-Tuning anbieten. Doch diese technischen Ergänzungen beantworten nicht die Kernfrage: Wer trägt letztlich Verantwortung für das, was die Maschine schreibt? Ohne eine klare Zuweisung – politisch, rechtlich und organisatorisch – bleibt die schöne neue Effizienzwelt auf tönernen Füßen.
Für Bürgerinnen und Bürger in Europa bleiben drei Prüfsteine zentral:
- Werden Behörden offenlegen, wann und wofür sie KI beim Verfassen von Rechtsnormen einsetzen?
- Wird es unabhängige Prüfstellen geben, die KI-generierte Regeltexte auf Fehler und Verzerrungen untersuchen?
- Wird der Gesetzgebungsprozess so angepasst, dass Prompting, Zwischenergebnisse und menschliche Eingriffe nachvollziehbar dokumentiert werden?
Ohne solche Vorkehrungen bewegen wir uns in Richtung einer „Black-Box-Gesetzgebung“, in der niemand genau sagen kann, wem wir unsere Sicherheitsregeln verdanken.
7. Fazit
Die Entscheidung des US-Verkehrsministeriums, große Teile sicherheitskritischer Regulierungstexte von einem generischen Chatbot entwerfen zu lassen, tauscht überschaubare Effizienzgewinne gegen schwer kalkulierbare Vertrauens- und Sicherheitsrisiken. Wer es ernst meint mit Innovation und Sicherheit, muss KI als Werkzeug begreifen, das transparent und überprüfbar im Dienst verantwortlicher Menschen steht – nicht als unsichtbaren Co-Gesetzgeber. Die offene Frage ist, ob Politik und Öffentlichkeit in den USA und in Europa diese Grenze rechtzeitig einziehen – oder erst nach dem ersten großen KI-bedingten Regulierungsversagen.



