Flapping Airplanes: Warum ein 180-Millionen-Dollar-Labor die KI-Skalierungsreligion infrage stellt

29. Januar 2026
5 Min. Lesezeit
Forschende in einem KI-Labor vor Serverracks und Bildschirmen mit Datenvisualisierungen

Flapping Airplanes: Warum ein 180-Millionen-Dollar-Labor die KI-Skalierungsreligion infrage stellt

Die KI-Branche verhält sich seit Jahren, als wäre die Lösung jedes Problems: mehr Daten, mehr GPUs, größere Rechenzentren. Das neue Labor Flapping Airplanes setzt 180 Millionen Dollar dagegen, dass diese Logik an ihre Grenzen stößt. Die Gründer wollen Wege finden, große Modelle mit deutlich weniger Daten und Rechenleistung zu trainieren – ein klarer Bruch mit der vorherrschenden „skalieren um jeden Preis“-Strategie. Im Folgenden ordnen wir ein, was hinter dieser Wette steckt, welche Machtverhältnisse sie verändert und warum der Ansatz gerade im datenschutzsensiblen DACH‑Raum interessant ist.

Die Nachricht in Kürze

Laut einem Bericht von TechCrunch ist am Mittwoch das neue KI-Forschungslabor Flapping Airplanes gestartet – ausgestattet mit einem Seed-Investment von beeindruckenden 180 Millionen US‑Dollar. Zu den Geldgebern zählen Google Ventures, Sequoia Capital und Index Ventures, also einige der renommiertesten Wagniskapitalgeber aus dem Silicon Valley. Die Gründertruppe wird als außergewöhnlich stark beschrieben, Namen und genaue Profile sind bisher aber kaum öffentlich.

Das Labor verfolgt explizit das Ziel, Lernverfahren für große Modelle zu entwickeln, die weit weniger datenhungrig sind und ohne extreme Compute‑Budgets auskommen. In einem Beitrag von Sequoia‑Partner David Cahn, auf den sich TechCrunch bezieht, wird Flapping Airplanes als Beispiel für eine „forschungsgetriebene“ statt „compute‑getriebene“ KI-Strategie eingeordnet: nicht der größte GPU‑Cluster steht im Mittelpunkt, sondern langfristige Forschungsprojekte mit fünf‑ bis zehnjährigem Horizont.

TechCrunch stuft die Initiative dementsprechend eher niedrig auf der „Wie schnell wollen sie Geld verdienen?“-Skala ein – näher an DeepMind oder klassischen Industrieforschungslaboren als an einem typischen SaaS‑Startup.

Warum das wichtig ist

Flapping Airplanes ist weniger wegen seiner aktuellen Produkte interessant – die gibt es noch gar nicht – als wegen der impliziten Kampfansage an das bisherige Erfolgsrezept der Branche.

Die heutige Doktrin lautet: Größere Modelle + mehr Daten + mehr Compute = bessere KI. Dieses Rezept hat OpenAI, Anthropic, Google und Meta nach vorne katapultiert, ist aber extrem kapital‑, energie‑ und infrastrukturintensiv.

Ein Labor, das explizit darauf setzt, diese Gleichung zu verändern, verschiebt die Machtbalance:

  • Profiteure könnten kleinere Akteure sein – Startups, Universitäten, öffentliche Forschung –, die mit begrenzten Mitteln arbeiten, aber starke Algorithmen entwickeln können. Wenn Daten‑ und Compute‑Effizienz wichtiger werden als reine Cluster‑Größe, sinkt der Eintrittspreis.
  • Auch klassische Industrieunternehmen gewinnen: Mittelständler in Maschinenbau, Chemie oder Automotive können sich selten eigene Hyperscale‑Cluster leisten. Effiziente Modelle, die mit domänenspezifischen Daten auskommen, machen ernsthafte KI‑Nutzung realistischer.
  • Regulierer und Gesellschaft profitieren, wenn KI nicht zwingend auf massiver Datensammlung und enormem Stromverbrauch basiert. Das verringert Konflikte mit Datenschutz, Energiemärkten und Akzeptanz in der Bevölkerung.

Verlierer könnten diejenigen sein, deren Geschäftsmodell stark auf dem Skalierungsvorsprung beruht:

  • Hyperscaler, die überproportional davon profitieren, dass jedes neue Modell noch einmal eine Größenordnung mehr Compute braucht.
  • GPU‑Hersteller, deren Umsatzprognosen implizit davon ausgehen, dass der Pfad zu „besserer KI“ ausschließlich über mehr Hardware führt.

Kurzfristig ändert sich dadurch nichts an der Marktmacht der großen US‑Player. Mittel‑ bis langfristig sendet dieser Deal aber ein klares Signal: Die Zeit, in der „nur skalieren“ als einzige ernsthafte Strategie galt, ist vorbei.

Der größere Kontext

Historisch betrachtet enden Phasen des reinen „Brute Force“-Wettbewerbs selten so, wie sie begonnen haben. In der Computerarchitektur war es zunächst Taktfrequenz‑Wettrüsten, dann dominierten architektonische Innovationen. In der Telekommunikation galt lange „mehr Bandbreite“ als magische Lösung – bis Protokolle, Kompression und intelligente Netze wichtiger wurden.

In der KI erleben wir eine ähnliche Dynamik. Die letzten Jahre waren vom „Scaling Law“-Narrativ geprägt: Je größer das Modell und je mehr Daten, desto besser die Performance – zumindest auf Benchmark‑Skalen. Doch parallel dazu gab es kontinuierlich Fortschritte bei:

  • Architekturdesign (z. B. spezialisierte Attention‑Varianten, Mixture‑of‑Experts‑Ansätze),
  • Trainingsstrategien (Curriculum Learning, aktives Lernen, bessere Optimierer),
  • Datenkuratierung (hochwertigere, statt nur mehr Daten).

Diese algorithmischen Fortschritte haben den rechnerischen Aufwand pro Leistungszuwachs bereits deutlich reduziert – wurden aber im öffentlichen Diskurs von „Modell X hat jetzt Y Billionen Parameter“ übertönt.

Flapping Airplanes institutionalisiert nun die Gegenthese: Dass wir vermutlich noch einige grundlegende Durchbrüche in der Art, wie Modelle lernen und generalisieren, vor uns haben. Und dass es sich lohnt, Wetten auf Ideen mit niedriger Erfolgswahrscheinlichkeit, aber hohem Informationsgewinn zu platzieren – etwas, das klassische VC‑Logik nur ungern tut.

Bemerkenswert ist die Beteiligung von Google Ventures. Google betreibt mit DeepMind ohnehin eines der führenden Forschungslabore der Welt. Wenn ein zum Konzern gehörender Fonds nun ein externes Labor unterstützt, das die Skalierungslogik infrage stellt, deutet das auf ein internes Spannungsfeld hin: Man will von radikal anderen Ansätzen profitieren, ohne den eigenen Skalierungsvorsprung aufzugeben.

Die europäische / DACH-Perspektive

Aus europäischer Sicht könnte der Ansatz von Flapping Airplanes ein notwendiger Gegenpol zur US‑zentrierten Skalierungsstrategie sein.

Die EU verfügt mit Frankreich, Deutschland, den nordischen Ländern und der Schweiz über starke KI‑Forschung, aber sie hängt bei Hyperscale‑Infrastruktur klar hinterher. Strompreise, Datenschutzanforderungen und fragmentierte Märkte erschweren eine „wir bauen einfach noch ein Mega‑Rechenzentrum“-Strategie.

Genau hier setzt Forschung an Daten‑ und Compute‑Effizienz an:

  • Für Deutschland, Österreich und die Schweiz, wo Datenschutzkultur und Skepsis gegenüber Black‑Box‑Systemen besonders ausgeprägt sind, wären Modelle interessant, die weniger datenhungrig sind und besser erklärbar werden. Der EU‑AI‑Act und bestehende Regelwerke wie DSGVO und DSA belohnen mittelfristig genau solche Eigenschaften.
  • Für europäische KI‑Champion‑Kandidaten wie Aleph Alpha (Heidelberg), Mistral (Paris) oder Cohere (mit starker Präsenz in Europa) ist jede Effizienzsteigerung strategisch: Sie können nicht im gleichen Maß wie US‑Hyperscaler Hardware einkaufen.
  • Für spezialisierte Mittelständler, die etwa in Bayern, Baden‑Württemberg oder der Schweiz komplexe Industrie‑ oder Medizintechnik bauen, könnte die Aussicht auf leistungsfähige, aber kleinere Modelle der Durchbruch sein: KI, die in Edge‑Umgebungen, Fabriken oder Kliniken läuft, ohne auf US‑Clouds angewiesen zu sein.

Auch politisch passt der Ansatz zur europäischen Linie: Der EU‑AI‑Act diskutiert Anforderungen an Energieeffizienz, Transparenz und Governance großer Modelle. Ein forschungsgetriebenes Labor, das sich genau diesen Themen widmet, könnte zum natürlichen Partner für europäische Programme werden – oder zur Blaupause für ähnliche Labs in Berlin, München oder Zürich.

Ausblick

Was ist realistisch von Flapping Airplanes in den nächsten Jahren zu erwarten – und woran sollten Leserinnen und Leser im DACH‑Raum erkennen, ob sich hier tatsächlich ein Paradigmenwechsel abzeichnet?

  1. Wissenschaftliche Signale. Bringt das Labor Arbeiten hervor, die auf Top‑Konferenzen (NeurIPS, ICML, ICLR etc.) nicht nur „besser skaliert“, sondern „gleich gut mit weniger Daten/Compute“ demonstrieren? Wenn ja, werden andere folgen – Universitäten wie TUM, ETH oder TU Wien hätten starke Anreize, in diese Richtung zu gehen.

  2. Offenheit versus Geheimhaltung. Wird Flapping Airplanes Ergebnisse, Methoden und eventuell Code veröffentlichen – oder folgt es dem geschlossenen Modell vieler Frontier‑Labs? Ein forschungsgetriebener Anspruch ohne substanzielle Publikationen wäre ein Warnsignal.

  3. Geschäftsmodell. Gelingt es, aus Effizienz‑Forschung echte Produkte zu bauen – etwa Werkzeuge zur Datenselektion, neue Trainingsframeworks oder spezialisierte Modelle für bestimmte Branchen? Gerade europäische Industriekunden wären hier dankbare Abnehmer, sofern Datenschutz und On‑Prem‑Betrieb berücksichtigt werden.

  4. Europäische Kooperationen. Knüpft das Labor Partnerschaften mit europäischen Forschungszentren oder Unternehmen? Für Akteure in Berlin, München, Zürich oder Wien könnte eine Zusammenarbeit doppelt attraktiv sein: man teilt Risiken und profitiert von Know‑how, ohne selbst Milliarden in Hardware investieren zu müssen.

Risiken gibt es reichlich: Forschung kann scheitern, Investoren können die Geduld verlieren, und regulatorische Rahmenbedingungen können schneller umschlagen als Produktzyklen. Die Chance liegt jedoch darin, dass sich ein zweiter, ernst zu nehmender Entwicklungsstrang etabliert: Neben „immer größer“ auch „immer klüger“.

Fazit

Flapping Airplanes ist mehr als ein weiterer hochfinanzierter KI‑Player. Das Labor steht für die These, dass die Branche sich aus der selbst gewählten Abhängigkeit von immer größeren GPU‑Clustern lösen muss – und dass dafür noch echte Grundlagenforschung nötig ist. Ob diese Wette aufgeht, ist offen. Aber sie zwingt uns, eine unbequeme Frage zu stellen: Wollen wir eine Zukunft, in der „Intelligenz“ faktisch im Besitz weniger Cloud‑Konzerne ist – oder eine, in der algorithmische Kreativität und effiziente Systeme Raum für viele Akteure lassen, gerade auch in Europa? Die Antwort entscheidet, welche Art von KI‑Ökosystem wir in zehn Jahren im DACH‑Raum vorfinden.

Kommentare

Hinterlasse einen Kommentar

Noch keine Kommentare. Sei der Erste!

Ähnliche Beiträge

Bleib informiert

Erhalte die neuesten KI- und Tech-Nachrichten direkt in dein Postfach.