Titular e introducción
La discusión sobre inteligencia artificial ya no es solo técnica. Cada vez suena menos a «cuántos parámetros tiene el modelo» y más a «quién está al mando de todo esto».
Tras un larguísimo perfil de Sam Altman en The New Yorker y una columna demoledora en Ars Technica, el CEO de OpenAI aparece descrito por gente de su entorno como alguien obsesionado con el poder y bastante relajado con la verdad. Eso sería un chisme de Silicon Valley más… si no fuera porque sus decisiones condicionan cómo se despliega la IA en medio planeta. En este texto analizamos qué nos dice este caso sobre la industria, y qué debería aprender de ello el mundo hispanohablante, de Madrid a Ciudad de México.
La noticia en breve
Según resume Ars Technica, un nuevo perfil de unas 16.000 palabras publicado en The New Yorker disecciona la figura de Sam Altman, director ejecutivo de OpenAI. Los autores, Ronan Farrow y Andrew Marantz, entrevistaron a más de cien personas que han trabajado con él o lo han tratado de cerca.
De acuerdo con esa síntesis, varias fuentes describen a Altman como alguien dispuesto a reinterpretar acuerdos, a mezclar sin pudor objetivos futuros con logros presentes y a moldear la realidad en función de lo que le conviene comunicar. Exmiembros de juntas directivas y antiguos compañeros llegan a poner en duda su honestidad básica; algún testimonio lo califica abiertamente de manipulador peligroso. Directivos de Microsoft, socio clave de OpenAI, hablan de una relación cada vez más tensa.
Ars Technica también recuerda los textos de Altman en su blog, donde imagina cadenas de robots auto‑replicantes y un futuro de prosperidad acelerada gracias a la IA, con muy poca atención a los costes sociales, laborales o políticos de ese escenario.
Por qué importa
Podríamos encoger los hombros: «otro fundador de Silicon Valley con complejo de salvador». Pero esta vez no hablamos de una red social o de una app de moda, sino de infraestructura cognitiva que ya está entrando en oficinas públicas, escuelas, redacciones y pymes de medio mundo.
Modelos como los de OpenAI se integran en Microsoft 365, Windows, plataformas de desarrollo, CRMs, chatbots de atención al cliente y herramientas educativas. Cuando el máximo responsable de esa compañía es retratado por sus propios colaboradores como alguien dispuesto a retorcer los hechos y a jugar al límite con los acuerdos, el problema trasciende lo personal: es un riesgo de gobernanza.
La pregunta clásica en «seguridad de IA» es cómo alinear sistemas potentes con valores humanos. El caso Altman obliga a reformularla: ¿cómo alineamos a los humanos que controlan esos sistemas? Mientras los incentivos económicos premien ir más rápido que la competencia, minimizar los riesgos y seducir a los reguladores con promesas grandilocuentes, el discurso de la «IA responsable» tenderá a quedarse en marketing.
¿Quién gana con este modelo? A corto plazo, los fundadores y fondos de capital riesgo que concentran poder sobre datos, modelos y centros de datos, y gigantes como Microsoft que construyen un foso competitivo casi infranqueable. ¿Quién pierde? Los pequeños desarrolladores que dependen de APIs opacas; los ciudadanos cuyos datos fueron utilizados sin permiso; y las instituciones públicas que se atan tecnológicamente a empresas dirigidas por ejecutivos que nadie votó y cuya escala de valores desconocen.
El efecto inmediato es una brecha de confianza cada vez mayor. Y cuando se erosiona la confianza, el rechazo deja de dirigirse solo a las personas o empresas concretas y empieza a salpicar a la propia tecnología.
El cuadro general
Altman no es una anomalía; es el exponente más visible de una cultura empresarial. Llevamos años viendo la misma figura: el fundador carismático que se presenta como filósofo‑rey del progreso, mientras trata la ley, las normas sociales e incluso los hechos como piezas negociables.
Ahí está Elon Musk, oscilando entre cohetes, coches, túneles y una red social convertida en altavoz político, mientras lanza su propia empresa de IA «más segura». Mark Zuckerberg quemó decenas de miles de millones en el metaverso para luego declarar que Meta es, en realidad, una compañía de IA. El inversor Marc Andreessen publica manifiestos donde la tecnología solo tiene lado positivo, y Peter Thiel mezcla retórica apocalíptica con apuestas políticas muy terrenales.
La historia económica ya conocía a estos personajes: magnates del ferrocarril, del petróleo, de las telecos. La diferencia es que hoy la materia prima no es el acero, sino la información y la atención. Los sistemas de IA pueden desplegarse globalmente en cuestión de semanas, y mediatizan qué leemos, cómo trabajamos, qué decisiones vemos como posibles.
OpenAI vivió en 2023 un adelanto de esta crisis de legitimidad cuando su propio consejo de administración intentó destituir a Altman y acabó remodelado bajo la presión de inversores y empleados. El reportaje de The New Yorker parece más una continuación de esa historia que una sorpresa.
Otras empresas del sector no están vacunadas contra estos problemas. Google DeepMind depende de las prioridades corporativas de Alphabet; Anthropic se vende como la opción «más segura», pero necesita las mismas rondas de financiación y acuerdos con nubes públicas; xAI intenta capitalizar la marca personal de Musk. El patrón se repite: personalidades extremadamente hábiles para levantar dinero y controlar el relato, operando en un marco que premia la velocidad por encima de la prudencia.
El ángulo europeo e hispano
Para Europa y para el mundo hispanohablante, esto plantea un dilema y una oportunidad. Por un lado, España y muchos países de América Latina están adoptando con entusiasmo herramientas basadas en GPT y modelos similares: desde asistentes para programadores hasta generadores de contenido y sistemas de traducción. La dependencia tecnológica respecto a unas pocas empresas de la costa oeste de EE. UU. se profundiza.
Por otro lado, la Unión Europea está construyendo el marco regulatorio más ambicioso del mundo en materia de IA. El Reglamento de IA (AI Act), sumado al RGPD, la Ley de Servicios Digitales (DSA) y la de Mercados Digitales (DMA), busca precisamente reducir la necesidad de «fiarnos» de la buena voluntad de los CEOs. Los sistemas de alto riesgo tendrán obligaciones de transparencia, evaluación y supervisión humana, dé igual lo inspirador que suene el fundador en un escenario.
En paralelo, surgen alternativas europeas como Mistral en Francia o Aleph Alpha en Alemania, que se presentan como proveedores más transparentes, con modelos más abiertos y anclados en valores europeos. Están lejos del músculo financiero de OpenAI, pero su narrativa encaja mejor con una cultura política que desconfía de los salvadores tecnológicos.
Para España y para América Latina, donde la regulación suele ir por detrás de la europea, el reto es doble. Por un lado, aprovechar el paraguas normativo de la UE cuando sea posible (por ejemplo, para filiales de multinacionales). Por otro, impulsar marcos propios que exijan mínimos de transparencia y soberanía de datos, en lugar de aceptar sin más el modelo de «caja negra californiana».
Mirando hacia adelante
No parece probable que OpenAI implosione ni que Sam Altman desaparezca del mapa a corto plazo. Los productos funcionan razonablemente bien, el ecosistema construido alrededor de Microsoft es enorme y la comodidad pesa mucho más que las preocupaciones abstractas en el día a día de usuarios y empresas.
Sin embargo, sí es razonable esperar un cambio de clima. Reguladores europeos, latinoamericanos y nacionales empezarán a mirar menos los vídeos promocionales y más la letra pequeña: quién se sienta en el consejo, cómo se protege a los equipos de seguridad interna, qué garantías se dan sobre el uso de datos y la posibilidad de auditar sistemas.
Las administraciones públicas que estén pensando en integrar IA generativa en educación, justicia o sanidad tendrán que elevar el nivel de exigencia en los concursos: pedir documentación técnica detallada, derechos de auditoría, planes de salida si el proveedor cambia condiciones de forma unilateral y límites claros sobre qué datos pueden entrenar futuros modelos.
En el plano tecnológico, es probable que crezca el interés por modelos abiertos y desplegables en infraestructuras propias, tanto en Europa como en América Latina. No porque sean una panacea, sino porque permiten construir capas de gobernanza más cercanas a los usuarios finales. Proyectos de computación pública compartida, como los que empieza a explorar la UE, podrían marcar una diferencia si se abren también a socios del sur global.
La gran incógnita es si la próxima generación de líderes en IA se parecerá más a gestores de infraestructura —aburridos, regulados, predecibles— o si seguiremos entregando el timón a figuras mesiánicas cuyo talento principal es doblar la realidad con su carisma. De la respuesta dependerá cuánta presión tendrán que soportar nuestras leyes para compensar lo que no hagan las empresas por voluntad propia.
En resumen
El problema no es solo si Sam Altman, en concreto, merece nuestra confianza. El problema es que hemos construido la infraestructura de IA del mundo sobre un modelo que premia exactamente a este tipo de perfiles: veloces, agresivos, centrados en la narrativa más que en la rendición de cuentas. Para Europa y para el mundo hispanohablante, la lección es clara: hay que invertir en alternativas técnicas y de gobernanza, y hacerse siempre la misma pregunta incómoda antes de enchufar otro API de IA a nuestras instituciones: ¿de quién, exactamente, estamos importando valores e incentivos?



