Cuando todo falla, la culpa es de la IA: Bluesky, el “vibe coding” y la crisis de confianza en el software

7 de abril de 2026
5 min de lectura
Pantalla de Bluesky con error y publicaciones que culpan en tono irónico a la IA y al “vibe coding”

1. Titular e introducción

Cada vez que una app se cae, aparece el mismo culpable: «código basura de IA» y «vibe coding». El último fallo de Bluesky convirtió ese reflejo en un meme a gran escala, pero debajo de los chistes hay algo más profundo: una brecha de confianza entre quienes escriben el código (con ayuda de modelos) y quienes solo ven la pantalla rota. La apuesta pública de Bluesky por herramientas de programación con IA choca con una base de usuarios que huyó de X en parte para no sentirse material de entrenamiento. Aquí analizamos qué pasó, por qué el “vibe coding” se ha vuelto el nuevo chivo expiatorio y qué implica esto para el futuro del desarrollo asistido por IA en Europa y en el mundo hispanohablante.

2. La noticia en breve

Según Ars Technica, Bluesky sufrió el lunes interrupciones intermitentes del servicio, coincidiendo con problemas similares en otros sitios populares. La empresa atribuyó oficialmente el fallo a un proveedor externo, no a su propio código.

En la red, sin embargo, muchos usuarios dieron por hecho que la culpa era del “vibe coding”: la idea de que los desarrolladores dependen demasiado de herramientas de IA para escribir código. El contexto importa: miembros del equipo de Bluesky habían comentado abiertamente que utilizan Claude Code de Anthropic para una parte muy significativa del desarrollo. Además, la compañía lanzó recientemente Attie, un chatbot que permite crear feeds personalizados de Bluesky mediante lenguaje natural.

No se presentó ninguna prueba de que la IA hubiera causado el incidente, pero para un sector de la comunidad ya receloso de la IA, la narrativa encajaba demasiado bien como para dejarla pasar.

3. Por qué importa

La reacción al fallo de Bluesky habla menos de ese incidente concreto y más de una fractura de percepción. De un lado, equipos técnicos que normalizan rápidamente la asistencia de IA como herramienta cotidiana. Del otro, usuarios finales que perciben cualquier rastro de IA en la cadena de desarrollo como sinónimo de chapuza.

En el corto plazo, los grandes beneficiados son los críticos del hype de la IA. Cada caída alimenta un relato sencillo y emocionalmente potente: «sustituisteis a profesionales por un loro estadístico y ahora todo se rompe». Da igual si, en ese caso concreto, la IA no tuvo nada que ver; lo relevante es que confirma una intuición previa.

Pierden los equipos que son a la vez pioneros y transparentes. En Bluesky, varios responsables habían hablado –a veces en tono medio irónico– de hasta qué punto Claude escribe gran parte de su código. Esa transparencia les ha salido cara: en el imaginario de muchos usuarios, cualquier error deja de ser «la complejidad de los sistemas distribuidos» para convertirse automáticamente en «pereza y negligencia».

Para las empresas, esto se traduce en un nuevo riesgo reputacional: si haces bandera de que usas IA para programar, también asumes que, a partir de ahora, la IA será el chivo expiatorio predeterminado de cada bug, caída o brecha de seguridad.

4. El contexto más amplio

Lo de Bluesky no es un caso aislado, sino otro episodio en una serie larga:

  • Un apagón de varias horas en Amazon se relacionó con errores en cambios apoyados en herramientas de IA.
  • Anthropic filtró por accidente código interno; en redes muchos culparon al uso intensivo de Claude, aunque la empresa habló de un fallo humano durante el despliegue manual.
  • Varias historias recientes describen agentes de código autónomos que borran ficheros o configuran mal la infraestructura si no se supervisan de cerca.

Cada uno de estos incidentes tiene matices técnicos importantes, pero la conversación pública los aplasta en el mismo eslogan: «la programación con IA es peligrosa».

Históricamente, el patrón se repite. Cuando el cloud despegó, cualquier caída en AWS o Azure era «la prueba» de que externalizar infraestructura era una locura. Cuando se popularizaron los frameworks JavaScript, cada web lenta se achacaba a «front‑ends obesos». Las nuevas arquitecturas siempre reciben más culpa y más mérito del que les corresponde.

Lo distinto ahora es la velocidad y la opacidad. La IA cambia cómo se escribe, revisa y prueba el software más rápido de lo que las organizaciones ajustan cultura, procesos y gobernanza. Desde fuera, esa complejidad es invisible: lo que se ve son desarrolladores bromeando con que «vibecodean toda la web» y, después, un mensaje de error. El cerebro rellena el resto.

En ese contexto, Attie –que permite a cualquier usuario «vibe‑codear» sus propios feeds– no se percibe tanto como empoderamiento, sino como confirmación de que la plataforma quiere automatizarlo todo, hasta la curación de contenidos. Para muchos, eso suena a trucos divertidos por encima de la fiabilidad básica.

5. El ángulo europeo y latinoamericano

Para Europa, el episodio es un anticipo de cómo van a chocar cultura, mercado y regulación. El Reglamento de IA de la UE y la Ley de Servicios Digitales (DSA) empujan a las grandes plataformas hacia más transparencia, gestión de riesgos y responsabilidad. Las herramientas de programación asistida por IA no son el objetivo directo, pero los sistemas que producen –recomendadores, moderación, detección de abusos– sí caen bajo ese paraguas.

En cuanto una red social crece hasta acercarse a la categoría de «plataforma muy grande», los cortes de servicio y fallos graves dejan de ser solo problemas técnicos y pasan a ser posibles incumplimientos regulatorios. En un entorno europeo ya de por sí poco tolerante con el «move fast and break things», presumir de que «la IA escribe casi todo nuestro código» puede ser más un lastre que una ventaja.

Para España y América Latina hay matices propios. En muchos países latinoamericanos, donde las caídas de servicios y las infraestructuras frágiles son una realidad diaria, la sensibilidad a la narrativa del «vibe coding» puede ser distinta: se acepta cierto caos, pero también se desconfía profundamente de las grandes tecnológicas extranjeras. Startups locales que usen IA de forma responsable y transparente pueden diferenciarse precisamente ofreciendo lo que a gigantes como Bluesky les cuesta: explicar con detalle cómo prueban y supervisan sus sistemas.

6. Mirando hacia adelante

Todo apunta a que «vibe coding» se consolidará como explicación automática para cualquier gran caída en la que huela mínimamente a IA. El meme sobrevivirá mucho más allá del fallo concreto de Bluesky.

Las empresas reaccionarán, previsiblemente, en dos direcciones opuestas. Un grupo doblará la apuesta: más charlas en conferencias presumiendo de que el 80–90 % del código lo generan modelos, más marketing de «AI‑first». Eso ayudará a atraer talento e inversión, pero también las mantendrá permanentemente expuestas a la crítica.

El otro grupo integrará la IA profundamente… y hablará poco de ello. Hacia fuera, el discurso será de SLA, uptime, auditorías, certificaciones y cumplimiento normativo, no de qué asistente les escribe las funciones. Para reguladores europeos y grandes clientes empresariales, esta segunda estrategia será la más digerible.

Para los usuarios, la pregunta relevante no será «¿esto lo ha escrito una IA?» sino «¿cómo se prueba, monitoriza y gobierna este sistema?». Con la entrada en vigor del Reglamento de IA y la aplicación plena de la DSA, Bruselas y las autoridades nacionales van a empujar exactamente en esa dirección.

El riesgo es que un clima de linchamiento mediático lleve a los equipos responsables a esconder el uso de IA en lugar de debatir abiertamente buenas prácticas y límites. Eso retrasaría el aprendizaje colectivo justo cuando más falta hace.

7. Conclusión

El tropiezo de Bluesky fue pequeño; la señal que envía sobre la confianza en el desarrollo con IA, no. Admitir que usas modelos para programar empieza a significar renunciar al beneficio de la duda cuando algo falla. La salida no pasa por fingir que todo se escribe «a mano», sino por demostrar que, sea quien sea quien teclea, hay procesos, pruebas y responsabilidad sólidos detrás. Como usuarios, quizá ha llegado el momento de exigir menos eslóganes sobre «vibes» y más información concreta sobre cómo se construye y se opera el software del que dependemos a diario.

Comentarios

Deja un comentario

Aún no hay comentarios. ¡Sé el primero!

Publicaciones relacionadas

Mantente informado

Recibe las últimas noticias de IA y tecnología en tu correo.