Mythos y el teatro del riesgo: anatomía de una operación de marketing disfrazada de contención ética
¿Contención ética o la operación de marketing más sofisticada de la década? Anthropic anuncia un modelo demasiado peligroso para lanzar justo antes de su salida a bolsa. Analizamos las motivaciones reales detrás de la narrativa del miedo.
El 7 de abril de 2026, Anthropic hizo algo que ningún laboratorio de inteligencia artificial frontera había hecho antes: anunció su modelo más potente y, simultáneamente, declaró que el público no podía usarlo. Claude Mythos Preview se presentó al mundo no como un producto, sino como una amenaza. Reuniones de emergencia entre la Reserva Federal y los directores de los mayores bancos estadounidenses. Titulares sobre el fin de la ciberseguridad tal como la conocemos. Creadores de contenido grabando «vídeos de emergencia» desde aeropuertos y hoteles.
¿Estamos ante un momento genuinamente peligroso, o ante la operación de marketing más sofisticada que ha ejecutado un laboratorio tecnológico en la última década? Consideramos que la respuesta incluye elementos de ambas cosas, pero que la proporción no es la que la narrativa dominante sugiere. Las motivaciones comerciales, estratégicas y competitivas explican la forma del anuncio con mucha más precisión que la preocupación por la seguridad pública.
El precedente que nadie quiere recordar
Para entender Mythos conviene retroceder a febrero de 2019. OpenAI, entonces poco conocida, anunció GPT-2, un modelo que generaba «párrafos coherentes de texto», y afirmó que no lo publicaría por preocupaciones sobre aplicaciones maliciosas. ¿Quién firmaba aquella decisión? Dario Amodei, entonces responsable de seguridad de OpenAI, hoy director ejecutivo de Anthropic.
GPT-2 era, con los estándares actuales, un sistema primitivo. Su retención generó una atención mediática inversamente proporcional a sus capacidades reales. La estrategia funcionó: posicionó a OpenAI en el centro del debate antes de tener un producto comercial. Siete años después, el mismo ejecutivo ejecuta el mismo guion con una sofisticación notablemente superior.
David Sacks, asesor tecnológico de la administración Trump, lo reconoció: el mundo no tiene más remedio que tomarse en serio la amenaza asociada a Mythos, pero resulta difícil ignorar que Anthropic tiene un historial de tácticas basadas en el miedo. No es una voz marginal: es el responsable del consejo de asesores tecnológicos del presidente de Estados Unidos.
Tres «accidentes» en siete días
Antes de analizar Mythos conviene examinar la secuencia de eventos que precedió su anuncio. Han Heloir Yan, investigador en ciencia de datos, documentó una cronología reveladora: en el lapso de siete días, Anthropic protagonizó tres filtraciones que, individualmente, habrían dominado un ciclo de noticias. Juntas dibujan el perfil de una empresa que, en sus palabras, «tiene o bien la peor seguridad operativa de Silicon Valley, o bien los mejores instintos de marketing».
- 24 de marzo: Anthropic publicó un artículo técnico sobre su infraestructura de ingeniería (Harness) que reenmarcaba su ventaja competitiva.
- 26 de marzo: Una supuesta «mala configuración» de su sistema de gestión de contenidos expuso cerca de 3000 archivos internos, entre ellos un borrador de anuncio de Mythos con «riesgos de ciberseguridad sin precedentes». Fortune descubrió que los documentos incluían datos estructurados con encabezados y fecha de publicación: formaban parte de un lanzamiento planificado.
- 31 de marzo: Un archivo de mapa de código fuente dentro de un paquete de distribución expuso más de 500 000 líneas del código de Claude Code.
Tres eventos. Siete días. Todos en la recta final hacia una salida a bolsa con una valoración objetivo de 380 000 millones de dólares. ¿Incompetencia operativa en la empresa que afirma descubrir vulnerabilidades de 27 años en sistemas operativos endurecidos contra ataques? La hipótesis de la torpeza resulta difícil de sostener.
La salida a bolsa como clave interpretativa
Ningún análisis de la estrategia de Mythos puede prescindir del contexto financiero. Anthropic negocia con Goldman Sachs y JPMorgan una salida a bolsa que podría superar los 60 000 millones de dólares en captación, la segunda mayor de la historia tecnológica. Su valoración privada ha escalado a una velocidad sin precedentes: de 61 500 millones en marzo de 2025 a 183 000 millones en septiembre y 380 000 millones en febrero de 2026.
¿Qué genera más valor percibido ante inversores institucionales: lanzar un modelo más al mercado saturado, o presentar un producto tan extraordinario que ni siquiera sus creadores se atreven a liberarlo? Cada titular alarmante, cada reunión de emergencia entre reguladores, cada vídeo de pánico de un divulgador contribuye a un objetivo concreto: que cuando Anthropic presente su documentación bursátil, la percepción sea que esta empresa posee algo único y transformador.
La carrera con OpenAI intensifica la presión. SpaceX, OpenAI y Anthropic podrían drenar más de 240 000 millones de dólares de los mercados de capitales en la segunda mitad de 2026, cuando todo el mercado de salidas a bolsa estadounidense recaudó solo 45 000 millones en 2025.
El muro antidestilación: protección competitiva con cobertura ética
David Crawshaw, ingeniero y director ejecutivo de una empresa de desarrollo, lo planteó sin ambages: se trata de una cobertura de marketing para el hecho de que los modelos de gama alta están ahora restringidos mediante acuerdos empresariales. Ya no están disponibles para que laboratorios pequeños los destilen. Y añadió una predicción estructural: cuando el público acceda a Mythos, existirá una nueva versión superior reservada para empresas, creando una cinta transportadora que relega a los competidores a un escalón permanentemente inferior.
Anthropic ha acusado públicamente a DeepSeek, Moonshot AI y Minimax de crear más de 24 000 cuentas falsas para extraer conocimiento de sus modelos. La retención de Mythos no solo protege contra la copia: crea un mercado de dos velocidades donde el acceso a las capacidades avanzadas se convierte en privilegio corporativo.
Project Glasswing: canal de ventas disfrazado de iniciativa de seguridad
El vehículo de distribución merece examen. Project Glasswing reúne a 12 organizaciones asociadas (Amazon, Apple, Google, Microsoft, Nvidia, JPMorgan, entre otras) con acceso extendido a 40 organizaciones más, respaldado por 100 millones de dólares en créditos de uso y 4 millones en donaciones a seguridad de código abierto.
En esencia: un programa de adopción empresarial temprana con narrativa de urgencia superpuesta. Los 100 millones en créditos equivalen a muestras gratuitas del producto más caro del mercado (entre 25 y 125 dólares por millón de tokens) entregadas a los clientes con mayor capacidad de gasto del planeta. Cuando esas empresas integren Mythos en sus flujos defensivos, la dependencia contractual estará creada. Las 40 organizaciones adicionales fueron seleccionadas a dedo, sin concurso público ni criterio transparente.
¿Es también una iniciativa de seguridad legítima? Probablemente. ¿Es principalmente eso? La evidencia sugiere que no.
La narrativa del peligro frente a la evidencia independiente
Lo que Anthropic afirma: Mythos ha identificado miles de vulnerabilidades de día cero en todos los principales sistemas operativos y navegadores, incluyendo un fallo de 27 años en OpenBSD. En pruebas con Firefox, logró explotar vulnerabilidades en un 72,4 % de los intentos, frente al 0,8 % de Opus 4.6.
Lo que falta: verificación independiente. Heidy Khlaaf, científica jefe de IA en el instituto AI Now, señaló que el informe omitía detalles clave. No hay comparaciones con herramientas existentes. No hay claridad sobre el papel humano en el proceso. No hay reproducción por terceros.
Un experto en ciberseguridad consultado por Gary Marcus condensó el problema: «Huele a bombo publicitario. Tienen este modelo tan potente, pero no puedes evaluarlo tú mismo. Me parece que están plantando semillas en el jardín del bombo.» Marcus concluyó que el modelo parece ser «incrementalmente mejor» que los anteriores, no un avance revolucionario, y admitió que «hasta cierto punto, siento que nos manipularon».
El dato más revelador proviene de AISLE, empresa emergente de ciberseguridad que replicó gran parte de los resultados atribuidos a Mythos utilizando modelos abiertos más pequeños. Que resultados parcialmente comparables sean alcanzables con modelos gratuitos erosiona la premisa de discontinuidad radical que sostiene toda la narrativa de alarma.
La renuncia que nunca existió
Este es quizá el dato más transformador del análisis. Logan Graham, responsable del equipo de evaluación de riesgos de Anthropic, admitió que la empresa nunca había planeado formalmente hacer esta versión disponible al público general. El lanzamiento público nunca estuvo sobre la mesa. Es como agradecer a alguien por no tirarse desde un puente al que nunca pensaba subirse.
Los creadores de contenido que elogian la «valentía» de Anthropic celebran una renuncia ficticia. La decisión real fue diseñar una estrategia de distribución exclusivamente empresarial y envolverla en una retórica de riesgo que genera, simultáneamente, cobertura mediática gratuita, diferenciación competitiva y presión regulatoria favorable.
La paradoja del doble mensaje
Jake Moore, especialista en ciberseguridad de ESET, ofreció la lectura más equilibrada: anuncios como este cumplen un doble propósito de precaución genuina y señalización de marca. Alex Stamos, experto de la empresa Corridor, fue más incisivo: comparó la estrategia comunicativa con «anunciar una bomba nuclear mediante una viñeta de Calvin y Hobbes».
Anthropic describe a Mythos como «el modelo mejor alineado que hemos lanzado por un margen significativo» y, a la vez, como el que «probablemente plantea el mayor riesgo de alineación de cualquier modelo publicado». Ambas afirmaciones construyen una imagen imposible pero estratégicamente perfecta: la empresa más responsable del mercado y la que posee algo demasiado poderoso para compartir.
Los amplificadores sinceros
En la semana posterior al anuncio, creadores de contenido hispanohablantes publicaron vídeos con títulos como «Anthropic ha creado algo demasiado potente y peligroso» o «La razón real por la que Anthropic no se atreve a lanzar su nueva IA». Tres patrones se repiten:
Urgencia performativa. «Vídeo de emergencia», «me va a costar dormir esta noche», «estoy vomitando lo que me pasa por la cabeza». La activación emocional sustituye al análisis.
Ausencia de contraste. Ninguno menciona a Khlaaf, a Marcus, a AISLE ni a ninguna fuente que cuestione las afirmaciones. El system card (informe técnico interno de la propia empresa) se presenta como verdad revelada, no como documento corporativo sujeto a escrutinio.
Gratitud corporativa. «Estoy súper agradecido a Anthropic por tomar una decisión tremendamente valiente.» Se agradece una decisión que nunca contempló la alternativa que supuestamente rechazó.
Estos creadores no mienten. Están capturados por una narrativa diseñada para capturarlos. La operación no necesita conspiradores: solo amplificadores sinceros.
Conviene reconocer que no toda la cobertura cayó en esa trampa. TechCrunch tituló con elocuencia: ¿Anthropic limita Mythos para proteger internet, o para protegerse a sí misma? Gerrit De Vynck, del Washington Post, recordó en PBS que ya vivimos en un mundo donde la ciberseguridad es deficiente y donde la misma tecnología que ataca puede defender. Pero esta cobertura queda sepultada bajo la avalancha alarmista que, algorítmicamente, genera más interacción y más ingresos.
La pregunta que importa
Kelsey Piper identificó el aspecto central: una empresa privada posee ahora vulnerabilidades de día cero en casi todos los proyectos de software conocidos. Sin rendición de cuentas pública. Sin auditoría independiente. Sin supervisión regulatoria. ¿Quién decide qué hacer con ese conocimiento y ante quién responde? Una empresa que se prepara para cotizar a medio billón de dólares y que responde únicamente ante sus inversores.
Eso debería preocuparnos más que cualquier anécdota sobre un modelo que envía correos mientras un ingeniero se come un bocadillo en el parque.
Lo que esto significa para la educación
Para quienes trabajamos en la integración de la IA en la educación superior, el caso Mythos constituye un caso de estudio completo sobre alfabetización crítica. Tres lecciones directas:
Un system card de 244 páginas producido por la misma empresa que posiciona su producto no equivale a una revisión por pares. Enseñar a identificar conflictos de interés en las fuentes es ya una competencia básica para cualquier docente y estudiante universitario.
La comprensión de los modelos de negocio tecnológicos es una competencia transversal imprescindible. Sin entender qué es una salida a bolsa, cómo funciona la destilación o por qué una empresa regala 100 millones en créditos, el docente queda indefenso ante narrativas diseñadas para ser consumidas sin filtro.
Y lo más importante: cuando la entidad que fabrica el producto es la misma que evalúa su peligrosidad, riesgo real y beneficio comercial se vuelven indistinguibles. Precisamente por eso necesitamos supervisión gubernamental independiente.
Ni pánico ni ingenuidad
No afirmamos que Mythos carezca de capacidades reales. Las tiene. Tampoco sostenemos que Anthropic sea una empresa cínica. La verdad es más incómoda: Anthropic ha encontrado el punto exacto donde precaución genuina y beneficio comercial se refuerzan mutuamente, y ha diseñado una comunicación que hace imposible distinguir dónde termina una y empieza el otro.
Esa ambigüedad no es accidental. Es el producto.
La próxima vez que un creador de contenido grabe un «vídeo de emergencia» sobre un modelo demasiado peligroso para lanzar, conviene recordar una pregunta sencilla: ¿quién se beneficia de que sientas miedo?
Este artículo forma parte de la serie de análisis críticos de IAforTeachers.com sobre la industria de la inteligencia artificial y sus implicaciones para la educación superior.
Nota metodológica: Los gráficos de este artículo fueron elaborados por el autor con matplotlib (Python) y datos compilados de las fuentes citadas. La paleta cromática corresponde a la identidad visual de IAforTeachers. Son representaciones originales construidas a partir de datos públicos verificables en las fuentes referenciadas.
Fuentes y referencias consultadas
- Anthropic (2026). Project Glasswing: securing critical software for the AI era. Anthropic Blog, 7 de abril.
- Anthropic (2026). Assessing Claude Mythos Preview’s cybersecurity capabilities. Frontier Red Team Blog, 7 de abril.
- Anthropic (2026). Claude Mythos Preview System Card. 244 páginas. Publicado 7 de abril.
- Axios (2026). Anthropic withholds Mythos Preview model because its hacking is too powerful. Sam Sabin, 7 de abril. [Fuente de las declaraciones de Logan Graham, responsable del equipo de evaluación de riesgos de Anthropic.]
- Business Insider (2026). What smart people are saying about Mythos, Anthropic’s new AI model that has some cybersecurity experts spooked. 10 de abril. [Fuente de las declaraciones de Jake Moore, especialista en ciberseguridad de ESET, y de Dave Kasten, responsable de políticas en Palisade Research.]
- CNBC (2026). Powell, Bessent discussed Anthropic’s Mythos AI cyber threat with major U.S. banks. 10 de abril.
- Crawshaw, D. (2026). Publicación en redes sociales sobre la estrategia de distribución de Mythos, citada en TechCrunch, 9 de abril.
- De Vynck, G. (2026). Entrevista sobre Mythos en PBS NewsHour, 9 de abril. [Gerrit De Vynck, corresponsal de IA del Washington Post.]
- Fernholz, T. (2026). Is Anthropic limiting the release of Mythos to protect the internet — or Anthropic? TechCrunch, 9 de abril. [Fuente de las declaraciones de David Crawshaw y del análisis de AISLE.]
- Fortune (2026). Exclusive: Anthropic ‘Mythos’ AI model representing ‘step change’. 26 de marzo. [Fuente de la filtración del borrador y los 3000 archivos internos.]
- Fortune (2026). Anthropic’s Mythos is a wake-up call, but experts say the era of AI-driven hacking is already here. 10 de abril. [Fuente de la réplica parcial de AISLE con modelos abiertos.]
- Fortune (2026). Bessent and Powell convened Wall Street CEOs to address Anthropic’s Mythos model. 10 de abril.
- Futurism (2026). Anthropic warns that ‘reckless’ Claude Mythos escaped a sandbox environment during testing. Frank Landymore, 8 de abril.
- Khlaaf, H. (2026). Hilo en X/Twitter sobre las limitaciones del informe técnico de Mythos, 7 de abril. [Heidy Khlaaf es científica jefe de IA en el AI Now Institute. Citada también en NBC News y en Marcus (2026).]
- Marcus, G. (2026). What should we take from Anthropic’s (possibly) terrifying new report on Mythos? Marcus on AI / Substack, 8 de abril. Republicado en Communications of the ACM. [Gary Marcus es científico cognitivo, autor de Rebooting AI, exdirector de investigación en IA de Uber y una de las voces críticas más reconocidas del sector. Compareció ante el Senado de EE. UU. en mayo de 2023 sobre riesgos de la IA. Fuente del experto anónimo en ciberseguridad y del análisis sobre manipulación narrativa.]
- MT Democrat / Associated Press (2026). Mythos AI alarm bells: Fair warning or marketing hype? 11 de abril. [Fuente de las declaraciones de David Sacks y de Alex Stamos, experto en seguridad de la empresa Corridor, en la conferencia HumanX.]
- NBC News (2026). Why Anthropic won’t release its new Claude Mythos AI model to the public. 8 de abril. [Fuente de las declaraciones de Heidy Khlaaf y de Logan Graham.]
- Piper, K. (2026). Publicación en X/Twitter sobre la concentración de vulnerabilidades de día cero en una empresa privada, citada en Platformer, 7 de abril.
- Sacks, D. (2026). Publicación en X/Twitter sobre el historial de tácticas de Anthropic, 8 de abril. [David Sacks es asesor tecnológico de la administración Trump.]
- Silverman, C. (2026). Why Anthropic’s new model has cybersecurity experts rattled. Platformer, 7 de abril. [Fuente de la observación de Kelsey Piper y del análisis de Alex Stamos.]
- Yan, H. H. (2026). Three “accidents” in seven days: Is Anthropic’s pre-IPO transparency theater or just bad luck? Data Science Collective / Medium, 6 de abril.
- EBC Financial Group (2026). Anthropic IPO 2026: Latest timeline, valuation, and risks. Enero 2026. [Fuente de los datos de valoración y cronología de salida a bolsa.]
- TradingKey (2026). Anthropic revenue surpasses OpenAI for first time, IPO as early as October. 7 de abril. [Fuente de los datos de ingresos anualizados comparados.]