0

Tu carrito está vacío

CLAUDE MYTHOS BAJO LA LUPA: EL ACCESO NO AUTORIZADO QUE REABRE EL DEBATE DE LA SEGURIDAD

abril 27, 2026

CLAUDE MYTHOS BAJO LA LUPA: EL ACCESO NO AUTORIZADO QUE REABRE EL DEBATE DE LA SEGURIDAD - Bestmart

REVISA NUESTROS ASISTENTES DE VOZ  PINCHANDO AQUÍ

La inteligencia artificial sigue avanzando a pasos agigantados, pero no siempre las noticias son positivas. Esta vez, el foco está en Claude Mythos Preview, el modelo más avanzado y restringido de Anthropic, diseñado específicamente para detectar vulnerabilidades críticas en sistemas operativos, navegadores y software empresarial.

Según reportes recientes, un grupo de usuarios logró acceder sin autorización a esta IA, generando una nueva alarma en el mundo de la ciberseguridad y poniendo en duda qué tan protegidos están realmente estos sistemas de última generación.

Claude Mythos no es un chatbot cualquiera. Anthropic lo mantiene fuera del acceso público porque su capacidad va mucho más allá de responder preguntas: puede identificar fallas de seguridad complejas, descubrir vulnerabilidades tipo “día cero” e incluso generar exploits de forma autónoma.

Según la propia compañía, el modelo puede encontrar errores que ni revisiones humanas ni pruebas automatizadas habían detectado previamente, lo que lo convierte en una herramienta poderosa tanto para defensa como para posibles ataques si cae en malas manos.

El problema surgió cuando Bloomberg reveló que personas ajenas al programa oficial habrían ingresado al sistema a través de un entorno vinculado a un proveedor externo. Se trataría de miembros de un canal privado de Discord enfocado en rastrear modelos de IA inéditos, quienes habrían accedido el mismo día del anuncio oficial.

Aunque Anthropic aseguró que no existe evidencia de daños directos ni uso malicioso confirmado, la investigación sigue abierta y el incidente dejó expuesta una preocupación clave: si una IA creada para proteger sistemas puede ser vulnerada tan rápido, el riesgo para empresas y gobiernos se vuelve mucho más serio.

El caso también reavivó las dudas sobre el llamado Project Glasswing, la iniciativa de Anthropic para trabajar este modelo junto a empresas y gobiernos estratégicos. Incluso el Instituto de Seguridad de IA del Reino Unido ya había advertido sobre su potencial ofensivo: en pruebas controladas, Mythos logró completar ataques complejos de múltiples pasos contra infraestructuras vulnerables. Mozilla incluso informó que logró corregir cientos de fallas en Firefox gracias al uso de esta IA, lo que demuestra que su potencial es enorme, pero también extremadamente delicado.

Este episodio deja una gran pregunta sobre la mesa: ¿estamos preparados para controlar una inteligencia artificial capaz de encontrar y explotar vulnerabilidades mejor que los humanos?

La promesa de una ciberseguridad más fuerte es real, pero también lo es el peligro de que estas herramientas se conviertan en armas digitales. En un escenario donde la IA ya no solo asiste, sino que también puede atacar, la discusión sobre regulación, acceso y supervisión deja de ser una posibilidad futura para convertirse en una urgencia del presente.


Dejar un comentario

¿Necesitas ayuda? 😊
WhatsApp