
Sam Altman, CEO de OpenAI, rechazó la creciente alarma sobre el potente nuevo modelo de IA Claude Mythos de su rival Anthropic, sugiriendo que la compañía está utilizando el "miedo" para comercializar el producto.
En el podcast Core Memory, presentado por el periodista tecnológico Ashlee Vance, Altman argumentó que el uso del "marketing basado en el miedo" estaba dirigido a mantener la IA en manos de un "grupo más pequeño de personas".
"Puedes justificar eso de muchas maneras diferentes, y algunas son reales, como que habrá preocupaciones legítimas de seguridad", dijo Altman.
"Pero si lo que quieres es 'necesitamos el control de la IA, solo nosotros, porque somos las personas de confianza', creo que el marketing basado en el miedo es probablemente la forma más efectiva de justificar eso".
Altman añadió que, si bien existen preocupaciones válidas sobre la seguridad de la IA, "es claramente un marketing increíble decir: 'Hemos construido una bomba. Estamos a punto de lanzarla sobre tu cabeza. Te venderemos un refugio antiaéreo por 100 millones de dólares. Lo necesitas para proteger todas tus cosas, pero solo si te elegimos como cliente'".
Señaló que "no siempre fue fácil" equilibrar las nuevas capacidades de la IA con la creencia de OpenAI de que la tecnología debería ser accesible.
El modelo Claude Mythos de Anthropic, revelado el mes pasado, ha atraído una intensa atención de investigadores, gobiernos y la industria de la ciberseguridad, particularmente después de que las pruebas sugirieran que puede identificar de forma autónoma vulnerabilidades de software y ejecutar complejas operaciones cibernéticas. El modelo se distribuye solo a un conjunto limitado de organizaciones a través de un programa restringido.
El lanzamiento refleja una división más amplia en la industria de la IA sobre cómo deben implementarse los sistemas potentes, con algunas empresas enfatizando el acceso controlado y otras abogando por una distribución más amplia para acelerar la innovación y la comprensión de la tecnología.
Mythos se ha convertido en un punto central en ese debate. Las capacidades del modelo han sido enmarcadas por Anthropic como un avance defensivo —permitiendo una detección más rápida de fallas críticas de software— y un riesgo ofensivo potencial si se usa indebidamente. A principios de este mes, identificó cientos de vulnerabilidades en el navegador Firefox de Mozilla durante las pruebas y también ha demostrado la capacidad de llevar a cabo simulaciones de ciberataques de varias etapas.
Anthropic ha restringido el acceso al sistema a través del Proyecto Glasswing, otorgando a empresas selectas como Amazon, Apple y Microsoft la capacidad de probar sus capacidades. La compañía también ha destinado recursos significativos para apoyar los esfuerzos de seguridad de código abierto, argumentando que los defensores deberían beneficiarse de la tecnología antes de que esté más ampliamente disponible.
El modelo también ha expuesto las limitaciones en los sistemas de evaluación de IA existentes, con Anthropic reconociendo que muchos de los puntos de referencia actuales de ciberseguridad ya no son suficientes para medir las capacidades de su último sistema.
Dicho esto, un grupo de investigadores afirmó la semana pasada que pudieron reproducir los hallazgos de Mythos utilizando modelos disponibles públicamente.
A pesar de los llamamientos dentro de partes del gobierno de EE. UU. para detener el uso de la tecnología por preocupaciones sobre sus posibles aplicaciones en la guerra y la vigilancia, la Agencia de Seguridad Nacional (NSA) ha comenzado, según se informa, a probar una versión preliminar del modelo en redes clasificadas. En el mercado de predicción Myriad, propiedad de la empresa matriz de Decrypt, Dastan, los usuarios asignaron un 49% de probabilidad de que Claude Mythos sea lanzado al público en general antes del 30 de junio.
Altman sugirió que la retórica en torno a los sistemas de IA altamente peligrosos puede aumentar a medida que mejoran las capacidades, pero argumentó que no todas esas afirmaciones deben tomarse al pie de la letra.
"Habrá mucha más retórica sobre modelos que son demasiado peligrosos para lanzar. También habrá modelos muy peligrosos que tendrán que lanzarse de diferentes maneras", dijo. "Estoy seguro de que Mythos es un gran modelo para la ciberseguridad, pero creo que tenemos un plan con el que nos sentimos bien sobre cómo poner este tipo de capacidad en el mundo".
Altman también desestimó las sugerencias de que OpenAI está reduciendo su gasto en infraestructura, diciendo que la compañía continuaría expandiendo su capacidad informática a pesar de las narrativas cambiantes.
"No sé de dónde viene eso... la gente realmente quiere escribir la historia de la retirada", dijo. "Pero muy pronto volverá a ser, 'OpenAI es tan imprudente. ¿Cómo pueden estar gastando esta cantidad de dinero?'".