¿De qué se trata realmente la saga sobre la seguridad de la IA de Anthropic?
Análisis por Lisa Eadicicco y David Goldman, CNN
Anthropic ha llegado a una encrucijada interna: cómo escalar sin comprometer los principios que la distinguen.
La empresa de inteligencia artificial (IA) ha hecho de la seguridad su principio rector. Abogó por la regulación de la IA y exigió la protección de los trabajadores, ya que la IA sustituye algunas tareas humanas. Anthropic se ha esforzado por transmitir un mensaje específico a sus clientes: somos los buenos.
Sin embargo, las barreras autoimpuestas que la empresa estableció para construir esa marca ahora pueden estar formando obstáculos para su éxito.
Esta semana, el Pentágono le dio a Anthropic un ultimátum: si eliminaba las restricciones éticas de la IA, perdería su contrato de US$ 200 millones y se incorporaría a una “lista negra” del Gobierno. Por otra parte, también esta semana, Anthropic flexibilizó su política de seguridad básica para darle a la empresa mayor libertad para crecer en un mercado competitivo y dinámico.
No está claro cómo se desarrollará esta semana para el negocio de Anthropic y su reputación, pero sus decisiones tendrán consecuencias.
Lo sabemos porque el dilema de Anthropic es familiar en la industria tecnológica. Muchas empresas presumen de sus valores y moralidad solo para enfrentarse a decisiones difíciles que las obligan a elegir entre crecer y mantener esos ideales.
Tal vez Anthropic quiera tomar nota.
Hace poco más de dos años, el mayor rival de Anthropic tuvo que enfrentarse al mismo dilema sobre el crecimiento a costa de la seguridad.
En uno de los dramas de directorio más extraños en la historia corporativa, el principal rival de Anthropic, OpenAI, despidió abruptamente a su fundador y CEO, Sam Altman, un viernes de noviembre de 2023, solo para volver a contratarlo el martes siguiente.
La saga involucró una estructura corporativa única que colocó a la empresa con fines de lucro, de rápido crecimiento, detrás de ChatGPT bajo los auspicios de una junta directiva sin fines de lucro. Cuatro años antes, la empresa había escrito en sus estatutos que OpenAI seguía “preocupada” por el potencial de la IA para “generar un cambio rápido” en la humanidad. Los supervisores de la empresa temían que Altman actuara tan rápido que se arriesgara a socavar la seguridad que la empresa se había comprometido a brindar.
Pero el despido de Altman causó amenazas de un éxodo masivo de empleados, una situación insostenible que podría haber llevado a la ruina de la empresa. Por ello, la junta directiva recontrató a Altman unos días después. La junta se disolvió al poco tiempo, y Altman modificó la estructura corporativa el año pasado para liberarse de su supervisor sin fines de lucro.
Desde entonces, OpenAI ha luchado por encontrar un equilibrio entre velocidad y seguridad, y se ha enfrentado a varias demandas que alegan que sus productos convencieron a jóvenes de autolesionarse. OpenAI niega estas acusaciones.
Syed Farook y su esposa, Tashfeen Malik, mataron a 14 personas en el Centro Regional Inland en San Bernardino, California, en diciembre de 2015. La pareja murió más tarde en un tiroteo con la Policía.
Los investigadores obtuvieron permiso para recuperar datos del iPhone de Farook, pero no pudieron acceder porque estaba bloqueado con una contraseña. Un juez de California ordenó a Apple que ayudara a las fuerzas del orden a acceder al teléfono.
Pero en una carta abierta, firmada por el CEO de Apple, Tim Cook, la compañía se negó. Cook afirmó que la orden del juez abriría una puerta trasera al iPhone, algo que consideramos demasiado peligroso de crear. La compañía afirmó no tener simpatía por los terroristas, pero que acatar la orden otorgaría a las autoridades gubernamentales la facultad de acceder al dispositivo de cualquier persona y capturar sus datos.
Apple recibió fuertes críticas por su decisión, incluso del entonces candidato presidencial Donald Trump. Sin embargo, desde entonces ha recibido elogios generalizados por defender la privacidad de sus clientes, que se ha convertido en un símbolo de la marca de la compañía.
La compañía ahora promociona rutinariamente que no venderá datos de clientes ni almacenará cierta información personal en sus servidores, tratando de diferenciarse de Google, uno de sus principales competidores.
Cuando el imperio de comercio electrónico de Amazon recién comenzaba a despegar a principios de la década de 2000, Etsy surgió como una alternativa novedosa donde los compradores podían encontrar productos únicos hechos a mano.
Pero en 2013 implementó un cambio controvertido que amenazó con cuestionar esa filosofía. Amplió su política para permitir a los vendedores recurrir a fabricantes y tercerizar operaciones, lo que en aquel momento generó preocupación por la posibilidad de que ya no brindaría igualdad de condiciones a los pequeños vendedores independientes sin recursos para contratar personal.
Aun así, esa decisión fue fundamental para que Etsy se expandiera hasta convertirse en el mercado que es hoy, que ofrece más de 100 millones de artículos a la venta y cuenta con aproximadamente 8 millones de vendedores activos.
“Desde un punto de vista comercial, funcionó para Etsy, pero fue un momento difícil para la empresa”, dijo Arun Sundararajan, director del Centro Fubon de Tecnología, Negocios e Innovación de NYU Stern.
Estos estudios de caso ofrecen una hoja de ruta de advertencia para Anthropic.
Ahora, el mayor desafío a corto plazo para Anthropic probablemente sea si los clientes y potenciales clientes valoran y confían en la empresa, dijo Owen Daniels, director asociado de análisis del Centro de Seguridad y Tecnología Emergente de Georgetown.
Anthropic afirmó que sus medidas de seguridad autoimpuestas siempre fueron flexibles y sujetas a cambios a medida que la IA evoluciona. Se comprometió a ser transparente en materia de seguridad en el futuro y afirmó que realmente no tenía otra opción: si dejaba de crecer, los competidores que no valoran tanto la seguridad podrían imponerse y hacer que la IA sea “menos segura” en general.
No está claro qué resultará del cambio de Anthropic, porque los riesgos existenciales de la IA todavía son en gran medida “conceptuales”, señaló Sundararajan.
Dijo que desconfiaría de cualquier experto que considerara este un momento crucial en la seguridad de la IA. Pero podría serlo para la empresa.
“Para mí, el hecho de que Anthropic haya dado marcha atrás en una promesa de seguridad específica tiene más que ver con Anthropic que con el futuro de la IA”, afirmó.
The-CNN-Wire
™ & © 2026 Cable News Network, Inc., a Warner Bros. Discovery Company. All rights reserved.