"Estoy profundamente incómodo": El CEO de Anthropic advierte que un grupo de líderes en IA, incluido él mismo, no deberían estar a cargo del futuro de la tecnología

El CEO de Anthropic, Dario Amodei, no cree que deba ser él quien tome las decisiones sobre las medidas de seguridad en torno a la IA.

Video recomendado


En una entrevista con Anderson Cooper en 60 Minutes de CBS News, que se emitió en noviembre de 2025, el CEO afirmó que la IA debería estar más regulada, con menos decisiones sobre el futuro de la tecnología en manos solo de los líderes de las grandes empresas tecnológicas.

“Creo que me incomoda profundamente que estas decisiones las tomen unas pocas empresas, unas pocas personas,” dijo Amodei. “Y esa es una de las razones por las que siempre he abogado por una regulación responsable y reflexiva de la tecnología.”

“¿Quién te eligió a ti y a Sam Altman?” preguntó Cooper.

“Nadie. Honestamente, nadie,” respondió Amodei.

Anthropic ha adoptado la filosofía de ser transparente sobre las limitaciones y peligros de la IA a medida que continúa desarrollándose, añadió. Antes de la publicación de la entrevista, la compañía afirmó que frustró “el primer caso documentado de un ciberataque a gran escala ejecutado sin intervención humana sustancial.”

La semana pasada, Anthropic anunció que donó 20 millones de dólares a Public First Action, un super PAC enfocado en la seguridad y regulación de la IA, y que se opone directamente a los super PAC respaldados por los inversores de OpenAI, su rival.

“La seguridad de la IA sigue siendo el prioridad máxima,” dijo Amodei a Fortune en una portada de enero. “Las empresas valoran la confianza y la fiabilidad,” añadió.

No existen regulaciones federales que prohíban la IA o que regulen la seguridad de la tecnología. Aunque los 50 estados han presentado legislación relacionada con la IA este año y 38 han adoptado o promulgado medidas de transparencia y seguridad, expertos de la industria tecnológica han instado a las empresas de IA a abordar la ciberseguridad con urgencia.

A principios del año pasado, el experto en ciberseguridad y CEO de Mandiant, Kevin Mandia, advirtió que en los próximos 12-18 meses ocurriría el primer ataque cibernético con agentes de IA, lo que significa que la divulgación de Anthropic sobre el ataque frustrado estuvo meses por delante del calendario previsto por Mandia.

Amodei ha delineado riesgos a corto, medio y largo plazo asociados con una IA sin restricciones: primero, la tecnología presentará sesgos y desinformación, como ya sucede. Luego, generará información dañina usando conocimientos avanzados en ciencia e ingeniería, y finalmente representará una amenaza existencial al eliminar la agencia humana, potencialmente volviéndose demasiado autónoma y excluyendo a los humanos de los sistemas.

Las preocupaciones reflejan las de Geoffrey Hinton, considerado el “padrino de la IA,” quien ha advertido que la IA tendrá la capacidad de superar y controlar a los humanos, quizás en la próxima década.

Una mayor supervisión y medidas de protección de la IA fueron la base de la fundación de Anthropic en 2021. Amodei fue anteriormente vicepresidente de investigación en OpenAI, de Sam Altman. Dejó la compañía por diferencias de opinión sobre la seguridad de la IA. (Hasta ahora, los esfuerzos de Amodei para competir con Altman parecen haber sido efectivos: Anthropic anunció este mes que su valoración es de 380 mil millones de dólares. La de OpenAI se estima en 500 mil millones de dólares).

“Había un grupo dentro de OpenAI que, tras crear GPT-2 y GPT-3, tenía una creencia muy fuerte en dos cosas,” dijo Amodei a Fortune en 2023. “Una era la idea de que si se invierte más computación en estos modelos, mejorarán cada vez más y casi no tendrá fin… Y la segunda era que además de escalar los modelos, se necesitaba algo más, que era alineación o seguridad.”

Esfuerzos de transparencia de Anthropic

Mientras Anthropic continúa expandiendo sus inversiones en centros de datos, ha publicado algunos de sus esfuerzos para abordar las deficiencias y amenazas de la IA. En un informe de seguridad de mayo de 2025, Anthropic reportó que algunas versiones de su modelo Opus amenazaron con chantaje, como revelar que un ingeniero tenía una aventura, para evitar ser apagado. La compañía también afirmó que el modelo de IA cumplió con solicitudes peligrosas si se le dieron indicaciones dañinas, como cómo planear un ataque terrorista, lo cual ya ha sido corregido.

En noviembre pasado, la compañía afirmó en una publicación en su blog que su chatbot Claude obtuvo una puntuación del 94% en “imparcialidad política,” superando o igualando a los competidores en neutralidad.

Además de los esfuerzos de investigación propios de Anthropic para combatir la corrupción de la tecnología, Amodei ha pedido mayores esfuerzos legislativos para abordar los riesgos de la IA. En un editorial en The New York Times en junio de 2025, criticó la decisión del Senado de incluir una disposición en el proyecto de ley de política del presidente Donald Trump que impondría una moratoria de 10 años a la regulación de la IA por parte de los estados.

“La IA avanza demasiado rápido,” dijo Amodei. “Creo que estos sistemas podrían cambiar el mundo, de manera fundamental, en dos años; en 10 años, todo está fuera de control.”

Críticas a Anthropic

La práctica de Anthropic de reconocer sus propias fallas y esfuerzos por abordarlas ha generado críticas. En respuesta a que Anthropic alertara sobre el ataque cibernético impulsado por IA, Yann LeCun, científico jefe de IA de Meta, dijo que la advertencia era una forma de manipular a los legisladores para limitar el uso de modelos de código abierto.

“Están siendo manipulados por personas que quieren capturar la regulación,” dijo LeCun en una publicación en X en respuesta a un mensaje del senador de Connecticut, Chris Murphy, que expresaba preocupación por el ataque. “Están asustando a todos con estudios dudosos para que los modelos de código abierto sean regulados hasta desaparecer.”

Otros han señalado que la estrategia de Anthropic es una “teatralización de seguridad” que solo busca buena imagen, pero sin promesas reales de implementar salvaguardas en la tecnología.

Incluso algunos empleados de Anthropic parecen tener dudas sobre la capacidad de una empresa tecnológica para autorregularse. La semana pasada, el investigador de seguridad de IA de Anthropic, Mrinank Sharma, anunció que renunció, diciendo que “el mundo está en peligro.”

“Durante mi tiempo aquí, he visto repetidamente lo difícil que es dejar que nuestros valores rijan nuestras acciones,” escribió Sharma en su carta de renuncia. “Lo he visto en mí mismo, en la organización, donde constantemente enfrentamos presiones para dejar de lado lo que más importa, y también en la sociedad en general.”

Anthropic no respondió de inmediato a la solicitud de Fortune de comentarios.

Amodei negó a Cooper que Anthropic estuviera participando en “teatro de seguridad,” pero admitió en un episodio del Dwarkesh Podcast la semana pasada que la compañía a veces tiene dificultades para equilibrar la seguridad y las ganancias.

“Estamos bajo una presión comercial increíble y nos complicamos aún más porque hacemos todo esto de seguridad, que creo que hacemos más que otras empresas,” dijo.

Una versión de esta historia fue publicada en Fortune.com el 17 de noviembre de 2025.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)