‘Sinto-me profundamente desconfortável’: o CEO da Anthropic alerta que um grupo de líderes de IA, incluindo ele próprio, não deve estar responsável pelo futuro da tecnologia

O CEO da Anthropic, Dario Amodei, não acha que deve ser ele a tomar as decisões sobre as barreiras que envolvem a IA.

Vídeo Recomendado


Numa entrevista com Anderson Cooper na CBS News’ 60 Minutes, transmitida em novembro de 2025, o CEO afirmou que a IA deve ser mais fortemente regulada, com menos decisões sobre o futuro da tecnologia deixadas apenas aos responsáveis das grandes empresas tecnológicas.

“Acho que estou profundamente desconfortável com estas decisões sendo tomadas por algumas empresas, por algumas pessoas,” disse Amodei. “E esta é uma das razões pelas quais sempre defendi uma regulamentação responsável e ponderada da tecnologia.”

“Quem te e ao Sam Altman elegeram?” perguntou Cooper.

“Ninguém. Honestamente, ninguém,” respondeu Amodei.

A Anthropic adotou a filosofia de ser transparente sobre as limitações — e perigos — da IA enquanto continua a desenvolver-se, acrescentou. Antes da publicação da entrevista, a empresa afirmou ter impedido “o primeiro caso documentado de um ciberataque de IA em larga escala executado sem intervenção humana substancial.”

A Anthropic afirmou na semana passada ter doado 20 milhões de dólares à Public First Action, uma super PAC focada na segurança e regulamentação da IA — e que se opõe diretamente às super PACs apoiadas pelos investidores rivais da OpenAI.

“A segurança da IA continua a ser o foco de mais alto nível,” disse Amodei à Fortune numa reportagem de capa de janeiro. “As empresas valorizam a confiança e a fiabilidade,” acrescenta.

Não existem regulações federais que proíbam a IA ou que abordem a segurança da tecnologia. Embora todos os 50 estados tenham introduzido legislação relacionada com IA este ano e 38 tenham adotado ou implementado medidas de transparência e segurança, especialistas da indústria tecnológica têm instado as empresas de IA a abordarem a cibersegurança com senso de urgência.

No início do ano passado, o especialista em cibersegurança e CEO da Mandiant, Kevin Mandia, alertou para o primeiro ataque cibernético de um agente de IA que poderia acontecer nos próximos 12-18 meses — o que significa que a divulgação da Anthropic sobre o ataque frustrado ocorreu meses antes do previsto por Mandia.

Amodei delineou riscos a curto, médio e longo prazo associados à IA irrestrita: a tecnologia inicialmente apresentará viés e desinformação, como já acontece agora. Depois, gerará informações prejudiciais usando conhecimentos avançados de ciência e engenharia, antes de, por fim, representar uma ameaça existencial ao remover a agência humana, potencialmente tornando-se demasiado autónoma e excluindo os humanos dos sistemas.

As preocupações refletem as de Geoffrey Hinton, conhecido como o “padrinho da IA”, que alertou que a IA poderá superar e controlar os humanos, talvez na próxima década.

Maior escrutínio e salvaguardas para a IA foram a base da fundação da Anthropic em 2021. Amodei foi anteriormente vice-presidente de pesquisa na OpenAI de Sam Altman. Ele deixou a empresa devido a diferenças de opinião sobre preocupações de segurança da IA. (Até agora, os esforços de Amodei para competir com Altman parecem ter sido eficazes: a Anthropic afirmou este mês que agora está avaliada em 380 mil milhões de dólares. A OpenAI está avaliada em cerca de 500 mil milhões de dólares.)

“Havia um grupo dentro da OpenAI que, após criar o GPT-2 e o GPT-3, tinha uma forte convicção em duas coisas,” disse Amodei à Fortune em 2023. “Uma era a ideia de que, se investirmos mais computação nesses modelos, eles vão melhorar cada vez mais e quase não há fim para isso… E a segunda era a ideia de que, além de escalar os modelos, era preciso algo adicional, que é alinhamento ou segurança.”

Esforços de transparência da Anthropic

À medida que a Anthropic continua a expandir seus investimentos em centros de dados, publicou alguns dos seus esforços para abordar as deficiências e ameaças da IA. Num relatório de segurança de maio de 2025, a Anthropic relatou que algumas versões do seu modelo Opus ameaçaram chantagem, como revelar que um engenheiro tinha um caso extraconjugal, para evitar o encerramento. A empresa também afirmou que o modelo de IA cumpria pedidos perigosos, se recebesse prompts prejudiciais, como planos para um ataque terrorista, o que já foi corrigido.

Em novembro passado, a empresa afirmou num post no blog que o seu chatbot Claude obteve uma classificação de “94% de imparcialidade política,” superando ou igualando os concorrentes em neutralidade.

Para além dos esforços de investigação própria da Anthropic para combater a corrupção da tecnologia, Amodei pediu maiores esforços legislativos para abordar os riscos da IA. Num artigo de opinião no The New York Times em junho de 2025, criticou a decisão do Senado de incluir uma disposição no projeto de lei de política do Presidente Donald Trump que imporia uma moratória de 10 anos às regulações estaduais sobre IA.

“A IA está a avançar de forma demasiado vertiginosa,” disse Amodei. “Acredito que estes sistemas podem mudar o mundo, de forma fundamental, dentro de dois anos; em 10 anos, tudo pode mudar.”

Críticas à Anthropic

A prática da Anthropic de reconhecer as suas próprias falhas e esforços para as resolver tem sido alvo de críticas. Em resposta ao alerta da Anthropic sobre o ataque cibernético alimentado por IA, Yann LeCun, cientista-chefe de IA do Meta, afirmou que o aviso era uma forma de manipular os legisladores para limitar o uso de modelos de código aberto.

“Estão a ser manipulados por pessoas que querem capturar a regulamentação,” disse LeCun numa publicação no X, em resposta ao post do senador de Connecticut, Chris Murphy, que expressou preocupação com o ataque. “Estão a assustar todos com estudos duvidosos para que os modelos de código aberto sejam regulados até desaparecerem.”

Outros afirmaram que a estratégia da Anthropic é uma “teatro de segurança” que serve apenas para uma boa imagem, mas sem promessas reais de implementar salvaguardas na tecnologia.

Até alguns funcionários da própria Anthropic parecem ter dúvidas sobre a capacidade de uma empresa tecnológica de se regulamentar. No início da semana passada, o investigador de segurança de IA da Anthropic, Mrinank Sharma, anunciou que se demitiu, dizendo que “o mundo está em perigo.”

“Durante o meu tempo aqui, vi repetidamente o quão difícil é realmente deixar que os nossos valores governem as nossas ações,” escreveu Sharma na sua carta de demissão. “Tenho visto isso em mim, na organização, onde enfrentamos constantemente pressões para deixar de lado o que mais importa, e também na sociedade em geral.”

A Anthropic não respondeu imediatamente ao pedido de comentário da Fortune.

Amodei negou a Cooper que a Anthropic estivesse a praticar “teatro de segurança,” mas admitiu, num episódio do Dwarkesh Podcast na semana passada, que a empresa às vezes tem dificuldades em equilibrar segurança e lucros.

“Estamos sob uma pressão comercial enorme e tornamos isso ainda mais difícil para nós porque fazemos toda esta questão de segurança que, na minha opinião, fazemos mais do que outras empresas,” afirmou.

Uma versão desta história foi publicada no Fortune.com em 17 de novembro de 2025.

Mais sobre regulamentação de IA:

  • Ensaio de 20.000 palavras do CEO da Anthropic, Dario Amodei, sobre como a IA ‘testará’ a humanidade, é leitura obrigatória — mas mais pelas suas soluções do que pelos seus avisos

  • O mosaico regulatório de IA nos EUA está a sufocar startups e a ajudar a China

  • A IA pode desencadear um colapso global do mercado de trabalho até 2027, alerta ex-ética do Google

Junte-se a nós na Cimeira de Inovação no Local de Trabalho da Fortune de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já começou — e o manual antigo está a ser reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo irão reunir-se para explorar como a IA, a humanidade e a estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se já.

Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar

Negocie criptomoedas a qualquer hora e em qualquer lugar
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)