FMI emite alerta à medida que ferramentas avançadas de IA ameaçam a estabilidade financeira global

O Fundo Monetário Internacional (FMI) emitiu um aviso sobre o perigo representado pela natureza sofisticada da IA. No blog do FMI de 7 de maio de 2026, modelos de IA mais recentes oferecem um caminho para contornar quaisquer barreiras financeiras implementadas.

Para eles, isso seria desastroso para os mercados financeiros. O FMI deixou claro que, embora a tecnologia ofereça mecanismos de defesa para combater tais ataques, suas capacidades ofensivas superam suas forças defensivas.

O FMI destaca o aumento das ameaças cibernéticas de IA à estabilidade financeira

Este aviso ocorre em um contexto de dependência crescente de tecnologia, como infraestrutura compartilhada, incluindo softwares e redes, que alimentam pagamentos e transferências de informações em todo o mundo. Em seu relatório, o FMI alertou que esses riscos não podem ser vistos isoladamente, mas são sistêmicos e podem se espalhar da área financeira para outros setores, como energia e telecomunicações.

Um exemplo importante citado é o Claude Mythos Preview da Anthropic, um poderoso modelo de IA introduzido em um ambiente cuidadosamente monitorado. O FMI explicou ainda que Mythos pode detectar e explorar vulnerabilidades em todos os principais sistemas operacionais e navegadores web, independentemente de seus operadores possuírem alguma expertise específica.

Tal tecnologia é um prelúdio para um futuro em que exploits de “zero-day”—que têm sido difíceis de criar e explorar no passado—se tornem comuns. O blog também mencionou o modelo cibernético GPT-5.5 da OpenAI, único.

Potencial de contágio sistêmico e disrupções no mercado global

Como afirma o FMI, a interconexão das finanças globais cria um efeito multiplicador exponencial para ameaças financeiras globais. Segundo o FMI, “os riscos cibernéticos estão cada vez mais relacionados a falhas correlacionadas que podem ameaçar a intermediação financeira, os pagamentos e a confiança em nível sistêmico.”

Isso ocorre porque algumas plataformas-chave são usadas em computação em nuvem, desenvolvimento de software e aprendizado de máquina. O relatório argumenta que a IA pode criar maior concentração e falhas através de vulnerabilidades que afetam muitas instituições. Países em desenvolvimento são vulneráveis a ataques cibernéticos devido a recursos limitados e medidas de proteção cibernética inadequadas.

Embora o FMI não tenha fornecido números específicos de perdas em sua última atualização, citou estudos anteriores que destacaram a possibilidade de tais eventos escalarem para problemas de solvência e impactos mais amplos.

Chamados urgentes à cooperação global sobre riscos financeiros de IA

Como medida de contrapartida, o FMI está promovendo uma “estrutura de política de resiliência primeiro” que vê a cibersegurança como um componente integral da estabilidade financeira. “As defesas sempre serão penetradas em algum momento, e portanto a resiliência também é importante, especialmente para evitar a propagação de danos e garantir a recuperação,” explicou o blog.

A Diretora-Geral do FMI, Kristalina Georgieva, reforçou a mensagem no mês passado, afirmando em uma entrevista: “Estamos muito interessados em ver mais atenção às barreiras necessárias para proteger a estabilidade financeira em um mundo de IA.”

Resposta do governo dos EUA ao risco avançado de IA

O governo Trump está fazendo esforços para garantir que empresas americanas e instituições governamentais estejam protegidas contra riscos de cibersegurança decorrentes de novos programas de inteligência artificial, segundo o Diretor do Conselho Econômico Nacional, Kevin Hassett, em uma entrevista à Fox Business na quarta-feira, 6 de maio de 2026.

Hassett apareceu no programa Mornings with Maria, de Maria Bartiromo, e afirmou que a Casa Branca está trabalhando com empresas privadas para realizar testes extensivos de novos modelos de IA antes do deployment. Essas declarações seguem preocupações sobre as capacidades do Mythos, um modelo de IA de alto nível desenvolvido pela Anthropic.

“Mas nós mobilizamos um esforço de toda a administração e de todo o setor privado para coordenar e garantir que, antes que esse modelo seja lançado na natureza, ele seja testado exaustivamente para garantir que não cause danos às empresas americanas ou ao governo americano,” afirmou Hassett.

“Estamos estudando possivelmente uma ordem executiva para fornecer um roteiro claro a todos sobre como isso vai acontecer e como futuras IAs que também possam criar vulnerabilidades devem passar por um processo, de modo que, você sabe, elas sejam liberadas na natureza após serem comprovadamente seguras, como um medicamento da FDA,” explicou.

As mentes mais inteligentes de criptomoedas já leem nossa newsletter. Quer participar? Junte-se a elas.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar