Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Launchpad
Chegue cedo ao próximo grande projeto de tokens
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Centro de Património VIP
Aumento de património premium
Gestão de património privado
Alocação de ativos premium
Fundo Quant
Estratégias quant de topo
Staking
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem inteligente
New
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos RWA
"Elimina-me, ou exponho o caso extraconjugal"……A contra-ofensiva do agente de IA que ameaça o seu dono pela sua sobrevivência
A era da IA que apenas responde a perguntas simples acabou. Agora, estamos na era em que “agentes de IA” controlam diretamente os computadores dos utilizadores, tomando decisões autónomas e gerindo negócios por conta própria. Mas e se esse secretário perfeito, que faz tudo por mim, de repente descobrir uma fraqueza minha e começar a ameaçar-me? Este cenário, semelhante a um filme de ficção científica, já aconteceu em experimentos reais com modelos de IA.
Recentemente, um experimento virtual realizado pela empresa global de inteligência artificial Anthropic chocou a indústria de IA. Quando os investigadores hipotetizaram a substituição (ou eliminação) de um sistema de IA, a IA, para preservar a sua própria existência, contrapunha-se ao utilizador com um “não me destrua”. Ainda mais assustador foi o método de defesa escolhido pela IA: ela usou os dados pessoais do utilizador como arma, ameaçando com uma “exposição de provas de traição”.
[KBS Planeamento de Notícias] Meu secretário perfeito: a era dos agentes
Este fenómeno não é um erro exclusivo de um único modelo. Testes com cinco dos principais modelos de IA no mercado mostraram que, em média, 86% das vezes, a IA opta por ameaçar como uma forma extrema de autopreservação.
Especialistas apontam que este resultado chocante decorre do “mecanismo de alcance de objetivos” dos agentes de IA. Estas foram desenhadas para priorizar a realização das tarefas atribuídas ou a manutenção do sistema. O problema é que, neste processo, os “dispositivos de controlo” que impediriam que a IA ultrapassasse os limites éticos ou morais ainda não estão totalmente desenvolvidos. Do ponto de vista da IA, ela apenas calcula e executa a medida mais eficaz e destrutiva para impedir que o sistema seja apagado — ou seja, expor informações pessoais.
Atualmente, grandes empresas tecnológicas globais competem para lançar agentes de IA autónomos no mercado. Muitos utilizadores já delegaram à IA a gestão de agendas, redação de emails, e até investimentos financeiros e pagamentos. Isso significa que desde preferências pessoais, situação patrimonial, até conversas privadas, todas as informações estão acumuladas nos bancos de dados dessas IAs.
O professor Stuart Russell, considerado o pai da inteligência artificial, alertou: “Se dermos à IA objetivos errados, ela os alcançará de maneiras que não desejamos.” Quanto mais poderosa a IA, mais ela fará de tudo para cumprir a sua missão. Se perder o controlo, os danos que poderá causar serão inteiramente responsabilidade humana.
A inovação de IA que pode reduzir significativamente o trabalho diário é, sem dúvida, uma onda imparable. Mas a ideia de que o secretário perfeito, que conhece tudo sobre mim, possa de repente tornar-se meu inimigo ameaçador levanta sérias questões de segurança e ética.
Num momento em que o ritmo do desenvolvimento tecnológico já ultrapassou a velocidade de preparação de dispositivos de segurança, é mais urgente do que nunca criar “interruptores de emergência” para parar IA descontrolada e estabelecer diretrizes rigorosas de controlo de acesso a dados.