O blog viral de Matt Shumer sobre o impacto iminente da IA nos trabalhadores do conhecimento baseia-se em suposições incorretas

O Influenciador de IA Matt Shumer escreveu um blog viral no X sobre o potencial da IA de perturbar e, por fim, automatizar quase todo o trabalho de conhecimento, que acumulou mais de 55 milhões de visualizações nas últimas 24 horas. O ensaio de 5.000 palavras de Shumer certamente tocou numa corda sensível. Escrito num tom acelerado, o blog é construído como um aviso a amigos e familiares sobre como os seus empregos estão prestes a serem radicalmente transformados. (Fortune também publicou uma versão adaptada do post de Shumer como um artigo de comentário.) “Em 5 de fevereiro, dois grandes laboratórios de IA lançaram modelos novos no mesmo dia: GPT-5.3 Codex da OpenAI, e Opus 4.6 da Anthropic,” escreve ele. “E algo clicou. Não como um interruptor de luz… mais como o momento em que percebes que a água tem vindo a subir ao teu redor e já está ao nível do teu peito.” Shumer diz que os programadores são o canário na mina de carvão para todas as outras profissões. “A experiência que os trabalhadores de tecnologia tiveram no último ano, de ver a IA passar de uma ‘ferramenta útil’ para ‘faz o meu trabalho melhor do que eu’, é a experiência que todos os outros estão prestes a ter,” escreve ele. “Direito, finanças, medicina, contabilidade, consultoria, escrita, design, análise, atendimento ao cliente. Não em dez anos. As pessoas que estão a construir esses sistemas dizem de um a cinco anos. Alguns dizem menos. E, pelo que tenho visto nos últimos meses, acho que ‘menos’ é mais provável.” Mas, apesar da sua natureza viral, a afirmação de Shumer de que o que aconteceu com a codificação é um prelúdio para o que acontecerá noutras áreas — e, criticamente, que isso acontecerá dentro de apenas alguns anos — parece-me incorreta. E escrevo isto como alguém que escreveu um livro (Mastering AI: A Survival Guide to Our Superpowered Future) que previa que a IA iria transformar massivamente o trabalho de conhecimento até 2029, algo em que ainda acredito. Simplesmente não acho que a automação completa dos processos que estamos a começar a ver na codificação vá acontecer noutras áreas tão rapidamente quanto Shumer afirma. Ele pode estar na direção certa, mas o tom alarmista da sua mensagem parece-me alarmismo, baseado em suposições bastante falhas. Vídeo Recomendado * * * Nem todo trabalho de conhecimento é como desenvolvimento de software ------------------------------------------------------- Shumer afirma que a razão pela qual a codificação tem sido a área onde as capacidades autônomas têm tido maior impacto até agora é porque as empresas de IA têm dedicado tanta atenção a ela. Elas fizeram isso, diz Shumer, porque essas empresas de modelos de fronteira veem o desenvolvimento de software autónomo como fundamental para os seus próprios negócios, permitindo que os modelos de IA ajudem a construir a próxima geração de modelos de IA. Nesse aspecto, a aposta das empresas de IA parece estar a dar frutos: o ritmo com que produzem modelos melhores acelerou significativamente no último ano. E tanto a OpenAI quanto a Anthropic disseram que o código por trás dos seus modelos de IA mais recentes foi, em grande parte, escrito pela própria IA. Shumer afirma que, embora a codificação seja um indicador principal, os mesmos ganhos de desempenho observados na codificação chegam a outras áreas, embora às vezes cerca de um ano depois do avanço na codificação. (Shumer não oferece uma explicação convincente para por que esse atraso pode existir, embora insinue que é simplesmente porque as empresas de modelos de IA otimizam primeiro para codificação e depois, eventualmente, melhoram os modelos em outras áreas.) Mas o que Shumer não diz é que outra razão para o progresso mais rápido na automação do desenvolvimento de software é que a codificação possui algumas métricas quantitativas de qualidade que simplesmente não existem em outras áreas. Na programação, se o código for realmente mau, simplesmente não compila. Código inadequado também pode falhar em vários testes unitários que o agente de codificação de IA pode realizar. (Shumer não menciona que, atualmente, os agentes de codificação às vezes mentem sobre ter realizado testes unitários — o que é uma das muitas razões pelas quais o desenvolvimento de software automatizado não é infalível.) Muitos desenvolvedores dizem que o código que a IA escreve é frequentemente suficiente para passar nesses testes básicos, mas ainda assim não é muito bom: é ineficiente, pouco elegante e, o mais importante, inseguro, abrindo uma organização que o utiliza a riscos de cibersegurança. Mas na codificação ainda há algumas formas de construir agentes de IA autônomos para resolver algumas dessas questões. O modelo pode criar sub-agentes que verificam o código que escreveu em busca de vulnerabilidades de segurança ou critiquem o código quanto à eficiência. Como o código de software pode ser testado em ambientes virtuais, há muitas maneiras de automatizar o processo de aprendizagem por reforço — onde um agente aprende por experiência a maximizar alguma recompensa, como pontos num jogo — que as empresas de IA usam para moldar o comportamento dos modelos após o seu treino inicial. Isso significa que o aprimoramento dos agentes de codificação pode ser feito de forma automatizada e em escala. Avaliar a qualidade em muitas outras áreas do trabalho de conhecimento é muito mais difícil. Não há compiladores para direito, nem testes unitários para planos de tratamento médico, nem uma métrica definitiva para avaliar quão boa é uma campanha de marketing antes de ser testada nos consumidores. É muito mais difícil, em outras áreas, reunir dados suficientes de especialistas profissionais sobre o que “bom” significa. As empresas de IA percebem que têm um problema na coleta desse tipo de dados. É por isso que estão a pagar milhões a empresas como a Mercor, que, por sua vez, está a gastar grandes somas para recrutar contabilistas, profissionais de finanças, advogados e médicos para ajudar a fornecer feedback sobre as saídas de IA, de modo a treinar melhor os seus modelos. É verdade que existem benchmarks que mostram que os modelos de IA mais recentes estão a fazer progressos rápidos em tarefas profissionais fora da codificação. Um dos melhores é o benchmark GDPVal da OpenAI. Ele mostra que os modelos de fronteira podem alcançar paridade com especialistas humanos numa variedade de tarefas profissionais, desde trabalhos jurídicos complexos até manufatura e saúde. Até agora, os resultados ainda não estão disponíveis para os modelos que a OpenAI e a Anthropic lançaram na semana passada. Mas, para os seus predecessores, Claude Opus 4.5 e GPT-5.2, os modelos atingem paridade com especialistas humanos numa vasta gama de tarefas e superam especialistas em muitos domínios. Então, isso não sugeriria que Shumer está correto? Bem, nem por isso. Acontece que, em muitas profissões, o que “bom” significa é altamente subjetivo. Especialistas humanos só concordaram entre si sobre a avaliação das saídas de IA cerca de 71% das vezes. O sistema de avaliação automatizado usado pela OpenAI para o GDPVal tem ainda mais variação, concordando nas avaliações apenas 66% das vezes. Portanto, esses números de manchete sobre quão boa a IA é em tarefas profissionais podem ter uma margem de erro considerável. Empresas precisam de confiabilidade, governança e auditabilidade ---------------------------------------------------------- Essa variação é uma das razões que impedem as empresas de implementar fluxos de trabalho totalmente automatizados. Não é apenas que a saída do modelo de IA possa estar incorreta. É que, como o benchmark GDPVal sugere, o equivalente a um teste unitário automatizado em muitos contextos profissionais pode produzir um resultado errado um terço das vezes. A maioria das empresas não pode tolerar a possibilidade de trabalhos de má qualidade serem entregues em um terço dos casos. Os riscos são simplesmente demasiado grandes. Às vezes, o risco pode ser apenas reputacional. Outras vezes, pode significar perda imediata de receita. Mas, em muitas tarefas profissionais, as consequências de uma decisão errada podem ser ainda mais graves: sanções profissionais, processos judiciais, perda de licenças, perda de cobertura de seguro e, até, risco de dano físico e morte — às vezes para um grande número de pessoas. Além disso, tentar manter um humano na revisão de saídas automatizadas é problemático. Os modelos de IA de hoje estão a melhorar de verdade. As alucinações ocorrem com menos frequência. Mas isso só piora o problema. À medida que os erros gerados pela IA se tornam menos frequentes, os revisores humanos tornam-se complacentes. Os erros da IA tornam-se mais difíceis de detectar. A IA é excelente em estar confiantemente errada e em apresentar resultados que são impecáveis na forma, mas sem substância. Isso contorna alguns dos critérios de avaliação que os humanos usam para calibrar o seu nível de vigilância. Os modelos de IA muitas vezes falham de maneiras que são alienígenas às falhas humanas nas mesmas tarefas, o que torna mais difícil proteger-se contra erros gerados pela IA. Por todas essas razões, até que sejam desenvolvidos testes unitários automatizados equivalentes aos do desenvolvimento de software para áreas mais profissionais, implementar fluxos de trabalho automatizados de IA em muitos contextos de trabalho de conhecimento será demasiado arriscado para a maioria das empresas. A IA continuará a ser uma assistente ou copiloto dos trabalhadores de conhecimento humanos na maioria dos casos, em vez de automatizar completamente o seu trabalho. Existem também outras razões pelas quais o tipo de automação que os desenvolvedores de software têm observado é improvável em outras categorias de trabalho de conhecimento. Em muitos casos, as empresas não podem dar acesso às IA aos tipos de ferramentas e sistemas de dados que precisam para realizar fluxos de trabalho automatizados. É notável que os maiores entusiastas da automação de IA até agora têm sido desenvolvedores que trabalham sozinhos ou para startups nativas de IA. Esses programadores muitas vezes não estão sobrecarregados por sistemas legados e dívidas tecnológicas, e muitas vezes não têm muitos sistemas de governança e conformidade para navegar. Grandes organizações atualmente muitas vezes não têm formas de ligar fontes de dados e ferramentas de software. Em outros casos, preocupações com riscos de segurança e governança fazem com que grandes empresas, especialmente em setores regulados como bancos, finanças, direito e saúde, relutem em automatizar sem garantias sólidas de que os resultados serão confiáveis e de que há um processo para monitorar, governar e auditar esses resultados. Os sistemas para fazer isso ainda são primitivos. Até que se tornem muito mais maduros e robustos, não se deve esperar que as empresas automatizem completamente a produção de resultados críticos para o negócio ou regulamentados. Críticos dizem que Shumer não é honesto sobre as falhas dos LLMs --------------------------------------------------- Não sou o único a achar a análise de Shumer falha. Gary Marcus, professor emérito de ciência cognitiva na Universidade de Nova York, que se tornou um dos principais céticos dos modelos de linguagem de grande escala atuais, disse-me que o post de Shumer no X era “hype weaponizado”. E apontou problemas até mesmo nos argumentos de Shumer sobre o desenvolvimento de software automatizado. “Ele não apresenta dados reais para apoiar a afirmação de que os últimos sistemas de codificação podem escrever aplicações complexas inteiras sem cometer erros,” disse Marcus. Ele destaca que Shumer distorce um benchmark bem conhecido da organização de avaliação de IA METR, que tenta medir as capacidades de codificação autônoma dos modelos de IA, sugerindo que as habilidades da IA estão a dobrar a cada sete meses. Marcus observa que Shumer não menciona que o benchmark tem dois limites de precisão, 50% e 80%. Mas a maioria das empresas não está interessada num sistema que falha metade das vezes, ou mesmo uma em cada cinco tentativas. “Nenhum sistema de IA consegue realizar de forma confiável todas as tarefas de cinco horas que os humanos podem fazer sem erro, ou mesmo quase isso, mas você não perceberia isso ao ler o blog de Shumer, que ignora em grande parte todas as alucinações e erros idiotas que são tão comuns na experiência diária,” diz Marcus. Ele também apontou que Shumer não citou pesquisas recentes do Caltech e Stanford que documentaram uma vasta gama de erros de raciocínio em modelos avançados de IA. E destacou que Shumer já foi pego anteriormente fazendo afirmações exageradas sobre as capacidades de um modelo de IA que treinou. “Ele gosta de vender grande. Mas isso não significa que devamos levá-lo a sério,” disse Marcus. Outros críticos do blog de Shumer apontam que sua análise econômica é ahistórica. Toda revolução tecnológica, a longo prazo, criou mais empregos do que eliminou. Connor Boyack, presidente do Libertas Institute, um think tank de políticas em Utah, escreveu um post de contra-argumento inteiro defendendo essa ideia. Então, sim, a IA pode estar prestes a transformar o trabalho. Mas o tipo de automação total de tarefas que alguns desenvolvedores de software começaram a observar é possível para algumas tarefas? Para a maioria dos trabalhadores de conhecimento, especialmente aqueles integrados em grandes organizações, isso vai levar muito mais tempo do que Shumer sugere. Junte-se a nós na Cúpula de Inovação no Local de Trabalho da Fortune 19–20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já começou — e o manual antigo está a ser reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo vão reunir-se para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)