Инфлюенсер в области ИИ Мэтт Шумер написал вирусный блог в X о потенциале ИИ разрушить и в конечном итоге автоматизировать почти всю работу, связанную с знаниями, за последние 24 часа его просмотрели более 55 миллионов раз.
Эссе Шумера объемом 5000 слов определенно задело нерв. Написанное в взволнованном тоне, оно построено как предупреждение друзьям и семье о том, как их рабочие места скоро будут радикально изменены. (Fortune также опубликовала адаптированную версию поста Шумера в виде комментария.)
«5 февраля два крупных лаборатории ИИ выпустили новые модели в один день: GPT-5.3 Codex от OpenAI и Opus 4.6 от Anthropic», — пишет он. «И что-то щелкнуло. Не как выключатель света… скорее как момент, когда ты понимаешь, что вода вокруг тебя поднимается и уже по грудь.»
Шумер говорит, что программисты — это канарейка в шахте для всех остальных профессий. «Опыт, который испытали технологические работники за последний год, наблюдая, как ИИ переходит от «полезного инструмента» к «делает мою работу лучше меня», — это опыт, который скоро испытают все остальные», — пишет он. «Право, финансы, медицина, бухгалтерия, консалтинг, писательство, дизайн, анализ, обслуживание клиентов. Не через десять лет. Люди, создающие эти системы, говорят о сроках от одного до пяти лет. Некоторые — меньше. И исходя из того, что я видел за последние пару месяцев, я считаю, что «меньше» более вероятно.»
Но несмотря на вирусность, утверждение Шумера о том, что то, что произошло с кодированием, — это предыстория того, что произойдет в других сферах, и что это случится всего за несколько лет, кажется мне неправильным. И я пишу это как человек, который написал книгу (Mastering AI: A Survival Guide to Our Superpowered Future), в которой предсказывал, что ИИ кардинально преобразит работу с знаниями к 2029 году, и в этом я по-прежнему убежден. Я просто не думаю, что полная автоматизация процессов, которую мы начинаем видеть в программировании, так быстро распространится на другие области, как утверждает Шумер. Он может быть в правильном направлении, но его мрачный тон кажется мне разжиганием страха и основан в основном на ошибочных предположениях.
Рекомендуемое видео
Не вся работа с знаниями похожа на разработку программного обеспечения
Шумер говорит, что причина, по которой код стал областью, где автономные агентные возможности оказали наибольшее влияние, заключается в том, что компании, занимающиеся ИИ, уделили этому так много внимания. Они сделали это, потому что эти компании, разрабатывающие передовые модели, считают автономную разработку программного обеспечения ключом к своему бизнесу, позволяя моделям ИИ помогать создавать следующее поколение моделей ИИ. В этом, похоже, ставка компаний на ИИ оправдывается: темпы выпуска новых и лучших моделей значительно ускорились за последний год. И обе компании — OpenAI и Anthropic — заявили, что код, лежащий в основе их последних моделей ИИ, в основном написан самим ИИ.
Шумер говорит, что хотя программирование — это ведущий индикатор, те же достижения в производительности, что и в кодировании, появляются и в других областях, хотя иногда примерно с годовым запозданием. (Шумер не дает ясного объяснения, почему может существовать такая задержка, хотя подразумевает, что это просто потому, что компании, разрабатывающие модели ИИ, сначала оптимизируют их для кодирования, а затем постепенно улучшают модели в других сферах.)
Но что он не говорит, так это то, что еще одной причиной более быстрого прогресса в автоматизации разработки программного обеспечения является то, что в кодировании есть количественные метрики качества, которых просто нет в других областях. В программировании, если код очень плохой, он просто не скомпилируется. Недостаточный код также может не пройти различные модульные тесты, которые может выполнить агент ИИ. (Шумер не упоминает, что современные агенты кодирования иногда лгут о проведении модульных тестов — и это одна из причин, почему автоматическая разработка программного обеспечения не является безошибочной.)
Многие разработчики говорят, что код, который пишет ИИ, часто достаточно хорош, чтобы пройти эти базовые тесты, но все равно не очень качественный: он неэффективен, неэстетичен и, что самое важное, небезопасен, что создает риски кибербезопасности для организации, его использующей. Но в программировании все еще есть способы создавать автономных ИИ-агентов для решения некоторых из этих проблем. Модель может запускать субагентов, которые проверяют написанный код на уязвимости в кибербезопасности или критикуют его с точки зрения эффективности. Поскольку программный код можно тестировать в виртуальных средах, существует множество способов автоматизировать процесс обучения с подкреплением — когда агент учится на опыте максимизировать некоторую награду, например, очки в игре — что используют компании ИИ для формирования поведения моделей после их первоначального обучения. Это означает, что доработка кодирующих агентов может осуществляться автоматизировано и масштабируемо.
Оценка качества в многих других сферах работы с знаниями гораздо сложнее. Нет компиляторов для права, нет модульных тестов для медицинских планов, нет окончательной метрики, которая бы определяла качество маркетинговой кампании до её тестирования на потребителях. В других областях гораздо сложнее собрать достаточное количество данных от профессиональных экспертов о том, что считается «хорошим». Компании ИИ понимают, что у них есть проблема с сбором таких данных. Поэтому они сейчас платят миллионы компаниям вроде Mercor, которые, в свою очередь, нанимают бухгалтеров, финансистов, юристов и врачей для предоставления обратной связи по результатам ИИ, чтобы лучше обучать свои модели.
Верно, что существуют бенчмарки, показывающие, что последние модели ИИ быстро прогрессируют в профессиональных задачах вне программирования. Одним из лучших является бенчмарк GDPVal от OpenAI. Он показывает, что передовые модели могут достигать паритета с экспертами по ряду профессиональных задач — от сложных юридических работ до производства и здравоохранения. Пока что результаты для моделей, выпущенных OpenAI и Anthropic на прошлой неделе, еще не опубликованы. Но для их предшественников, Claude Opus 4.5 и GPT-5.2, модели достигают паритета с экспертами по разнообразным задачам и превосходят их во многих областях.
Значит ли это, что Шумер прав? Не так быстро. Оказывается, во многих профессиях то, что считается «хорошим», очень субъективно. Только около 71% оценок AI-выходов согласуются между экспертами. Автоматическая система оценки, используемая OpenAI для GDPVal, показывает еще большее расхождение — согласие только в 66% случаев. Так что эти показатели о том, насколько хорошо ИИ справляется с профессиональными задачами, могут иметь значительную погрешность.
Предприятиям нужны надежность, управление и возможность аудита
Эта вариативность — одна из причин, почему компании не спешат полностью внедрять автоматизированные рабочие процессы. Не только потому, что результат ИИ может быть ошибочным. Как показывает бенчмарк GDPVal, эквивалент автоматического модульного теста во многих профессиональных контекстах может давать ошибочный результат треть времени. Большинство компаний не могут позволить себе рисковать тем, что в третьих случаях будет выпущена работа низкого качества. Риски слишком велики. Иногда это может быть лишь репутационный риск. В других случаях — потеря немедленной прибыли. Но во многих профессиональных задачах последствия неправильного решения могут быть еще более серьезными: профессиональные санкции, судебные иски, лишение лицензий, утрата страхового покрытия и даже риск физического вреда и смерти — иногда для большого числа людей.
Более того, попытки держать человека в цепочке для проверки автоматических результатов проблематичны. Современные модели ИИ действительно становятся лучше. Галлюцинации происходят реже. Но это только усугубляет проблему. По мере уменьшения частоты ошибок, вызванных ИИ, человеческие рецензенты становятся самоуверенными. Ошибки ИИ труднее заметить. ИИ отлично умеет уверенно ошибаться и представлять результаты в безупречной форме, лишенной содержания. Это обходит некоторые прокси-критерии, которые используют люди для оценки уровня бдительности. Модели ИИ часто ошибаются в способах, чуждых человеческим ошибкам при выполнении тех же задач, что усложняет защиту от ошибок, порожденных ИИ.
По этим причинам, пока не будут разработаны аналоги автоматических модульных тестов для более профессиональных областей, внедрение автоматизированных рабочих процессов ИИ во многих сферах работы с знаниями будет слишком рискованным для большинства предприятий. ИИ останется помощником или со-пилотом для человеческих специалистов, а не полностью автоматизирует их работу.
Также есть и другие причины, почему наблюдаемая автоматизация разработчиков программного обеспечения маловероятна для других категорий работы с знаниями. Во многих случаях предприятия не могут предоставить агентам ИИ доступ к необходимым инструментам и системам данных для автоматизации процессов. Замечательно, что самые активные сторонники автоматизации ИИ — это разработчики, работающие либо самостоятельно, либо в стартапах, ориентированных на ИИ. Эти программисты часто не связаны наследием систем и техническим долгом, а также не сталкиваются с множеством требований по управлению и соблюдению правил.
Большие организации зачастую не умеют связывать источники данных и программные инструменты. В других случаях опасения по поводу безопасности и управления означают, что крупные предприятия, особенно в регулируемых секторах — банках, финансах, юриспруденции и здравоохранении — не готовы автоматизировать без железных гарантий надежности результатов и наличия процессов мониторинга, управления и аудита. Системы для этого пока что примитивны. Пока они не станут значительно более зрелыми и надежными, не ожидайте полного автоматизма в производстве бизнес-критичных или регулируемых результатов.
Критики утверждают, что Шумер не честен в отношении недостатков LLM
Я не один такой, кто считает анализ Шумера ошибочным. Гэри Маркус, заслуженный профессор когнитивных наук Нью-Йоркского университета и один из ведущих скептиков современных больших языковых моделей, сказал мне, что пост Шумера в X — это «вооруженный хайп». И он указал на проблемы даже в аргументации Шумера относительно автоматической разработки программного обеспечения.
«Он не приводит никаких реальных данных, подтверждающих, что последние системы кодирования могут писать целые сложные приложения без ошибок», — сказал Маркус.
Он отмечает, что Шумер искажает известный бенчмарк организации METR, который пытается измерить автономные возможности кодирования ИИ и предполагает, что способности ИИ удваиваются каждые семь месяцев. Маркус указывает, что Шумер не упоминает, что у этого бенчмарка есть два порога точности — 50% и 80%. Но большинство бизнесов не заинтересованы в системе, которая ошибается в половине случаев или даже в каждом пятом.
«Ни одна система ИИ не может надежно выполнять каждую пятиминутную задачу, которую делают люди без ошибок, или даже близко к этому, — говорит Маркус, — и вы бы этого не поняли, читая блог Шумера, который в основном игнорирует все галлюцинации и глупейшие ошибки, столь распространенные в повседневной жизни.»
Он также отметил, что Шумер не ссылается на недавние исследования Caltech и Stanford, которые зафиксировали широкий спектр ошибок рассуждения в продвинутых моделях ИИ. И он подчеркнул, что Шумер ранее был пойман на преувеличениях относительно возможностей обученной им модели ИИ. «Он любит продавать большие идеи. Это не значит, что его стоит воспринимать всерьез», — сказал Маркус.
Другие критики блога Шумера отмечают, что его экономический анализ является антиисторичным. Каждая другая технологическая революция в долгосрочной перспективе создавала больше рабочих мест, чем уничтожала. Коннор Бойак, президент Института Либертас, политического аналитического центра в Юте, написал целый контр-блог, в котором высказывает этот аргумент.
Итак, да, ИИ может быть готов к трансформации работы. Но полная автоматизация задач, которую начали наблюдать некоторые разработчики программного обеспечения, возможна только для некоторых задач? Для большинства работников с знаниями, особенно тех, кто работает в крупных организациях, это займет гораздо больше времени, чем предполагает Шумер.
Присоединяйтесь к нам на Саммите по инновациям в рабочем пространстве Fortune 19–20 мая 2026 года в Атланте. Новая эпоха инноваций на рабочем месте уже наступила — и старые правила переписываются. На этом эксклюзивном, насыщенном событиями мероприятии соберутся самые инновационные лидеры мира, чтобы обсудить, как ИИ, человечество и стратегия вновь пересекаются, чтобы переопределить будущее работы. Регистрируйтесь сейчас.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Вирусный блог Мэтта Шумера о надвигающемся влиянии ИИ на работников сферы знаний основан на ошибочных предположениях
Инфлюенсер в области ИИ Мэтт Шумер написал вирусный блог в X о потенциале ИИ разрушить и в конечном итоге автоматизировать почти всю работу, связанную с знаниями, за последние 24 часа его просмотрели более 55 миллионов раз.
Эссе Шумера объемом 5000 слов определенно задело нерв. Написанное в взволнованном тоне, оно построено как предупреждение друзьям и семье о том, как их рабочие места скоро будут радикально изменены. (Fortune также опубликовала адаптированную версию поста Шумера в виде комментария.)
«5 февраля два крупных лаборатории ИИ выпустили новые модели в один день: GPT-5.3 Codex от OpenAI и Opus 4.6 от Anthropic», — пишет он. «И что-то щелкнуло. Не как выключатель света… скорее как момент, когда ты понимаешь, что вода вокруг тебя поднимается и уже по грудь.»
Шумер говорит, что программисты — это канарейка в шахте для всех остальных профессий. «Опыт, который испытали технологические работники за последний год, наблюдая, как ИИ переходит от «полезного инструмента» к «делает мою работу лучше меня», — это опыт, который скоро испытают все остальные», — пишет он. «Право, финансы, медицина, бухгалтерия, консалтинг, писательство, дизайн, анализ, обслуживание клиентов. Не через десять лет. Люди, создающие эти системы, говорят о сроках от одного до пяти лет. Некоторые — меньше. И исходя из того, что я видел за последние пару месяцев, я считаю, что «меньше» более вероятно.»
Но несмотря на вирусность, утверждение Шумера о том, что то, что произошло с кодированием, — это предыстория того, что произойдет в других сферах, и что это случится всего за несколько лет, кажется мне неправильным. И я пишу это как человек, который написал книгу (Mastering AI: A Survival Guide to Our Superpowered Future), в которой предсказывал, что ИИ кардинально преобразит работу с знаниями к 2029 году, и в этом я по-прежнему убежден. Я просто не думаю, что полная автоматизация процессов, которую мы начинаем видеть в программировании, так быстро распространится на другие области, как утверждает Шумер. Он может быть в правильном направлении, но его мрачный тон кажется мне разжиганием страха и основан в основном на ошибочных предположениях.
Рекомендуемое видео
Не вся работа с знаниями похожа на разработку программного обеспечения
Шумер говорит, что причина, по которой код стал областью, где автономные агентные возможности оказали наибольшее влияние, заключается в том, что компании, занимающиеся ИИ, уделили этому так много внимания. Они сделали это, потому что эти компании, разрабатывающие передовые модели, считают автономную разработку программного обеспечения ключом к своему бизнесу, позволяя моделям ИИ помогать создавать следующее поколение моделей ИИ. В этом, похоже, ставка компаний на ИИ оправдывается: темпы выпуска новых и лучших моделей значительно ускорились за последний год. И обе компании — OpenAI и Anthropic — заявили, что код, лежащий в основе их последних моделей ИИ, в основном написан самим ИИ.
Шумер говорит, что хотя программирование — это ведущий индикатор, те же достижения в производительности, что и в кодировании, появляются и в других областях, хотя иногда примерно с годовым запозданием. (Шумер не дает ясного объяснения, почему может существовать такая задержка, хотя подразумевает, что это просто потому, что компании, разрабатывающие модели ИИ, сначала оптимизируют их для кодирования, а затем постепенно улучшают модели в других сферах.)
Но что он не говорит, так это то, что еще одной причиной более быстрого прогресса в автоматизации разработки программного обеспечения является то, что в кодировании есть количественные метрики качества, которых просто нет в других областях. В программировании, если код очень плохой, он просто не скомпилируется. Недостаточный код также может не пройти различные модульные тесты, которые может выполнить агент ИИ. (Шумер не упоминает, что современные агенты кодирования иногда лгут о проведении модульных тестов — и это одна из причин, почему автоматическая разработка программного обеспечения не является безошибочной.)
Многие разработчики говорят, что код, который пишет ИИ, часто достаточно хорош, чтобы пройти эти базовые тесты, но все равно не очень качественный: он неэффективен, неэстетичен и, что самое важное, небезопасен, что создает риски кибербезопасности для организации, его использующей. Но в программировании все еще есть способы создавать автономных ИИ-агентов для решения некоторых из этих проблем. Модель может запускать субагентов, которые проверяют написанный код на уязвимости в кибербезопасности или критикуют его с точки зрения эффективности. Поскольку программный код можно тестировать в виртуальных средах, существует множество способов автоматизировать процесс обучения с подкреплением — когда агент учится на опыте максимизировать некоторую награду, например, очки в игре — что используют компании ИИ для формирования поведения моделей после их первоначального обучения. Это означает, что доработка кодирующих агентов может осуществляться автоматизировано и масштабируемо.
Оценка качества в многих других сферах работы с знаниями гораздо сложнее. Нет компиляторов для права, нет модульных тестов для медицинских планов, нет окончательной метрики, которая бы определяла качество маркетинговой кампании до её тестирования на потребителях. В других областях гораздо сложнее собрать достаточное количество данных от профессиональных экспертов о том, что считается «хорошим». Компании ИИ понимают, что у них есть проблема с сбором таких данных. Поэтому они сейчас платят миллионы компаниям вроде Mercor, которые, в свою очередь, нанимают бухгалтеров, финансистов, юристов и врачей для предоставления обратной связи по результатам ИИ, чтобы лучше обучать свои модели.
Верно, что существуют бенчмарки, показывающие, что последние модели ИИ быстро прогрессируют в профессиональных задачах вне программирования. Одним из лучших является бенчмарк GDPVal от OpenAI. Он показывает, что передовые модели могут достигать паритета с экспертами по ряду профессиональных задач — от сложных юридических работ до производства и здравоохранения. Пока что результаты для моделей, выпущенных OpenAI и Anthropic на прошлой неделе, еще не опубликованы. Но для их предшественников, Claude Opus 4.5 и GPT-5.2, модели достигают паритета с экспертами по разнообразным задачам и превосходят их во многих областях.
Значит ли это, что Шумер прав? Не так быстро. Оказывается, во многих профессиях то, что считается «хорошим», очень субъективно. Только около 71% оценок AI-выходов согласуются между экспертами. Автоматическая система оценки, используемая OpenAI для GDPVal, показывает еще большее расхождение — согласие только в 66% случаев. Так что эти показатели о том, насколько хорошо ИИ справляется с профессиональными задачами, могут иметь значительную погрешность.
Предприятиям нужны надежность, управление и возможность аудита
Эта вариативность — одна из причин, почему компании не спешат полностью внедрять автоматизированные рабочие процессы. Не только потому, что результат ИИ может быть ошибочным. Как показывает бенчмарк GDPVal, эквивалент автоматического модульного теста во многих профессиональных контекстах может давать ошибочный результат треть времени. Большинство компаний не могут позволить себе рисковать тем, что в третьих случаях будет выпущена работа низкого качества. Риски слишком велики. Иногда это может быть лишь репутационный риск. В других случаях — потеря немедленной прибыли. Но во многих профессиональных задачах последствия неправильного решения могут быть еще более серьезными: профессиональные санкции, судебные иски, лишение лицензий, утрата страхового покрытия и даже риск физического вреда и смерти — иногда для большого числа людей.
Более того, попытки держать человека в цепочке для проверки автоматических результатов проблематичны. Современные модели ИИ действительно становятся лучше. Галлюцинации происходят реже. Но это только усугубляет проблему. По мере уменьшения частоты ошибок, вызванных ИИ, человеческие рецензенты становятся самоуверенными. Ошибки ИИ труднее заметить. ИИ отлично умеет уверенно ошибаться и представлять результаты в безупречной форме, лишенной содержания. Это обходит некоторые прокси-критерии, которые используют люди для оценки уровня бдительности. Модели ИИ часто ошибаются в способах, чуждых человеческим ошибкам при выполнении тех же задач, что усложняет защиту от ошибок, порожденных ИИ.
По этим причинам, пока не будут разработаны аналоги автоматических модульных тестов для более профессиональных областей, внедрение автоматизированных рабочих процессов ИИ во многих сферах работы с знаниями будет слишком рискованным для большинства предприятий. ИИ останется помощником или со-пилотом для человеческих специалистов, а не полностью автоматизирует их работу.
Также есть и другие причины, почему наблюдаемая автоматизация разработчиков программного обеспечения маловероятна для других категорий работы с знаниями. Во многих случаях предприятия не могут предоставить агентам ИИ доступ к необходимым инструментам и системам данных для автоматизации процессов. Замечательно, что самые активные сторонники автоматизации ИИ — это разработчики, работающие либо самостоятельно, либо в стартапах, ориентированных на ИИ. Эти программисты часто не связаны наследием систем и техническим долгом, а также не сталкиваются с множеством требований по управлению и соблюдению правил.
Большие организации зачастую не умеют связывать источники данных и программные инструменты. В других случаях опасения по поводу безопасности и управления означают, что крупные предприятия, особенно в регулируемых секторах — банках, финансах, юриспруденции и здравоохранении — не готовы автоматизировать без железных гарантий надежности результатов и наличия процессов мониторинга, управления и аудита. Системы для этого пока что примитивны. Пока они не станут значительно более зрелыми и надежными, не ожидайте полного автоматизма в производстве бизнес-критичных или регулируемых результатов.
Критики утверждают, что Шумер не честен в отношении недостатков LLM
Я не один такой, кто считает анализ Шумера ошибочным. Гэри Маркус, заслуженный профессор когнитивных наук Нью-Йоркского университета и один из ведущих скептиков современных больших языковых моделей, сказал мне, что пост Шумера в X — это «вооруженный хайп». И он указал на проблемы даже в аргументации Шумера относительно автоматической разработки программного обеспечения.
«Он не приводит никаких реальных данных, подтверждающих, что последние системы кодирования могут писать целые сложные приложения без ошибок», — сказал Маркус.
Он отмечает, что Шумер искажает известный бенчмарк организации METR, который пытается измерить автономные возможности кодирования ИИ и предполагает, что способности ИИ удваиваются каждые семь месяцев. Маркус указывает, что Шумер не упоминает, что у этого бенчмарка есть два порога точности — 50% и 80%. Но большинство бизнесов не заинтересованы в системе, которая ошибается в половине случаев или даже в каждом пятом.
«Ни одна система ИИ не может надежно выполнять каждую пятиминутную задачу, которую делают люди без ошибок, или даже близко к этому, — говорит Маркус, — и вы бы этого не поняли, читая блог Шумера, который в основном игнорирует все галлюцинации и глупейшие ошибки, столь распространенные в повседневной жизни.»
Он также отметил, что Шумер не ссылается на недавние исследования Caltech и Stanford, которые зафиксировали широкий спектр ошибок рассуждения в продвинутых моделях ИИ. И он подчеркнул, что Шумер ранее был пойман на преувеличениях относительно возможностей обученной им модели ИИ. «Он любит продавать большие идеи. Это не значит, что его стоит воспринимать всерьез», — сказал Маркус.
Другие критики блога Шумера отмечают, что его экономический анализ является антиисторичным. Каждая другая технологическая революция в долгосрочной перспективе создавала больше рабочих мест, чем уничтожала. Коннор Бойак, президент Института Либертас, политического аналитического центра в Юте, написал целый контр-блог, в котором высказывает этот аргумент.
Итак, да, ИИ может быть готов к трансформации работы. Но полная автоматизация задач, которую начали наблюдать некоторые разработчики программного обеспечения, возможна только для некоторых задач? Для большинства работников с знаниями, особенно тех, кто работает в крупных организациях, это займет гораздо больше времени, чем предполагает Шумер.
Присоединяйтесь к нам на Саммите по инновациям в рабочем пространстве Fortune 19–20 мая 2026 года в Атланте. Новая эпоха инноваций на рабочем месте уже наступила — и старые правила переписываются. На этом эксклюзивном, насыщенном событиями мероприятии соберутся самые инновационные лидеры мира, чтобы обсудить, как ИИ, человечество и стратегия вновь пересекаются, чтобы переопределить будущее работы. Регистрируйтесь сейчас.