Цзинььян: к 2026 году большие модели достигнут новых прорывов в области усиленного обучения, памяти моделей, контекстного инжиниринга и других аспектов

robot
Генерация тезисов в процессе

CICC отметила, что, оглядываясь на 2025 год, технические возможности глобальных крупных моделей будут развиваться вперёд, постепенно преодолевать сценарии производительности и добиваться значительного прогресса в направлении выводов, программирования, агентных и мультимодальных возможностей, однако в общих возможностях модели всё ещё есть недостатки в плане стабильности и частоты галлюцинаций. Смотря в будущее 2026 года, CICC считает, что крупные модели сделают новые прорывы в обучении с подкреплением, памяти моделей, контекстной инженерии и других — от генерации короткого контекста до задач длинной цепочки мысли, от взаимодействия текста до нативной мультимодальности, и сделают шаг ближе к достижению долгосрочной цели ИИ.

Полный текст ниже

CICC | 10-летний прогноз ИИ (26): модельная технология для ключевых тенденций 2026 года

Исследования CICC

Оглядываясь на 2025 год, технические возможности глобальных крупных моделей будут развиваться вперёд, постепенно преодолевать сценарии производительности и добиваться значительного прогресса в направлении выводов, программирования, агентных и мультимодальных возможностей, но всё ещё есть недостатки в плане стабильности, частоты галлюцинаций и т.д. Смотря в будущее 2026 года, мы верим, что крупные модели сделают новые прорывы в обучении с подкреплением, памяти моделей, контекстной инженерии и других — от генерации коротких контекстов до задач длинной цепочки мысли, от текстового взаимодействия до нативной мультимодальности — и сделают шаг ближе к достижению долгосрочной цели AGI.

Аннотация

Мы ожидаем, что закон масштабирования предварительного обучения появится в 2026 году, а количество параметров флагманской модели будет выведено на более высокий уровень. С точки зрения архитектуры, модельная архитектура на базе Transformer продолжается, а MoE, балансирующий производительность и эффективность, стал консенсусом, а различные маршруты механизмов внимания всё ещё оптимизируются и переключаются. С точки зрения парадигмы, Закон масштабирования + высококачественные данные + обучение с подкреплением на этапе предварительного обучения совместно улучшат возможности модели. Одним из ожиданий на 2026 год является то, что с развитием и продвижением чипов серии GB от NVIDIA модель будет основана на более производительном кластере Wanka на этапе предварительного обучения Scaling-Law, а количество параметров модели и верхний предел интеллекта будут дополнительно улучшены.

Важность обучения с помощью подкрепления возросла и стала ключом к раскрытию продвинутых возможностей моделей. Введение подкрепляющего обучения повышает верхний предел интеллекта модели, позволяя ей мыслить и рассуждать более логично и в соответствии с человеческими предпочтениями, а её суть — «самогенерируемые данные + несколько раундов итераций», а ключ к обучению с подкреплением заключается в масштабной вычислительной мощности + высококачественных данных. Зарубежные производители моделей, такие как OpenAI и Gemini, придают большое значение обучению с подкреплением, а отечественные DeepSeek и Alibaba Qianwen также следуют примеру, и мы ожидаем, что доля производителей моделей как в стране, так и за рубежом, будет продолжать расти в 2026 году.

Новые маршруты, такие как непрерывное обучение, память моделей и мировые модели, принесут ключевые прорывы. Непрерывное обучение и память моделей по сути решают проблему «катастрофического забывания» больших моделей, позволяя модели иметь механизм селективной памяти. Ядро алгоритмов и архитектур Google, таких как Titans, MIRAS и Nested Learning, — это способ для моделей динамически корректировать обучение и память в зависимости от времени и важности задач, обеспечивая тем самым непрерывное обучение и даже обучение на протяжении всей жизни. Кроме того, мировые модели, ориентированные на понимание причинных законов физического мира, обладают прорывными возможностями при исследовании различных моделей, таких как Genie 3 и Marble.

Риски

Технологическая итерация не соответствует ожиданиям; Существующие архитектуры моделей и парадигмы обучения нарушаются.

(Источник статьи: People’s Financial News)

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить