Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Цзинььян: к 2026 году большие модели достигнут новых прорывов в области усиленного обучения, памяти моделей, контекстного инжиниринга и других аспектов
CICC отметила, что, оглядываясь на 2025 год, технические возможности глобальных крупных моделей будут развиваться вперёд, постепенно преодолевать сценарии производительности и добиваться значительного прогресса в направлении выводов, программирования, агентных и мультимодальных возможностей, однако в общих возможностях модели всё ещё есть недостатки в плане стабильности и частоты галлюцинаций. Смотря в будущее 2026 года, CICC считает, что крупные модели сделают новые прорывы в обучении с подкреплением, памяти моделей, контекстной инженерии и других — от генерации короткого контекста до задач длинной цепочки мысли, от взаимодействия текста до нативной мультимодальности, и сделают шаг ближе к достижению долгосрочной цели ИИ.
Полный текст ниже
CICC | 10-летний прогноз ИИ (26): модельная технология для ключевых тенденций 2026 года
Исследования CICC
Оглядываясь на 2025 год, технические возможности глобальных крупных моделей будут развиваться вперёд, постепенно преодолевать сценарии производительности и добиваться значительного прогресса в направлении выводов, программирования, агентных и мультимодальных возможностей, но всё ещё есть недостатки в плане стабильности, частоты галлюцинаций и т.д. Смотря в будущее 2026 года, мы верим, что крупные модели сделают новые прорывы в обучении с подкреплением, памяти моделей, контекстной инженерии и других — от генерации коротких контекстов до задач длинной цепочки мысли, от текстового взаимодействия до нативной мультимодальности — и сделают шаг ближе к достижению долгосрочной цели AGI.
Аннотация
Мы ожидаем, что закон масштабирования предварительного обучения появится в 2026 году, а количество параметров флагманской модели будет выведено на более высокий уровень. С точки зрения архитектуры, модельная архитектура на базе Transformer продолжается, а MoE, балансирующий производительность и эффективность, стал консенсусом, а различные маршруты механизмов внимания всё ещё оптимизируются и переключаются. С точки зрения парадигмы, Закон масштабирования + высококачественные данные + обучение с подкреплением на этапе предварительного обучения совместно улучшат возможности модели. Одним из ожиданий на 2026 год является то, что с развитием и продвижением чипов серии GB от NVIDIA модель будет основана на более производительном кластере Wanka на этапе предварительного обучения Scaling-Law, а количество параметров модели и верхний предел интеллекта будут дополнительно улучшены.
Важность обучения с помощью подкрепления возросла и стала ключом к раскрытию продвинутых возможностей моделей. Введение подкрепляющего обучения повышает верхний предел интеллекта модели, позволяя ей мыслить и рассуждать более логично и в соответствии с человеческими предпочтениями, а её суть — «самогенерируемые данные + несколько раундов итераций», а ключ к обучению с подкреплением заключается в масштабной вычислительной мощности + высококачественных данных. Зарубежные производители моделей, такие как OpenAI и Gemini, придают большое значение обучению с подкреплением, а отечественные DeepSeek и Alibaba Qianwen также следуют примеру, и мы ожидаем, что доля производителей моделей как в стране, так и за рубежом, будет продолжать расти в 2026 году.
Новые маршруты, такие как непрерывное обучение, память моделей и мировые модели, принесут ключевые прорывы. Непрерывное обучение и память моделей по сути решают проблему «катастрофического забывания» больших моделей, позволяя модели иметь механизм селективной памяти. Ядро алгоритмов и архитектур Google, таких как Titans, MIRAS и Nested Learning, — это способ для моделей динамически корректировать обучение и память в зависимости от времени и важности задач, обеспечивая тем самым непрерывное обучение и даже обучение на протяжении всей жизни. Кроме того, мировые модели, ориентированные на понимание причинных законов физического мира, обладают прорывными возможностями при исследовании различных моделей, таких как Genie 3 и Marble.
Риски
Технологическая итерация не соответствует ожиданиям; Существующие архитектуры моделей и парадигмы обучения нарушаются.
(Источник статьи: People’s Financial News)