CICC: Pada tahun 2026, model besar akan mencapai lebih banyak terobosan dalam pembelajaran penguatan, memori model, rekayasa konteks, dan bidang lainnya

robot
Pembuatan abstrak sedang berlangsung

CICC menunjukkan bahwa melihat kembali pada tahun 2025, kemampuan teknis model besar global akan berkembang ke depan, secara bertahap mengatasi skenario produktivitas, dan membuat kemajuan yang signifikan ke arah inferensi, pemrograman, kemampuan Agen dan multimoda, tetapi masih ada kekurangan dalam kemampuan umum model dalam hal stabilitas dan tingkat halusinasi. Menantikan tahun 2026, CICC percaya bahwa model besar akan membuat lebih banyak terobosan dalam pembelajaran penguatan, memori model, rekayasa konteks, dll., Dari pembuatan konteks pendek hingga tugas rantai pemikiran yang panjang, dari interaksi teks hingga multimodalitas asli, dan mengambil langkah lebih dekat untuk mencapai tujuan jangka panjang AGI.

Teks lengkapnya ada di bawah ini

CICC | Prospek AI 10 Tahun (26): Model Teknologi untuk Tren Utama di 2026

Penelitian CICC

Melihat kembali pada tahun 2025, kemampuan teknis model besar global akan berkembang ke depan, secara bertahap mengatasi skenario produktivitas, dan membuat kemajuan signifikan ke arah inferensi, pemrograman, kemampuan agen, dan multimoda, tetapi masih ada kekurangan dalam hal stabilitas, tingkat halusinasi, dll. Menantikan tahun 2026, kami percaya bahwa model besar akan membuat lebih banyak terobosan dalam pembelajaran penguatan, memori model, rekayasa konteks, dll., Dari pembuatan konteks pendek hingga tugas rantai pemikiran yang panjang, dari interaksi teks hingga multimodalitas asli, dan mengambil langkah lebih dekat untuk mencapai tujuan jangka panjang AGI.

Abstrak

Kami memperkirakan Scaling-Law pra-pelatihan akan muncul kembali pada tahun 2026, dan jumlah parameter model unggulan akan dibawa ke tingkat yang lebih tinggi. Dalam hal arsitektur, arsitektur model berdasarkan Transformer terus berlanjut, dan MoE yang menyeimbangkan kinerja dan efisiensi telah menjadi konsensus, dan rute mekanisme perhatian yang berbeda masih dioptimalkan dan dialihkan. Dari segi paradigma, Scaling-Law + data berkualitas tinggi + pembelajaran penguatan pada tahap pra-pelatihan akan bersama-sama meningkatkan kemampuan model. Salah satu harapan untuk tahun 2026 adalah bahwa dengan kematangan dan promosi chip seri GB NVIDIA, model tersebut akan didasarkan pada cluster Wanka berkinerja lebih tinggi dalam tahap pra-pelatihan Scaling-Law, dan jumlah parameter model serta batas atas kecerdasan akan lebih ditingkatkan.

Pentingnya pembelajaran penguatan telah meningkat dan menjadi kunci untuk membuka kemampuan model tingkat lanjut. Pengenalan pembelajaran penguatan meningkatkan batas atas kecerdasan model, memungkinkan model untuk berpikir dan bernalar lebih logis dan sejalan dengan preferensi manusia, dan esensinya adalah “data yang dihasilkan sendiri + beberapa putaran iterasi”, dan kunci pembelajaran penguatan terletak pada daya komputasi skala besar + data berkualitas tinggi. Produsen model luar negeri seperti OpenAI dan Gemini sangat mementingkan pembelajaran penguatan, dan DeepSeek dan Alibaba Qianwen domestik juga mengikutinya, dan kami memperkirakan bahwa proporsi pembelajaran penguatan produsen model di dalam dan luar negeri akan semakin meningkat pada tahun 2026.

Rute baru seperti pembelajaran berkelanjutan, memori model, dan model dunia akan mengantarkan terobosan inti. Pembelajaran berkelanjutan dan memori model pada dasarnya memecahkan masalah “pelupaan bencana” model besar, memungkinkan model memiliki mekanisme memori selektif. Inti dari algoritme dan arsitektur Google, seperti Titans, MIRAS, dan Nested Learning, adalah cara bagi model untuk menyesuaikan pembelajaran dan memori secara dinamis berdasarkan rentang waktu dan pentingnya tugas, sehingga mencapai pembelajaran berkelanjutan dan bahkan pembelajaran seumur hidup. Selain itu, model dunia yang berfokus pada pemahaman hukum kausal dunia fisik memiliki peluang terobosan di bawah eksplorasi jalur model yang berbeda seperti Genie 3 dan Marble.

Risiko

iterasi teknologi tidak memenuhi harapan; Arsitektur model dan paradigma pelatihan yang ada terganggu.

(Sumber artikel: People’s Financial News)

Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • Komentar
  • Posting ulang
  • Bagikan
Komentar
Tambahkan komentar
Tambahkan komentar
Tidak ada komentar
  • Sematkan