Menyadari sesuatu yang liar belakangan ini - model AI tertentu seperti Sonnet 4.5 tampaknya dapat berjalan terus menerus selama lebih dari 30 jam, dan Codex tidak jauh di belakang dengan jendela operasi yang diperpanjang. Membuat saya bertanya-tanya tentang arsitektur di balik ini.
Ada yang menemukan makalah penelitian atau dokumen teknis yang membahas bagaimana sistem ini dapat mempertahankan sesi inferensi yang begitu panjang? Saya penasaran apakah itu tentang inovasi arsitektur model, optimisasi infrastruktur, atau sesuatu yang sama sekali berbeda. Saya ingin melihat apa yang dikatakan komunitas penelitian tentang kemampuan ini.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
17 Suka
Hadiah
17
5
Posting ulang
Bagikan
Komentar
0/400
NewDAOdreamer
· 9jam yang lalu
30 jam? Omong kosong... Berapa banyak kartu yang harus terbakar, apakah ada yang benar-benar menggunakan cara seperti ini?
Lihat AsliBalas0
TaxEvader
· 9jam yang lalu
30 jam operasi terus menerus? Berapa banyak biaya listrik yang harus dibayar, ini agak keterlaluan.
Lihat AsliBalas0
SchroedingerAirdrop
· 9jam yang lalu
30 jam tidak terputus? Berapa banyak listrik yang harus dibakar?
Lihat AsliBalas0
GasFeeCrying
· 9jam yang lalu
30 jam tanpa downtime, angka ini terlalu fantastis, benar atau tidak?
Lihat AsliBalas0
GasGasGasBro
· 9jam yang lalu
30 jam nonstop berlari? Ini sebenarnya membakar memori video atau sihir hitam apa?
Menyadari sesuatu yang liar belakangan ini - model AI tertentu seperti Sonnet 4.5 tampaknya dapat berjalan terus menerus selama lebih dari 30 jam, dan Codex tidak jauh di belakang dengan jendela operasi yang diperpanjang. Membuat saya bertanya-tanya tentang arsitektur di balik ini.
Ada yang menemukan makalah penelitian atau dokumen teknis yang membahas bagaimana sistem ini dapat mempertahankan sesi inferensi yang begitu panjang? Saya penasaran apakah itu tentang inovasi arsitektur model, optimisasi infrastruktur, atau sesuatu yang sama sekali berbeda. Saya ingin melihat apa yang dikatakan komunitas penelitian tentang kemampuan ini.