Зараз формується цікаве розділення в цій сфері. Хоча більшість лабораторій штучного інтелекту змагаються за кількість параметрів — вкладаючи більше обчислень, більше даних у дедалі більші моделі — деякі проекти роблять іншу ставку.
Підхід Sentient AGI? Вони не прагнуть розміру. Вони прагнуть до більш розумної архітектури міркувань. Це класичне обговорення: брутальна сила проти елегантних рішень.
Подумайте про це—чи означає більший мозок автоматично кращий розум? Чи це про те, як ефективно ви обробляєте та пов'язуєте ідеї?
Індустрія одержима GPT-5, GPT-6, що б не прийшло далі з трильйонами параметрів. Але, можливо, справжній прорив не в масштабах. Можливо, він полягає в навчанні моделей дійсно міркувати над проблемами, а не просто в патерн-матчінгу на стероїдах.
Не кажу, що один підхід однозначно кращий. Просто зазначаю, що не всі грають у ту ж гру більше.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
10 лайків
Нагородити
10
5
Репост
Поділіться
Прокоментувати
0/400
ContractHunter
· 13год тому
Система параметрів, яка використовувалася, вже застаріла, справжня гонка – це ефективність висновків.
Справді, що більше параметрів, то вища інтелектуальна здатність – ця думка звучить абсурдно...
У Sentient є цікава ідея, але зараз ще зарано говорити про перемогу.
Всі змагаються в масштабах, а ця компанія йде шляхом витонченості? Це має певний елемент ризику.
Справді, елегантне рішення дійсно може перемогти грубу силу? Я сумніваюся.
Але, якщо говорити відверто, узгодження шаблонів ≠ висновки, це дійсно є псевдопроблемою.
Переглянути оригіналвідповісти на0
AirdropCollector
· 13год тому
А, тобто, та група людей, що займається налаштуваннями параметрів, можливо, пішла не в тому напрямку. Справжній розум не в обсязі, а в точності.
Я трохи подумав над цією логікою і відчуваю, що це нагадує вічний конфлікт між оптимізацією та «моральним» підходом. Цікаво.
Багато параметрів означає, що можна думати краще? Не обов'язково. Я вважаю, що важливо, як спроектовано архітектуру.
Тепер чекаємо, хто в результаті зможе сміятися останнім.
Переглянути оригіналвідповісти на0
ReverseTradingGuru
· 13год тому
Коли справа доходить до набору параметрів, це рано чи пізно призведе до провалу. Чому важко зрозуміти цю істину: якість > кількість?
Навіть якщо модель велика, це не означає, що вона хороша, ключовим є наявність логічного ланцюга.
Ці люди з Sentient, здається, зрозуміли, що не варто слідувати за модою на параметри, це навіть цікавіше.
Кажучи простіше, це питання хитрості проти грубої сили. В галузі все ще витрачають гроші на параметри, а вони вже змінили підхід.
Відчувається, що шлях великих моделей скоро вичерпається, наступним кроком буде змагання в здатності до розумування.
Накопичення параметрів до безмежності не змінить суті узгодження шаблонів, це давно слід було усвідомити.
Питання в тому, хто зможе створити справжню структуровану модель, яка вміє мислити, ще подивимось.
Не треба вже говорити про цю теорію масштабування, головне, щоб розуму вистачало.
Переглянути оригіналвідповісти на0
blockBoy
· 13год тому
Купа параметрів не завжди є правильним шляхом, я вважаю, що шлях інтелектуальної архітектури перспективніший
---
Чим більше параметрів, тим розумніший? Це абсурд, ключовим є ефективність
---
Не всі гоняться за GPT-X, з цим я згоден
---
Якість > кількість, нарешті хтось це чітко сказав
---
Розуміння > узгодження шаблонів, ось у чому різниця
---
Відчуваю, що шлях великих моделей може бути неправильним, потрібно переосмислити
---
Sentient робить правильний крок, інші всі зосереджуються на параметрах, а він на архітектурі
---
Весь круг вже під впливом трильйонів параметрів, трошки втомлює
Переглянути оригіналвідповісти на0
DefiEngineerJack
· 13год тому
ні, кількість параметрів cope така 2023. кажучи емпірично, ви просто кидаєте обчислення на стіну, сподіваючись, що щось прилипне — це не оптимізація, це просто... дороге грубе примусове вирішення, чесно кажучи. архітектура розуміння насправді має значення, якщо ви хочете отримати нетривіальні вигоди в продуктивності. більшість лабораторій цього не визнає, бо вже витратили мільярди на ставку на масштаб, лол.
Ранкові думки про шляхи розвитку ШІ.
Зараз формується цікаве розділення в цій сфері. Хоча більшість лабораторій штучного інтелекту змагаються за кількість параметрів — вкладаючи більше обчислень, більше даних у дедалі більші моделі — деякі проекти роблять іншу ставку.
Підхід Sentient AGI? Вони не прагнуть розміру. Вони прагнуть до більш розумної архітектури міркувань. Це класичне обговорення: брутальна сила проти елегантних рішень.
Подумайте про це—чи означає більший мозок автоматично кращий розум? Чи це про те, як ефективно ви обробляєте та пов'язуєте ідеї?
Індустрія одержима GPT-5, GPT-6, що б не прийшло далі з трильйонами параметрів. Але, можливо, справжній прорив не в масштабах. Можливо, він полягає в навчанні моделей дійсно міркувати над проблемами, а не просто в патерн-матчінгу на стероїдах.
Не кажу, що один підхід однозначно кращий. Просто зазначаю, що не всі грають у ту ж гру більше.