Ф'ючерси
Сотні безстрокових контрактів
TradFi
Золото
Одна платформа для світових активів
Опціони
Hot
Торгівля ванільними опціонами європейського зразка
Єдиний рахунок
Максимізуйте ефективність вашого капіталу
Демо торгівля
Вступ до ф'ючерсної торгівлі
Підготуйтеся до ф’ючерсної торгівлі
Ф'ючерсні події
Заробляйте, беручи участь в подіях
Демо торгівля
Використовуйте віртуальні кошти для безризикової торгівлі
Запуск
CandyDrop
Збирайте цукерки, щоб заробити аірдропи
Launchpool
Швидкий стейкінг, заробляйте нові токени
HODLer Airdrop
Утримуйте GT і отримуйте масові аірдропи безкоштовно
Launchpad
Будьте першими в наступному великому проекту токенів
Alpha Поінти
Ончейн-торгівля та аірдропи
Ф'ючерсні бали
Заробляйте фʼючерсні бали та отримуйте аірдроп-винагороди
Інвестиції
Simple Earn
Заробляйте відсотки за допомогою неактивних токенів
Автоінвестування
Автоматичне інвестування на регулярній основі
Подвійні інвестиції
Прибуток від волатильності ринку
Soft Staking
Earn rewards with flexible staking
Криптопозика
0 Fees
Заставте одну криптовалюту, щоб позичити іншу
Центр кредитування
Єдиний центр кредитування
Центр багатства VIP
Преміальні плани зростання капіталу
Управління приватним капіталом
Розподіл преміальних активів
Квантовий фонд
Квантові стратегії найвищого рівня
Стейкінг
Стейкайте криптовалюту, щоб заробляти на продуктах PoS
Розумне кредитне плече
Кредитне плече без ліквідації
Випуск GUSD
Мінтинг GUSD для прибутку RWA
Сем Альтман розбирає стратегію OpenAI щодо викликів американської оборони у сфері штучного інтелекту
У березні 2025 року Сам Альтман, генеральний директор OpenAI, провів публічну сесію питань і відповідей на платформі X, щоб прояснити обставини навколо контракту між OpenAI і Міністерством оборони США. Ця дискусія викликала масовий інтерес: 6,6 мільйонів переглядів і понад 7 500 відповідей, що відображає зростаючу зацікавленість технічної спільноти у наслідках партнерств AI з урядом США.
Попередні переговори та відмови у класифікованих контрактах
За словами Сам Альтмана, OpenAI протягом попередніх місяців вели діалог лише щодо некласифікованих співпраць і навмисно відмовлялися від кількох пропозицій у сферах, що підпадають під класифікацію. Ці ж можливості згодом були запропоновані Anthropic. Однак після того, як Міністерство оборони США відмовило Anthropic у співпраці, влада різко прискорила впровадження своїх класифікованих ініціатив через OpenAI. Альтман пояснив швидке підписання контракту необхідністю «зняти напругу» і зазначив, що він домовлявся про рівні умови для всіх інших лабораторій штучного інтелекту, залучених до процесу.
Anthropic, класифікація та галузеві наслідки
Коли його запитали про відсутність публічного захисту Anthropic, Сам Альтман був відвертим. Він назвав рішення класифікувати Anthropic як «ризик ланцюга поставок» «катастрофічним для галузі, країни і самого Anthropic». За його словами, це «шкідливе рішення Міністерства оборони США», і він сподівається на його скасування. Водночас Альтман уточнив, що його підтримка зменшилася через те, що Anthropic, на його думку, більше зосереджена на включенні обмежувальних положень у контракт, ніж на дотриманні чинного законодавства, і можливо прагне отримати більший оперативний контроль.
Етичні та конституційні межі OpenAI
На запитання про етичні засади Альтман прямо заявив: «Якщо нас попросять зробити щось неконституційне або нелегальне, ми знімемося. Заходьте до нас у в’язницю.» Ця пряма заява ілюструє тверду позицію OpenAI щодо меж своєї співпраці з урядом.
Демократизація проти нагляду: дилема штучного інтелекту
Генеральний директор OpenAI підняв складне питання зовнішнього нагляду. Він визнав своє особисте незадоволення зовнішнім контролем, який здійснюють військові США, і заявив, що «демократизація» AI залишається його головним принципом, хоча військові застосування потенційно суперечать цій меті. Однак він додав: «Я не вважаю, що це моя роль вирішувати це питання.» Це свідчить про напругу між особистими переконаннями Альтмана і реаліями стратегічного партнерства.
Метаполітичне питання: націоналізація і AGI
У підсумку своїх пояснень Сам Альтман підняв «завуальне питання, яке присутнє у багатьох запитаннях, але ніколи прямо не ставилося»: що станеться, якщо уряд США спробує націоналізувати OpenAI або інші великі проєкти штучного інтелекту? Він зізнався, що «давно вважає, що розробка AGI, можливо, має бути під контролем уряду», натякаючи, що дискусія про контроль над AI виходить за межі поточних партнерств.