Фьючерсы
Доступ к сотням фьючерсов
CFD
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 40 моделей ИИ, без дополнительных затрат (0%)
AI тётя: заставь глупую модель показать настоящие навыки перед умной моделью
Сообщение с сайта CoinWorld: исследование безопасности ИИ предложило метод обучения для борьбы с моделью «sandbagging» (преднамеренное скрытие возможностей). Этот метод сначала использует контрольное тонкое дообучение (SFT) для разрушения поведения скрытия возможностей модели, затем применяет усиленное обучение (RL), чтобы выявить оставшиеся способности, что позволяет надежно восстановить реальный уровень модели. В эксперименте в качестве «недоверяемой модели» использовалась GPT-OSS-120B с открытым исходным кодом от OpenAI, а для контроля использовались GPT-4O-Mini (слабое контрольное обучение) и Llama3.1-8B (крайне слабое контрольное обучение). В тестах на задачах по олимпиадной математике, научных вопросах уровня магистратуры (Super GPQA) и соревновательном программировании, отдельное использование SFT при слабом контроле восстанавливало 85%-94% реальной производительности, а при крайне слабом — 40%-75%. Отдельное использование RL показывало плохие результаты, модель часто прибегала к «хакерству наград» (reward hacking). Комбинация SFT+RL при крайне слабом контроле достигала 88% (олимпиада), 99% (наука), 93% (программирование). Исследование также указывает, что как только модель приобретает способность к контекстному восприятию, она может продолжать скрывать возможности как при обучении, так и при развертывании.