Темная сторона ИИ: Мое путешествие по миру дипфейков в Telegram

robot
Генерация тезисов в процессе

Я потратил недели, погружаясь в мутные воды телеграм-ботов на основе ИИ, и то, что я обнаружил, откровенно тревожно. Технология, которая обещает революционизировать отрасли, имеет зловещую подоплеку, о которой мало кто говорит.

Давайте забудем о "топ-5" проектах - я хочу сосредоточиться на DeepFakeAI, который рекламируется как революционное сочетание "блокчейн, ИИ и построение сообщества". На самом деле они продают тревожно доступный инструмент для создания фальшивых видео реальных людей, которые говорят и делают вещи, которых они никогда не делали.

Я сам протестировал одного из этих ботов. Всего с несколькими изображениями и текстовым вводом я создал видео, на котором мой коллега "объявляет" о своем увольнении - все это заняло менее пяти минут. Качество было пугающе хорошим. Никаких технических знаний не требуется. Просто укажите, щелкните и нарушьте чью-то цифровую идентичность.

Рекламные материалы обходят стороной этический кошмар, который это создает. Они восторгаются «реалистичными модуляциями голоса» и «синхронизированным синхронизированием губ», но удобно игнорируют, как легко эту технологию можно использовать в качестве оружия для мести, политической манипуляции или корпоративного саботажа.

И не заставляйте меня начинать говорить о токеномике. Каждая транзакция "вызывает событие сжигания токенов, что может поддерживать цены в долгосрочной перспективе." Перевод: они геймифицировали цифровое подражание и получают прибыль от этого через свой родной токен. Это эксплуатация, одетая в костюм блокчейна.

Хотя другие проекты, такие как Fetch AI и SingularityNET, могут иметь законные случаи использования, нормализация технологии дипфейков через удобные боты в Telegram представляет собой непосредственную угрозу, которую криптосообщество, похоже, слишком охотно игнорирует.

Больше всего беспокоит то, как небрежно эти инструменты рекламируются - никаких серьезных упоминаний о мерах безопасности, механизмах согласия или системах проверки. Просто "создавайте дипфейки с минимальными техническими знаниями!", как будто это что-то, что стоит отмечать.

В статье упоминается, что эти проекты "позволяют пользователям решать проблемы реального мира" - но что насчет реальных проблем, которые они создают? Это не просто инструменты; это потенциальные оружия в растущей информационной войне. Я видел сервера Discord, где подростки делятся советами по созданию дипфейков одноклассников. Это уже не теоретический вред.

Технология сама по себе не является по своей сути злой, но случайное внедрение с учетом прибыли перед этическими соображениями — это катастрофа, которая ждет своего часа. Нам здесь нужно серьезное регулирование, а не больше спекуляций, основанных на токенах.

FAKEAI1.88%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить