ПРЯМО СЕЙЧАС: Исследование, проведённое компанией DeepSeek, предполагает, что большие языковые модели тратят слишком много вычислительных ресурсов на попытки воссоздать статические знания внутри Transformer.


Их решение — Engram, условный модуль памяти, который объединяет O(1) поиска с архитектурой MoE, и в внутренних тестах показал улучшения в области знаний, рассуждений, программирования, математики и задач с длинным контекстом.
Посмотреть Оригинал
post-image
post-image
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить