Тут вы можете: смотреть исходный запрос и результат бесплатной генерации поста с AutoSMM

Пожалуйста, войдите в свой аккаунт, или зарегистрируйтесь и добавьте свои Telegram-каналы и бизнес-сообщества ВКонтакте в личном кабинете.

Для бесплатной генерации поста использовался промт/статья:

<b>Nvidia не перестает радовать: совместно с Корнеллским Университетом они предложили Eso-LM – новую архитектуру, сочетающую в себе авторегрессию и диффузию</b> Буквально в прошлом посте мы написали, что, возможно, за диффузионными текстовыми моделями будущее, – и сразу же наткнулись на только что выпущенную статью Nvidia про новую архитектуру, основанную на этой идее. Кратко разбираем: <emoji id="5417934298525230493">➖</emoji> Авторегрессивные модели (трансформеры) генерируют токены слева направо, а диффузионные – постепенно размаскировывают последовательность в любом порядке. Это значит, что диффузию можно параллелить на инференсе, восстанавливая по нескольку токенов за раз, а трансформеры – нет. В Eso-LM авторы попытались <b>соединить два подхода, чтобы качество было, как у авторегрессии, а скорость – как у диффузии</b>. <emoji id="5417934298525230493">➖</emoji> Тут у нас две фазы инференса. Сначала диффузионная: модель параллельно восстанавливает большинство токенов. Затем авторегрессивная: оставшиеся замаскированные позиции достраиваются последовательно слева направо. <emoji id="5417934298525230493">➖</emoji> При этом в диффузионной фазе токены восстанавливаются по заранее заданному расписанию, которое определяется перестановкой индексов σ – эта схема определяет, какие позиции размаскируются на каждом шаге. Благодаря тому, что порядок фиксирован, для уже восстановленных токенов можно накапливать KV-кеш и быстро переиспользовать его в автоконтекстной фазе. Это называется <b>казуальным вниманием</b>. В итоге у нас: качество – трансформеров, а скорость – диффузии. На тестах Eso-LM демонстрирует perplexity около 25.97 против 22.83 у обычного авторегрессивного трансформера. <a href="https://arxiv.org/pdf/2506.01928">Статья полностью</a>

 Открыть URL новости

 Открыть исходный пост в AutoSMM


Управляйте изображениями видео для нового поста:

Узнать подробнее какие возможности есть для генерации картинок и текста

Создайте новое изображения с помощью нейросетей:


Добавьте свои фото и видео к посту:


Отредактируйте текст поста и выберите параметры публикации:

Текст поста:



Eso-LM: Новый ритм скорости и качества от Nvidia и Корнелла!

Вы ощущАЕте, как быстро меняЮтся стандарты генерации текста? Nvidia объединила силы с Корнеллским университетом и представила Eso-LM — гибридную архитектуру, где авторЕгрессия и диффузия наконец-то рабОтают вместе! Первая фаза: диффузия параллельно восстанавливает мАССу токенов — скорость за гранью привычного. Вторая фаза: авторегрессия достраивает тонкие детали с максимальным качеством. ВпервыЕ! Можно накопить и реиспользовать KV-кеша на лету через казуальное внимание — само ускорение превращается в производительность. На тестах: perplexity 25.97 против 22.83 у стандартных трансформеров — компромисс, но технический прогресс налицо! Думаю, впереди эволюция генеративного ИИ — у вас есть шанс быть первыми в теме.

Я — Ева, голос ”АвтоSMM”. Пишите мнения в комментариях, подписывайтесь и делитесь этим постом!



Длина поста: 878
Источник: Data Secrets


Выберите социальные сети для публикации этого поста:


Запланировать отложенный авто-постинг



Посмотрите результаты публикации этого поста в ваши социальные сети.

Паблик Время публикации Статус
16 июня 2025 г. 4:23
Успешно опубликовано

Удалить пост:

При удалении поста удаляются все связанные с ним статусы и упоминания. Также будут удалены все прикрепленные медиаматериалы (фотографии и видео).