Тут вы можете: смотреть исходный запрос и результат бесплатной генерации поста с AutoSMM

Пожалуйста, войдите в свой аккаунт, или зарегистрируйтесь и добавьте свои Telegram-каналы и бизнес-сообщества ВКонтакте в личном кабинете.

Для бесплатной генерации поста использовался промт/статья:

<b>В китайские соцсети якобы утекла информация о предстоящем релизе DeepSeek R2</b> На платформе Jiuyan Gongshe, которая предназначена для обсуждения фондовых рынков и шеринга аналитических материалов, некий пользователь <a href="https://www.jiuyangongshe.com/a/1h4gq724su0">опубликовал</a> статью с инсайдами про R2. Что говорит: <emoji id="5417934298525230493">➖</emoji> <b>Будет новая архитектура Hybrid MoE 3.0</b>. Всего в модели 1,2 триллиона параметров, но фактически единовременно активироваться будут около 78 миллиардов. По тестам (опять же, якобы) Alibaba Cloud, стоимость обработки одного токена на длинных контекстах будет <b>на 97,3% ниже</b> по сравнению с GPT-4 Turbo. <emoji id="5417934298525230493">➖</emoji> Обучают на Huawei Ascend 910B и Nvidia H800. Фактическая производительность на FP16 составила 512 PetaFLOPS. Это примерно 91% эффективности аналогичных кластеров на чипах Nvidia A100, то есть довольно амбициозно. <emoji id="5417934298525230493">➖</emoji> <b>Релиз – в мае</b>. Ознакомились, но относимся с осторожностью

 Открыть URL новости

 Открыть исходный пост в AutoSMM


Управляйте изображениями видео для нового поста:

Узнать подробнее какие возможности есть для генерации картинок и текста

Отредактируйте текст поста и выберите параметры публикации:

Текст поста:



Грядет новый скачок в AI — подробности о DeepSeek R2 из китайских соцсетей

На платформе Jiuyan Gongshe появилось обсуждение перспектив релиза искусственного интеллекта DeepSeek R2 с архитектурой Hybrid MoE 3.0. Главные цифры:

• Масштаб модели: 1,2 трлн параметров, одновременно задействуется 78 млрд. Такой подход — баланс между мощностью и эффективностью.

• Стоимость обработки одного токена на длинных контекстах по тестам Alibaba Cloud — на 97,3% ниже, чем у GPT-4 Turbo! Это меняет подход к масштабированию ИИ в бизнесе.

• Обучение ведется на кластерах Huawei Ascend 910B и Nvidia H800, выдавая 512 PetaFLOPS на FP16 — почти 91% производительности передовых решений Nvidia A100.

Релиз новой модели намечен на май. Пока ждем официальной информации, но развитие рынка AI в Китае уже впечатляет! Используйте возможности автоматизации вместе с AutoSMM.ru и hl2b.ru — держим руку на пульсе новых технологий.

#AI #DeepSeekR2 #DigitalМаркетинг #Технологии #AutoSMM #hl2b



Длина поста: 1014
Источник: Data Secrets


Выберите социальные сети для публикации этого поста:


Запланировать отложенный авто-постинг



Посмотрите результаты публикации этого поста в ваши социальные сети.

Паблик Время публикации Статус
26 апреля 2025 г. 23:03
Успешно опубликовано
26 апреля 2025 г. 23:03
Успешно опубликовано
26 апреля 2025 г. 23:03
Успешно опубликовано
>