alex12 Опубликовано 29 января Поделиться Опубликовано 29 января Буквально вчера гремела новость про модель Qwen2.5-1M от Alibaba, а теперь они выпустили Qwen2.5-Max, которая обогнала по мощности DeepSeek и GPT-4o. Qwen2.5-Max предобучен на более чем 20 триллионах токенов и использует передовые методы пост-обучения. Он основан на архитектуре MoE (Mixture-of-Experts), что позволяет эффективно масштабировать модель. Главный акцент сделан на мышлении и логике. Модель отвечает на вопросы уровня университетских экзаменов, умеет качественно кодить и создавать игры. Также может анализировать видео и изображения. И это лишь малая часть её способностей. При этом доступна бесплатно. DeepSeek похоронил OpenAI, а Alibaba похоронил DeepSeek. Великая гонка ИИ-вооружений 2 Когда твоя "гениальная инвестиция в мем-токены" пошла не по плану: Ссылка на комментарий Поделиться на другие сайты Поделиться
TruTraider Опубликовано 29 января Поделиться Опубликовано 29 января ждём очередной щиток Qwen2.5-Max Ссылка на комментарий Поделиться на другие сайты Поделиться
Lidos-exchange Опубликовано 29 января Поделиться Опубликовано 29 января Скоро ИИ сами буду создавать ИИ и будут вести ИИ войны 3 Ссылка на комментарий Поделиться на другие сайты Поделиться
DonSimon Опубликовано 29 января Поделиться Опубликовано 29 января кто пробовал квин этот? я ночью сравнивал chat gpt с дипсиком этим gpt более чистый и логичный код писал, но дипсик стоит учесть что только вышел Ссылка на комментарий Поделиться на другие сайты Поделиться
Рекомендуемые сообщения
Для публикации сообщений создайте учётную запись или авторизуйтесь
Вы должны быть пользователем, чтобы оставить комментарий
Создать аккаунт
Зарегистрируйте новый аккаунт в нашем сообществе. Это очень просто!
Регистрация нового пользователяВойти
Уже есть аккаунт? Войти в систему.
Войти