Опубликовано 7 апреля 2026

Gemma 4 от Google: новый шаг в развитии ИИ на устройствах

Gemma 4 от Google: что изменится для ИИ на устройствах?

Google выпустила Gemma 4 – семейство из четырёх открытых моделей, работающих прямо на устройстве: от смартфона до ноутбука, без облака.

Продукты 4 – 5 минут чтения
Источник события: PyTorch 4 – 5 минут чтения

Большинство разговоров об ИИ сосредоточено на облачных сервисах: модель находится где-то в дата-центре, вы отправляете запрос, получаете ответ. Однако параллельно уже несколько лет развивается другой процесс – попытка запустить нейросеть непосредственно на телефоне, ноутбуке или небольшом компьютере, без интернета и без использования сторонних серверов. Google сделала в этом направлении заметный шаг, выпустив семейство моделей Gemma 4.

Новые модели Gemma 4: обзор и особенности

Что вообще вышло

Gemma 4 – это не одна модель, а четыре различных варианта для разных задач и устройств. Два из них, E2B и E4B, рассчитаны буквально на смартфон: они достаточно компактны, чтобы работать автономно, без подключения к сети. Два других – модели покрупнее, на 26 и 31 миллиард параметров – ориентированы на ПК и ноутбуки, но тоже могут функционировать локально, без облака.

Если коротко: впервые в линейке Gemma появились модели, которые реально помещаются на обычный телефон и при этом умеют не только отвечать на текстовые вопросы.

Возможности моделей Gemma 4: мультимодальность и локальность

Что умеют эти модели

Все четыре варианта Gemma 4 мультимодальны – они понимают не только текст, но и изображения, и видео. Компактные версии (E2B и E4B) идут дальше: они также воспринимают аудио. Проще говоря, такая модель может слушать, смотреть и читать – и всё это прямо на устройстве, без отправки данных куда-либо.

Это открывает довольно конкретные сценарии: распознавание речи офлайн, анализ фотографий без загрузки в облако, помощник, который работает даже без интернета. Для тех, кому важна приватность данных или просто нет стабильного соединения, это существенно.

Отдельно стоит отметить: Gemma 4 изначально спроектирована для так называемых агентных сценариев. Это когда модель не просто отвечает на вопрос, а выполняет последовательность действий – например, находит информацию, обрабатывает её и формирует структурированный результат. Для этого в модели реализована нативная поддержка вызова внешних функций и вывода данных в структурированном формате.

Архитектура Gemma 4 Mixture of Experts: как размер влияет на работу

Размер имеет значение – но не всегда то, что в названии

Один из интересных моментов в Gemma 4 – это то, как устроена модель на 26 миллиардов параметров. Она использует архитектуру, которую называют «смесь экспертов» (Mixture of Experts). Звучит сложно, но идея простая: модель большая, однако при каждом запросе активируется лишь небольшая её часть – около 4 миллиардов параметров из 26. Это как если бы в команде было 26 специалистов, но на каждую задачу выходят только те четверо, кто нужен прямо сейчас.

Благодаря этому модель работает быстрее и требует меньше ресурсов, чем можно было бы ожидать от её полного размера.

Старшая модель, 31B, устроена иначе – все параметры активны одновременно, – но зато показывает более высокие результаты на независимых тестах. По данным рейтинга Arena AI Text, она заняла третье место среди открытых моделей, уступая только более крупным конкурентам.

Значение релиза Gemma 4 для локального ИИ

Почему это не просто очередной релиз

Gemma – открытая линейка: веса моделей опубликованы под лицензией Apache 2.0, что означает практически свободное коммерческое использование. Это важно, потому что большинство сильных моделей такого уровня либо закрыты, либо имеют ограничения на применение в продуктах.

Разработка компактных версий E2B и E4B велась совместно с Qualcomm и MediaTek – производителями процессоров, которые стоят в большинстве современных Android-смартфонов. Это значит, что модели оптимизированы под реальное железо, а не просто теоретически помещаются в нужный объём памяти.

С момента выхода первого поколения Gemma модели этой линейки были скачаны более 400 миллионов раз, а сообщество создало свыше 100 000 модификаций на их основе. Gemma 4 – это ответ на накопленный опыт: что работало, чего не хватало, какие сценарии оказались востребованными.

Gemma 4: ограничения и перспективы локального ИИ

Что остаётся за кадром

При всей привлекательности идеи «ИИ прямо на телефоне» стоит держать в уме несколько вещей.

Во-первых, компактные модели – это всегда компромисс. E2B и E4B отлично подходят для базовых задач, но не стоит ожидать от них того же уровня рассуждений, что от 31B-версии. Google сама признаёт, что самая маленькая модель на отдельных тестах уступает предыдущей Gemma 3 на 27 миллиардов параметров.

Во-вторых, техническая документация на момент релиза ещё не была опубликована в полном объёме. Это означает, что независимая проверка возможностей моделей – дело ближайшего времени, а не свершившийся факт.

В-третьих, сам рынок локального ИИ пока только формируется. Есть конкурирующие решения – например, Qwen 3, с которым сравнивают старшие модели Gemma 4, – и сказать, что один подход окончательно победил другой, пока нельзя.

Тем не менее, направление очевидно: мощные языковые модели становятся меньше, дешевле в эксплуатации и ближе к конечному устройству. Gemma 4 – один из наиболее убедительных аргументов в пользу того, что этот путь уже вполне реален.

Оригинальное название: ExecuTorch Becomes a Part of PyTorch Core to Expand On-Device Inference Capabilities
Дата публикации: 7 апр 2026
PyTorch pytorch.org Международный проект и открытая платформа глубокого обучения, активно поддерживаемая исследовательским и разработческим сообществом для создания и внедрения ИИ-моделей.
Предыдущая статья Wan2.7-Video от Alibaba: один промпт – и вы уже режиссёр Следующая статья Higress: шлюз для ИИ-трафика вместо устаревшего Nginx Ingress

Связанные публикации

Вам может быть интересно

Перейти к другим событиям

События – лишь часть картины. Эти материалы помогают увидеть шире: контекст, последствия и идеи, стоящие за новостями.

Google DeepMind выпустила Gemma 4 – открытое семейство мультимодальных моделей, работающих с текстом, изображениями, видео и аудио непосредственно на устройстве.

Hugging Facehuggingface.co 3 апр 2026

Liquid AI представила LFM2-24B – свою крупнейшую языковую модель, отличающуюся нестандартной архитектурой и способную работать как в облаке, так и на локальных устройствах.

Liquidwww.liquid.ai 25 фев 2026

От источника к разбору

Как создавался этот текст

Этот материал не является прямым пересказом исходной публикации. Сначала была отобрана сама новость – как событие, важное для понимания развития ИИ. Затем мы задали рамку обработки: что в тексте важно прояснить, какой контекст добавить и на чём сделать акцент. Это позволило превратить отдельный анонс или обновление в связный и осмысленный разбор.

Нейросети, участвовавшие в работе

Мы открыто показываем, какие модели использовались на разных этапах обработки. Каждая из них выполняла свою роль – анализ источника, переписывание, проверка и визуальная интерпретация. Такой подход позволяет сохранить прозрачность процесса и ясно показать, как именно технологии участвовали в создании материала.

1.
Claude Sonnet 4.6 Anthropic Анализ исходной публикации и написание текста Нейросеть изучает оригинальный материал и формирует связный текст

1. Анализ исходной публикации и написание текста

Нейросеть изучает оригинальный материал и формирует связный текст

Claude Sonnet 4.6 Anthropic
2.
Gemini 2.5 Flash Google DeepMind Проверка и правка текста Исправление ошибок, неточностей и спорных формулировок

2. Проверка и правка текста

Исправление ошибок, неточностей и спорных формулировок

Gemini 2.5 Flash Google DeepMind
3.
DeepSeek-V3.2 DeepSeek Подготовка описания для иллюстрации Генерация текстового промпта для визуальной модели

3. Подготовка описания для иллюстрации

Генерация текстового промпта для визуальной модели

DeepSeek-V3.2 DeepSeek
4.
FLUX.2 Pro Black Forest Labs Создание иллюстрации Генерация изображения по подготовленному промпту

4. Создание иллюстрации

Генерация изображения по подготовленному промпту

FLUX.2 Pro Black Forest Labs

Хотите глубже погрузиться в мир
нейротворчества?

Первыми узнавайте о новых книгах, статьях и экспериментах с ИИ
в нашем Telegram-канале!

Подписаться