Опубликовано

LG создала собственную языковую модель K-EXAONE для корейского языка

K-EXAONE: как южнокорейская LG строит собственную большую языковую модель

LG AI Research рассказала о K-EXAONE – мультимодальной модели, созданной на собственной технологической базе и ориентированной на корейский язык и культурный контекст.

Продукты
Источник события: LG AI Research Время чтения: 3 – 5 минут

Большие языковые модели обычно развиваются по одному из двух сценариев. Первый – взять готовое решение вроде GPT или Llama, дообучить его под свои задачи и запустить. Второй – построить всё с нуля: собрать данные, разработать архитектуру, обучить модель и поддерживать её развитие самостоятельно. Второй путь намного сложнее, но он даёт больше контроля и возможность учесть специфику языка и культуры.

LG AI Research выбрала именно этот подход, создав K-EXAONE – мультимодальную модель, которая работает с текстом и изображениями, понимает корейский язык на уровне носителя и учитывает культурный контекст. Проект развивается уже несколько лет, и недавно команда рассказала, как именно строилась эта система.

Почему LG решила создать языковую модель с нуля

Зачем создавать модель с нуля?

Основная причина – язык. Корейский сильно отличается от английского не только грамматикой, но и логикой построения текста, контекстными нюансами и культурными отсылками. Модели, обученные преимущественно на англоязычных данных, могут работать с корейским текстом, но часто делают это не так точно и естественно, как хотелось бы.

LG не стала адаптировать чужую модель, а решила построить собственную – так, чтобы она изначально понимала особенности языка и могла применяться в реальных корейских продуктах и сервисах. Это касается не только текста, но и мультимодальности: способности работать одновременно с текстом и изображениями, понимая, как они связаны друг с другом.

Что такое K-EXAONE?

K-EXAONE – это семейство моделей, которые могут обрабатывать текст и изображения. Есть версии разного размера: от более компактных до крупных, способных решать сложные задачи. Модель обучена на большом объёме корейских и англоязычных данных, что позволяет ей работать с обоими языками, но с акцентом на корейский.

Ключевое отличие – это не просто языковая модель, а мультимодальная система. То есть она может, например, анализировать изображение и описывать его на корейском, отвечать на вопросы по картинке или генерировать текст на основе визуального контекста. Для многих прикладных задач – от образования до коммерческих сервисов – это важная возможность.

Как LG разрабатывала и обучала K-EXAONE

Как строилась модель?

Процесс начался с подготовки данных. LG собрала корпус текстов на корейском языке из открытых источников, книг, статей, веб-страниц. Параллельно готовились данные для мультимодального обучения – пары изображений и текстов, которые помогают модели понять связь между визуальным и текстовым содержанием.

Архитектура модели разрабатывалась внутри компании. Это трансформерная модель – тот же базовый подход, что используется в GPT, Claude и других системах, но с настройками, адаптированными под специфику корейского языка и мультимодальную работу.

Обучение проходило на собственной инфраструктуре LG, с использованием большого количества вычислительных ресурсов. После базового обучения модель дообучалась на специализированных данных, чтобы улучшить её поведение в диалогах, повысить точность ответов и сделать её более безопасной.

Для чего LG нужна собственная языковая модель

Зачем это LG?

LG – это не только бытовая техника, но и целая экосистема продуктов и сервисов: от умных домов до платформ для бизнеса. Собственная языковая модель даёт компании возможность встраивать ИИ в свои решения без зависимости от внешних поставщиков.

Это важно не только с точки зрения контроля над технологией, но и с точки зрения данных. Используя собственную модель, компания может обрабатывать информацию локально, не передавая её сторонним сервисам. Для корпоративных клиентов и пользователей, которые заботятся о приватности, это существенный аргумент.

Кроме того, модель может быть адаптирована под конкретные задачи: от автоматизации поддержки клиентов до аналитики данных внутри компании. Это гибкость, которую сложно получить, используя готовые решения.

Планы развития K-EXAONE и открытый доступ

Что дальше?

LG продолжает развивать K-EXAONE. Планируется улучшение мультимодальных возможностей, расширение поддержки языков и повышение качества ответов в сложных сценариях. Модель уже используется внутри компании, и со временем может стать основой для публичных сервисов.

Важный момент – открытость. LG выпустила некоторые версии модели в открытый доступ, что позволяет исследователям и разработчикам работать с ней, тестировать и предлагать улучшения. Это редкий шаг для крупной корпорации, особенно в Азии, где многие технологии остаются закрытыми.

K-EXAONE – пример того, как крупная компания может построить собственную языковую модель, не полагаясь на готовые решения. Это долгий и ресурсоёмкий путь, но он даёт контроль над технологией, возможность учесть культурные и языковые особенности и гибкость в применении. Для корейского рынка это особенно актуально – и LG показывает, что такой подход вполне реализуем.

Ссылка на публикацию: https://www.lgresearch.ai/blog/view?seq=619
Оригинальное название: Korea's Flagship AI, Completed with Proprietary Technology: K-EXAONE
Дата публикации: 4 фев 2026
LG AI Researchwww.lgresearch.ai Южнокорейское исследовательское подразделение, разрабатывающее ИИ-модели для продуктов и технологий LG.
Предыдущая статья Где философия встречается с ИИ: когда технологиям нужны смыслы Следующая статья Новая модель SciNO решает задачу восстановления причинно-следственных связей

От источника к разбору

Как создавался этот текст

Этот материал не является прямым пересказом исходной публикации. Сначала была отобрана сама новость – как событие, важное для понимания развития ИИ. Затем мы задали рамку обработки: что в тексте важно прояснить, какой контекст добавить и на чём сделать акцент. Это позволило превратить отдельный анонс или обновление в связный и осмысленный разбор.

Нейросети, участвовавшие в работе

Мы открыто показываем, какие модели использовались на разных этапах обработки. Каждая из них выполняла свою роль – анализ источника, переписывание, проверка и визуальная интерпретация. Такой подход позволяет сохранить прозрачность процесса и ясно показать, как именно технологии участвовали в создании материала.

1.
Claude Sonnet 4.5 Anthropic Анализ исходной публикации и написание текста Нейросеть изучает оригинальный материал и формирует связный текст

1. Анализ исходной публикации и написание текста

Нейросеть изучает оригинальный материал и формирует связный текст

Claude Sonnet 4.5 Anthropic
2.
Gemini 2.5 Flash Google DeepMind Проверка и правка текста Исправление ошибок, неточностей и спорных формулировок

2. Проверка и правка текста

Исправление ошибок, неточностей и спорных формулировок

Gemini 2.5 Flash Google DeepMind
3.
DeepSeek-V3.2 DeepSeek Подготовка описания для иллюстрации Генерация текстового промпта для визуальной модели

3. Подготовка описания для иллюстрации

Генерация текстового промпта для визуальной модели

DeepSeek-V3.2 DeepSeek
4.
FLUX.2 Pro Black Forest Labs Создание иллюстрации Генерация изображения по подготовленному промпту

4. Создание иллюстрации

Генерация изображения по подготовленному промпту

FLUX.2 Pro Black Forest Labs

ИИ: События

Вам может быть интересно

Перейти ко всем событиям

Другие события из мира искусственного интеллекта, которые помогают увидеть общую картину и понять, как меняется направление развития технологий.

Компания AMD представила Micro-World – первые модели мира (world models) с открытым исходным кодом. Они способны генерировать видео с учетом действий пользователя в реальном времени и оптимизированы для работы на графических процессорах компании.

Hugging Face запустил Community Evals – платформу, на которой разработчики могут самостоятельно тестировать языковые модели и делиться результатами, не полагаясь на закрытые рейтинги.

Команда Perplexity AI продемонстрировала, как технология прямой передачи данных между серверами помогает языковым моделям работать быстрее и эффективнее, устраняя «узкие места» в сетевой инфраструктуре.

Хотите знать о новых
экспериментах первыми?

Подписывайтесь на наш Telegram-канал – там мы делимся всем самым
свежим и интересным из мира NeuraBooks.

Подписаться