Перейти к содержанию

Современные LLM-модели: обзор и сравнение

В этом разделе мы разберем, какие модели доступны сегодня, чем они отличаются, и как выбрать подходящую для юридических задач.

Проприетарные модели (закрытые)

Проприетарные модели — это коммерческие решения, которые предоставляются через API или веб-интерфейсы. Вы не можете скачать и запустить их самостоятельно, но получаете доступ к высококачественным моделям без необходимости настройки инфраструктуры.

ChatGPT (OpenAI)

Версии: GPT-4o, GPT-4o-mini, o1-preview, o1-mini (reasoning)

Особенности:
- GPT-4o: мультимодальная модель с улучшенным качеством и скоростью
- GPT-4o-mini: более быстрая и экономичная версия
- o1-preview и o1-mini: reasoning-модели для сложных аналитических задач
- Поддержка длинных документов (до 128K токенов в GPT-4o)
- Улучшенная работа с кодом и структурированными данными

Для юристов:
- ✅ Отличное качество анализа документов
- ✅ Хорошо работает с юридической терминологией
- ✅ Reasoning-модели (o1) для сложных многошаговых задач
- ⚠️ Данные могут обрабатываться в облаке (важно для конфиденциальности)
- ⚠️ Стоимость зависит от объема использования

Где использовать: Через веб-интерфейс chat.openai.com или API


Claude (Anthropic)

Версии: Claude 3.5 Sonnet, Claude 3 Opus, Claude 3 Haiku

Особенности:
- Claude 3.5 Sonnet: самая быстрая и эффективная модель в линейке (2024)
- Очень большое контекстное окно (до 200K токенов — целая книга!)
- Высокое качество анализа длинных документов
- Хорошая работа с многоязычными текстами
- Фокус на безопасности и этичности
- Улучшенная работа с кодом и структурированными данными

Для юристов:
- ✅ Может анализировать очень длинные договоры целиком
- ✅ Отличное качество структурирования информации
- ✅ Хорошо работает с таблицами и структурированными данными
- ✅ Claude 3.5 Sonnet показывает отличные результаты в юридических задачах
- ⚠️ Может быть излишне осторожен в некоторых ответах

Где использовать: Через веб-интерфейс claude.ai или API


Gemini (Google)

Версии: Gemini 2.0 Flash, Gemini 1.5 Pro, Gemini 1.5 Flash

Особенности:
- Gemini 2.0 Flash: новая быстрая модель с улучшенным качеством (2024)
- Gemini 1.5 Pro: мощная модель с контекстом до 2M токенов
- Мультимодальность (работа с текстом, изображениями, аудио, видео)
- Интеграция с экосистемой Google
- Хорошая работа с поиском информации
- Улучшенная работа с длинными документами

Для юристов:
- ✅ Может анализировать сканы документов и видео
- ✅ Интеграция с Google Workspace
- ✅ Gemini 1.5 Pro может обрабатывать огромные документы (до 2M токенов)
- ✅ Gemini 2.0 Flash показывает хорошее качество при высокой скорости
- ⚠️ Качество может уступать ChatGPT и Claude в некоторых специализированных задачах

Где использовать: Через Google AI Studio, Vertex AI или API


Mistral Large (Mistral AI)

Версии: Mistral Large 2, Mistral Small 2

Особенности:
- Mistral Large 2: обновленная версия с улучшенным качеством (2024)
- Mistral Small 2: быстрая и экономичная модель
- Хороший баланс качества и стоимости
- Хорошая работа с европейскими языками
- Открытая политика (часть моделей открыта)
- Улучшенная работа с кодом и структурированными данными

Для юристов:
- ✅ Хорошее качество при разумной стоимости
- ✅ Хорошая работа с русским языком
- ✅ Можно использовать через API или развернуть локально
- ✅ Mistral Large 2 показывает улучшенные результаты в аналитических задачах

Где использовать: Через Mistral AI Platform или API


YandexGPT-5 (Яндекс)

Версии: YandexGPT-5 Lite, YandexGPT-5 Pro

Особенности:
- YandexGPT-5 Lite: 8 млрд параметров, контекст до 32K токенов
- YandexGPT-5 Pro: более мощная версия для бизнеса
- Обучение с использованием методов PPO и DPO (обучение с подкреплением)
- По заявлению Яндекса, качество сопоставимо или лучше зарубежных аналогов в большинстве бенчмарков
- Хорошая адаптация под русский язык

Для юристов:
- ✅ Отличная работа с русским языком
- ✅ Использование отечественной инфраструктуры (важно для российских компаний)
- ✅ Lite версия доступна через Алису без подписки
- ✅ Pro версия доступна через Yandex Cloud для бизнеса
- ✅ Возможность дообучения под специфические задачи

Где использовать:
- Lite: через Алису (yandex.ru/alice) или API
- Pro: через Yandex Cloud для бизнес-задач


GigaChat (Сбербанк)

Версии: GigaChat (базовая версия), GigaChat Multimodal, GigaChat Pro

Особенности:
- Один из наиболее заметных отечественных чат-LLM
- Мультимодальная модель (работа с текстом, изображениями)
- Хорошая адаптация под русский язык
- Использование отечественной инфраструктуры (серверы в России)
- Постоянное улучшение качества и возможностей
- GigaChat Pro: улучшенная версия для бизнес-задач

Для юристов:
- ✅ Отличная работа с русским языком
- ✅ Использование отечественной инфраструктуры (важно для российских компаний)
- ✅ Доступ через API и веб-интерфейс
- ✅ Мультимодальные возможности для работы с документами
- ⚠️ Пока отстает от ведущих западных и китайских моделей по качеству в некоторых задачах
- ✅ Постоянно улучшается и обновляется

Где использовать:
- Через веб-интерфейс gigachat.ru
- Через API для интеграции в бизнес-процессы


Открытые модели (Open Source)

Открытые модели можно скачать и запустить самостоятельно. Это дает полный контроль над данными, но требует технических знаний и вычислительных ресурсов.

Llama (Meta)

Версии: Llama 3.1 (8B, 70B, 405B), Llama 3.2 (3B, 1B), Llama 3 (8B, 70B)

Особенности:
- Llama 3.1: улучшенная версия с лучшим качеством и большим контекстом (2024)
- Llama 3.2: компактные модели для мобильных устройств и edge-вычислений
- Открытая лицензия (для большинства версий)
- Хорошее качество, конкурирует с проприетарными моделями
- Большое сообщество и поддержка
- Много вариантов дообученных версий
- Улучшенная работа с кодом и структурированными данными

Для юристов:
- ✅ Можно запустить локально
- ✅ Много специализированных версий (например, для юридических задач)
- ✅ Llama 3.1 показывает отличные результаты в аналитических задачах
- ✅ Llama 3.2 позволяет запускать на менее мощном оборудовании
- ⚠️ Требует мощное оборудование для больших версий (70B+)
- ⚠️ Качество может уступать топовым проприетарным моделям в сложных задачах

Где использовать:
- Скачать с HuggingFace
- Использовать через Ollama (простой запуск)
- Развернуть через vLLM или другие серверы


Mistral / Mixtral (Mistral AI)

Версии: Mistral 7B, Mixtral 8x7B, Mixtral 8x22B, Pixtral 12B

Особенности:
- Mixtral использует "mixture of experts" — несколько экспертов работают вместе
- Pixtral 12B: новая мультимодальная модель (работа с текстом и изображениями)
- Отличное качество для своего размера
- Эффективное использование ресурсов
- Открытая лицензия Apache 2.0

Для юристов:
- ✅ Хорошее качество при относительно небольшом размере
- ✅ Можно запустить на мощном компьютере или сервере
- ✅ Pixtral позволяет анализировать изображения документов
- ✅ Открытая лицензия Apache 2.0

Где использовать:
- Скачать с HuggingFace
- Использовать через Ollama
- Развернуть через vLLM или другие серверы


Qwen (Alibaba)

Версии: Qwen 2.5 (0.5B, 1.5B, 7B, 14B, 32B, 72B), Qwen 2.5-VL (мультимодальная)

Особенности:
- Qwen 2.5: улучшенная версия с лучшим качеством (2024)
- Очень хорошая работа с китайским языком
- Хорошее качество на других языках, включая русский
- Большие контекстные окна (до 128K токенов)
- Qwen 2.5-VL: мультимодальная версия для работы с изображениями
- Открытая лицензия Apache 2.0

Для юристов:
- ✅ Хорошая работа с русским языком
- ✅ Большие контекстные окна
- ✅ Мультимодальная версия для анализа сканов документов
- ✅ Открытая лицензия
- ✅ Хорошее качество при разумных требованиях к ресурсам

Где использовать:
- Скачать с HuggingFace
- Использовать через Ollama
- Развернуть через vLLM или другие серверы


Phi (Microsoft)

Версии: Phi-3.5 (3.8B, 14B), Phi-3-mini (3.8B), Phi-3-medium (14B)

Особенности:
- Phi-3.5: улучшенная версия с лучшим качеством (2024)
- Очень маленькие модели (3.8B-14B параметров)
- Высокое качество для своего размера
- Можно запустить на обычном компьютере или мобильных устройствах
- Хорошая работа с кодом и структурированными данными

Для юристов:
- ✅ Можно запустить на ноутбуке или даже мобильном устройстве
- ✅ Быстрая работа
- ✅ Phi-3.5 показывает хорошие результаты для своего размера
- ⚠️ Ограниченные возможности по сравнению с большими моделями
- ✅ Хорошо для простых задач и edge-вычислений

Где использовать:
- Скачать с HuggingFace
- Использовать через Ollama
- Развернуть на мобильных устройствах или edge-серверах


DeepSeek (DeepSeek AI)

Версии: DeepSeek-V3, DeepSeek-R1 (reasoning), DeepSeek-Coder-V2

Особенности:
- DeepSeek-V3: новая большая модель с улучшенной архитектурой (MoE) и качеством (2024)
- DeepSeek-R1: reasoning-модель для сложных аналитических задач
- DeepSeek-Coder-V2: улучшенная версия для программирования
- Очень большие контекстные окна (до 128K+ токенов)
- Открытые версии доступны для локального запуска
- Высокое качество, конкурирует с ведущими проприетарными моделями
- Эффективное использование ресурсов благодаря архитектуре MoE

Для юристов:
- ✅ Высокое качество анализа документов
- ✅ Reasoning-версия для сложных аналитических задач
- ✅ Можно запустить локально (открытые версии)
- ✅ Отличная работа с длинными документами
- ✅ DeepSeek-V3 показывает результаты на уровне топовых проприетарных моделей
- ⚠️ Требует мощное оборудование для больших версий

Где использовать:
- Скачать с HuggingFace (открытые версии)
- Использовать через Ollama
- API через платформы DeepSeek

Сравнительная таблица

Модель Тип Контекст Качество Стоимость Конфиденциальность
GPT-5 Проприетарная 200K ⭐⭐⭐⭐⭐ $$$ ⚠️ Облако
Claude 4.5 Sonnet Проприетарная 200K ⭐⭐⭐⭐⭐ $$ ⚠️ Облако
Gemini 2.0 Flash Проприетарная 1M+ ⭐⭐⭐⭐ $$ ⚠️ Облако
Gemini 1.5 Pro Проприетарная 2M ⭐⭐⭐⭐⭐ $$$ ⚠️ Облако
Mistral Large 2 Проприетарная 128K ⭐⭐⭐⭐ $$ ⚠️ Облако
YandexGPT-5 Pro Проприетарная 32K+ ⭐⭐⭐⭐ $$ ⚠️ Облако
YandexGPT-5 Lite Проприетарная 32K ⭐⭐⭐⭐ $ ⚠️ Облако
GigaChat Pro Проприетарная - ⭐⭐⭐ $$ ⚠️ Облако
Llama 3.1 70B Открытая 128K ⭐⭐⭐⭐ Бесплатно* ✅ Локально
Llama 3.1 405B Открытая 128K ⭐⭐⭐⭐⭐ Бесплатно* ✅ Локально
Mixtral 8x22B Открытая 65K ⭐⭐⭐⭐ Бесплатно* ✅ Локально
Qwen 2.5 72B Открытая 128K ⭐⭐⭐⭐ Бесплатно* ✅ Локально
DeepSeek-V3 Открытая 128K+ ⭐⭐⭐⭐⭐ Бесплатно* ✅ Локально
DeepSeek-R1 Открытая 64K ⭐⭐⭐⭐⭐ Бесплатно* ✅ Локально (reasoning)
Phi-3.5 Открытая 128K ⭐⭐⭐ Бесплатно* ✅ Локально

*Бесплатно при запуске на собственном оборудовании


Что такое "думающие" (reasoning) модели?

Обычные модели генерируют ответ сразу, "на лету". Reasoning-модели (например, o1 от OpenAI) тратят время на "размышление" перед ответом.

Как это работает?

graph LR
    A[Ваш вопрос] --> B[Модель думает<br/>внутренне]
    B --> C[Генерирует ответ]

    style B fill:#e1f5ff
    style C fill:#c8e6c9

Когда использовать reasoning-модели?

Подходит для:
- Сложных аналитических задач
- Многошаговых рассуждений
- Задач, где важна точность

Не подходит для:
- Простых вопросов (слишком медленно)
- Интерактивных диалогов (долгое ожидание)
- Задач, где нужна скорость


От чего зависит качество модели?

1. Размер модели (количество параметров)

Параметры — это "знания" модели. Чем больше параметров, тем больше модель "знает", но тем больше ресурсов требуется.

Типичные размеры:
- Малые (1-7B): Быстрые, можно на ноутбуке, ограниченные возможности
- Средние (13-30B): Хороший баланс
- Большие (70B+): Высокое качество, требуют мощное оборудование

2. Качество обучающих данных

Модель учится на текстах. Чем качественнее тексты, тем лучше модель.

Для юридических задач: Важно, чтобы в обучающих данных было много юридических текстов.

3. Метод обучения

Разные методы обучения дают разные результаты:
- Supervised learning: Обучение на примерах "вопрос-ответ"
- Reinforcement learning: Обучение через обратную связь
- Fine-tuning: Дообучение на специфических данных

4. Архитектура модели

Разные архитектуры (Transformer, MoE и др.) имеют разные сильные стороны.


Где и как использовать модели?

1. Через веб-интерфейс (чат)

Примеры: chat.openai.com, claude.ai

Плюсы:
- Простота использования
- Не требует технических знаний
- Быстрый старт

Минусы:
- Ограниченная автоматизация
- Данные уходят в облако
- Сложно интегрировать в рабочие процессы

Для кого: Для личного использования, экспериментов, простых задач


2. Через API

Как работает: Ваше приложение отправляет запросы модели через интернет, получает ответы.

Плюсы:
- Можно интегрировать в свои системы
- Автоматизация процессов
- Гибкость в настройке

Минусы:
- Требует программирования
- Стоимость за использование
- Зависимость от интернета

Для кого: Для разработчиков, автоматизации процессов

Пример использования:

# Упрощенный пример (актуальный API на 2025 год)
from openai import OpenAI

client = OpenAI()

response = client.chat.completions.create(
    model="gpt-4o",  # или "gpt-4o-mini" для более экономичного варианта
    messages=[
        {"role": "system", "content": "Ты помощник юриста"},
        {"role": "user", "content": "Проанализируй этот договор..."}
    ]
)

print(response.choices[0].message.content)


3. Локальный запуск (для открытых моделей)

Как работает: Скачиваете модель, запускаете на своем сервере или компьютере.

Плюсы:
- Полный контроль над данными
- Нет зависимости от интернета
- Нет платы за использование (только оборудование)

Минусы:
- Требует технических знаний
- Нужно мощное оборудование
- Нужно поддерживать инфраструктуру

Для кого: Для организаций с высокими требованиями к конфиденциальности

Инструменты для запуска:
- Ollama: Простой запуск моделей
- vLLM: Высокопроизводительный сервер
- LM Studio: Графический интерфейс для Windows/Mac


Рекомендации для юридической практики

Выбор модели: чек-лист

Для начала работы:
- ChatGPT или Claude через веб-интерфейс
- Экспериментируйте, понимайте возможности

Для автоматизации:
- API проприетарных моделей (GPT-4, Claude)
- Интеграция в существующие системы

Для конфиденциальных данных:
- Локальный запуск открытых моделей (Llama, Mistral)
- Использование RAG с локальными моделями

Для простых задач:
- Малые открытые модели (Phi-3.5, Llama 3.1 8B, Llama 3.2)
- Можно запустить на обычном компьютере или мобильных устройствах

Для сложного анализа:
- Большие проприетарные модели (GPT-4o, Claude 3.5 Sonnet, Gemini 1.5 Pro)
- Reasoning-модели для сложных задач (o1, DeepSeek-R1)
- Открытые модели высокого качества (Llama 3.1 405B, DeepSeek-V3)


Практические советы

Совет 1: Начните с простого

Не пытайтесь сразу внедрить сложную систему. Начните с простых задач через веб-интерфейс, поймите возможности и ограничения.

Совет 2: Тестируйте на реальных задачах

Каждая модель имеет свои сильные стороны. Тестируйте на ваших реальных документах, а не на общих примерах.

Совет 3: Учитывайте конфиденциальность

Если работаете с конфиденциальными данными, рассмотрите локальные решения или модели с гарантиями конфиденциальности.

Совет 4: Считайте стоимость

API-модели платные. Рассчитайте стоимость для вашего объема работы. Иногда локальный запуск может быть дешевле.


Резюме

  • Проприетарные модели (GPT-4o, Claude 3.5 Sonnet, Gemini 2.0) — высокое качество, простота использования, но данные в облаке
  • Открытые модели (Llama 3.1, Mistral, Qwen 2.5, DeepSeek-V3) — полный контроль, конфиденциальность, но требуют технических знаний
  • Reasoning-модели (o1, DeepSeek-R1) — для сложных аналитических задач, требующих многошаговых рассуждений
  • Мультимодальные модели (GPT-4o, Gemini, Pixtral, Qwen 2.5-VL) — работа с текстом, изображениями, видео
  • Выбор зависит от задач, требований к конфиденциальности, бюджета и технических возможностей

В следующем разделе мы подробнее разберем работу с открытыми моделями и их развертывание.