Перейти к содержанию

Словарь терминов ИИ для юристов

Этот раздел содержит объяснения ключевых терминов из мира искусственного интеллекта, написанные простым и понятным языком.

Основные концепции

LLM (Large Language Model) — Большая языковая модель

Простыми словами: Это компьютерная программа, которая понимает и генерирует текст на человеческом языке. Представьте очень начитанного помощника, который прочитал миллионы книг, статей и документов и может на основе этого опыта отвечать на вопросы и создавать тексты.

Примеры:
ChatGPT, Claude, Gemini, Llama


Промпт (Prompt) — Запрос

Простыми словами: Это ваш вопрос или инструкция, которую вы даете ИИ-модели. Чем точнее и подробнее промпт, тем лучше результат.

Примеры: - Плохой промпт: "Напиши договор" - Хороший промпт: "Подготовь проект договора аренды офисного помещения между ООО 'Альфа' (арендодатель) и ИП Иванов И.И. (арендатор) на срок 2 года с правом пролонгации. Включи пункты о порядке оплаты, ответственности сторон и расторжении договора"


Инференс (Inference) — Выполнение модели

Простыми словами: Это момент, когда модель "думает" и генерирует ответ на ваш запрос. Процесс работы модели в реальном времени.

Важно: Инференс отличается от обучения. Обучение — это долгий процесс подготовки модели на больших данных. Инференс — это быстрая работа уже обученной модели.


Обучение (Training)

Простыми словами: Процесс, когда модель изучает огромное количество текстов, чтобы научиться понимать язык и генерировать осмысленные ответы.

Важно: Обычно обучение делают один раз на больших вычислительных мощностях. Пользователи работают с уже обученной моделью.


Fine-tuning — Дообучение

Простыми словами: Дополнительное обучение уже готовой модели на специфических данных, чтобы она лучше работала в конкретной области.

Пример: Взять общую модель ChatGPT и дообучить её на тысячах договоров, чтобы она лучше понимала юридическую терминологию.


Токены (Tokens)

Простыми словами: Это единицы, на которые модель разбивает текст. Один токен — это примерно одно слово или часть слова.

Аналогия: Как страницы в документе. Модель "считает" текст не словами, а токенами. Обычно 1 токен ≈ 0.75 слова на русском языке.

Примеры:
- "Договор" = 1 токен
- "Договор аренды" = 2 токена
- "Договор аренды нежилого помещения" = 4 токена

Почему важно: Модели имеют ограничение на количество токенов, которые они могут обработать за раз (контекстное окно).


Контекст (Context)

Простыми словами: Вся информация, которую модель "помнит" во время разговора: ваш вопрос, предыдущие сообщения, загруженные документы.

Пример: Если вы загрузили договор на 10 страниц и задаете вопросы по нему, весь этот договор — часть контекста модели.


Контекстное окно / Ширина контекста (Context Window)

Простыми словами: Максимальное количество токенов (слов), которое модель может "помнить" одновременно.

Аналогия: Как объем краткосрочной памяти. Если документ слишком большой, модель "забудет" начало, когда дойдет до конца.

Примеры контекстных окон:
- GPT-3.5: ~4,000 токенов (~3,000 слов)
- GPT-4: ~8,000-32,000 токенов
- Claude 3: до 200,000 токенов (целая книга!)
- Llama 3: до 128,000 токенов

Для юристов: Большое контекстное окно позволяет анализировать длинные договоры целиком.


RAG (Retrieval-Augmented Generation) — Поиск и генерация

Простыми словами: Технология, которая позволяет модели искать информацию в вашей собственной базе документов перед ответом.

Как работает:
1. Вы задаете вопрос
2. Система ищет релевантные документы в вашей базе
3. Модель получает и ваш вопрос, и найденные документы
4. Модель генерирует ответ на основе найденной информации

Пример: Вместо того чтобы модель "придумывала" ответ о вашем внутреннем регламенте, она сначала найдет этот регламент в вашей базе и ответит на его основе.


MCP (Model Context Protocol) — Протокол контекста модели

Простыми словами: Стандарт, который позволяет ИИ-моделям безопасно подключаться к внешним инструментам и данным (базам данных, API, файлам).

Аналогия: Как универсальный адаптер для подключения различных устройств. MCP позволяет модели "общаться" с вашими системами: CRM, базами данных, календарями.

Зачем нужно: Модель может не только генерировать текст, но и выполнять действия: искать в базе, отправлять запросы, обновлять данные.

Пример: Модель может подключиться к вашей базе судебных решений и искать прецеденты, или к календарю и планировать встречи.


LoRA / QLoRA — Эффективное дообучение

Простыми словами: Техники, которые позволяют дообучить большую модель, изменяя только небольшую её часть, а не всю модель целиком.

Аналогия: Вместо того чтобы переписывать всю книгу, вы добавляете закладки и пометки на нужных страницах. Модель остается той же, но "знает" ваши специфические данные.

Преимущества:
- Требует меньше вычислительных ресурсов
- Быстрее обучается
- Можно запускать на обычных компьютерах

LoRA (Low-Rank Adaptation): Дообучение через добавление небольших слоев QLoRA (Quantized LoRA): То же самое, но с уменьшенной точностью для экономии памяти


Векторные базы данных (Vector Databases)

Простыми словами: Специальные базы данных, которые хранят документы в виде "векторов" (математических представлений смысла) и позволяют быстро находить похожие по смыслу тексты.

Аналогия: Как каталог в библиотеке, но вместо алфавитного порядка — группировка по смыслу. Если вы ищете документы про "расторжение договора", система найдет все документы с похожим смыслом, даже если там используются другие слова.

Примеры:
Qdrant, Pinecone, Weaviate, Chroma

Для юристов: Позволяет быстро находить похожие договоры, прецеденты, даже если формулировки отличаются.


Графовые базы данных (Graph Databases)

Простыми словами: Базы данных, которые хранят связи между объектами (как схема связей между людьми в социальной сети).

Аналогия: Как генеалогическое древо или схема связей между компаниями в холдинге. Граф показывает, кто с кем связан и как.

Для юристов: Полезно для анализа связей между сторонами договоров, бенефициарами, аффилированными лицами.

Примеры:
Neo4j, ArangoDB


Параметры работы модели

Температура (Temperature)

Простыми словами: Параметр, который контролирует "креативность" или "предсказуемость" ответов модели.

  • Низкая температура (0.1-0.3): Модель дает точные, предсказуемые ответы. Как юрист, строго следующий шаблону.
  • Высокая температура (0.7-1.0): Модель более креативна, может предлагать неожиданные формулировки. Как юрист, который ищет нестандартные решения.

Для юридических задач: Обычно используют низкую температуру (0.1-0.3) для точности и соответствия стандартам.


Top-p / Top-k — Ограничение выбора слов

Простыми словами: Параметры, которые ограничивают, из каких слов модель может выбирать при генерации ответа.

Top-k: Модель выбирает только из K наиболее вероятных слов
Top-p: Модель выбирает из слов, сумма вероятностей которых не превышает P

Аналогия: Как ограничение словаря. Вместо того чтобы выбирать из всех слов языка, модель выбирает только из наиболее подходящих.

Для юристов: Помогает избежать использования неподходящих терминов.


Stop tokens — Стоп-слова

Простыми словами: Специальные слова или фразы, при встрече с которыми модель прекращает генерацию.

Пример: Если вы установите stop token "КОНЕЦ ДОКУМЕНТА", модель остановится, когда напишет эту фразу.

Для юристов: Полезно для ограничения длины генерируемых документов.


Проблемы и ограничения

Hallucinations — Галлюцинации моделей

Простыми словами: Ситуация, когда модель генерирует информацию, которая выглядит правдоподобно, но на самом деле неверна или выдумана.

Аналогия: Как свидетель, который уверенно рассказывает детали, которых на самом деле не было. Модель "уверена" в своем ответе, но он не соответствует реальности.

Пример: Модель может указать несуществующую статью закона или неправильную дату судебного решения.

Как избежать:
- Использовать RAG для работы с реальными документами
- Всегда проверять факты
- Использовать низкую температуру


Prompt Leakage — Утечка промпта

Простыми словами: Ситуация, когда модель случайно выдает внутренние инструкции или системные промпты, которые не должны быть видны пользователю.

Пример: Вместо ответа на вопрос клиента модель может начать: "Вы — помощник юриста. Ваша задача — отвечать на вопросы о договорах..."

Как избежать: Правильная настройка системных промптов и фильтрация ответов.


Alignment — Выравнивание

Простыми словами: Процесс обучения модели, чтобы она вела себя полезно, безопасно и этично.

Для юридических моделей: Особенно важно, чтобы модель не давала юридических советов без оговорок, соблюдала конфиденциальность, не нарушала этику.


Техники работы с моделями

Chain-of-Thought (CoT) — Цепочка рассуждений

Простыми словами: Техника, когда вы просите модель показать свои рассуждения шаг за шагом, а не сразу давать ответ.

Аналогия: Как просить юриста объяснить не только вывод, но и логику: "Сначала я проанализировал договор, затем нашел похожие прецеденты, потом сравнил условия, и поэтому пришел к такому выводу..."

Пример промпта: "Реши задачу пошагово, объясняя каждый шаг: [задача]"

Преимущества:
- Более точные ответы
- Можно проверить логику
- Модель "думает" более структурированно


Reasoning Mode — Режим размышления

Простыми словами: Специальный режим работы некоторых моделей (например, o1 от OpenAI), когда модель тратит больше времени на "размышление" перед ответом.

Особенности:
- Ответы более точные и обдуманные
- Модель может "думать" несколько минут
- Подходит для сложных задач


Технические термины

KV-кэш (Key-Value Cache)

Простыми словами: Механизм, который позволяет модели "запоминать" уже обработанные части текста, чтобы не пересчитывать их заново.

Преимущества: Ускоряет работу модели, особенно в длинных диалогах.


Latency — Задержка

Простыми словами: Время, которое проходит от момента вашего запроса до получения ответа.

Для юристов: Важно для интерактивных систем, где пользователь ждет ответ в реальном времени.


Throughput — Пропускная способность

Простыми словами: Количество запросов, которые система может обработать за единицу времени.

Для юридических систем: Важно при работе с большим количеством документов одновременно.


Квантование (Quantization)

Простыми словами: Техника уменьшения размера модели за счет снижения точности вычислений, что позволяет запускать большие модели на обычных компьютерах.

Методы:
- INT8: Уменьшение точности в 4 раза
- INT4: Уменьшение точности в 8 раз
- GPTQ, GGUF: Специальные форматы сжатых моделей

Для юристов: Позволяет запускать мощные модели на обычных компьютерах без облачных сервисов.


Типы моделей

Проприетарные модели (Proprietary)

Простыми словами: Модели, код и детали обучения которых закрыты. Обычно предоставляются через API за плату.

Примеры:
ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google)

Плюсы:
- Высокое качество
- Не нужно настраивать инфраструктуру
- Регулярные обновления

Минусы:
- Зависимость от провайдера
- Данные могут уходить в облако
- Стоимость использования


Open-source модели (Открытые модели)

Простыми словами: Модели, код и веса которых открыты. Можно скачать и запускать самостоятельно.

Примеры:
Llama (Meta), Mistral, Qwen, Phi (Microsoft)

Плюсы:
- Полный контроль над данными
- Можно дообучать под свои задачи
- Нет зависимости от провайдера

Минусы:
- Требуют технических знаний для настройки
- Нужны вычислительные ресурсы
- Качество может быть ниже проприетарных


Инференс-сервер (Inference Server)

Простыми словами: Программа, которая запускает модель и обрабатывает запросы от пользователей.

Примеры:
vLLM, TensorRT-LLM, Ollama

Для юристов: Позволяет запустить модель в своей инфраструктуре для работы с конфиденциальными данными.


Prompt Engineering — Промпт-инжиниринг

Простыми словами: Искусство и наука формулирования запросов к ИИ-моделям для получения наилучших результатов.

Аналогия: Как умение правильно задавать вопросы. Один и тот же вопрос, заданный по-разному, может дать совершенно разные ответы.

Примеры техник:
- Few-shot learning (показ примеров)
- Chain-of-thought (пошаговые рассуждения)
- Role-playing (назначение роли модели)

Для юристов: Критически важно, так как от формулировки запроса зависит качество генерируемых документов и анализов.


Дополнительные полезные термины

Embedding — Векторное представление

Простыми словами: Математическое представление текста в виде чисел, которое отражает его смысл. Похожие по смыслу тексты имеют похожие векторы.

Аналогия: Как координаты на карте. Тексты с похожим смыслом находятся "близко" друг к другу в пространстве векторов.

Использование: Основа для векторного поиска в RAG-системах.


Tokenization — Токенизация

Простыми словами: Процесс разбиения текста на токены перед обработкой моделью.

Важно: Разные модели используют разные способы токенизации, поэтому один и тот же текст может занимать разное количество токенов.


Few-shot Learning — Обучение на примерах

Простыми словами: Техника, когда вы показываете модели несколько примеров желаемого результата прямо в промпте, и модель учится на них.

Пример:

Пример 1: [вход] → [выход]
Пример 2: [вход] → [выход]
Задача: [новый вход] → ?

Для юристов: Показываете несколько примеров правильно оформленных договоров, и модель учится их стилю.


Zero-shot Learning — Работа без примеров

Простыми словами: Способность модели выполнять задачу, которую она не видела в примерах, только на основе описания.

Пример: Модель может перевести текст на язык, который она никогда не видела в примерах перевода, если просто попросить её это сделать.


Multi-modal — Мультимодальность

Простыми словами: Способность модели работать не только с текстом, но и с изображениями, аудио, видео.

Для юристов: Модель может анализировать сканы документов, схемы, графики в договорах.


Резюме

Этот словарь покрывает основные термины, которые вам встретятся при работе с ИИ в юридической практике. Помните:

  • Не бойтесь терминов — за каждым стоит простая концепция
  • Используйте аналогии — они помогают понять сложное через простое
  • Практикуйтесь — лучший способ понять термин — использовать его на практике

В следующих разделах мы подробнее разберем, как эти концепции применяются на практике.