Словарь терминов ИИ для юристов¶
Этот раздел содержит объяснения ключевых терминов из мира искусственного интеллекта, написанные простым и понятным языком.
Основные концепции¶
LLM (Large Language Model) — Большая языковая модель¶
Простыми словами: Это компьютерная программа, которая понимает и генерирует текст на человеческом языке. Представьте очень начитанного помощника, который прочитал миллионы книг, статей и документов и может на основе этого опыта отвечать на вопросы и создавать тексты.
Примеры:
ChatGPT, Claude, Gemini, Llama
Промпт (Prompt) — Запрос¶
Простыми словами: Это ваш вопрос или инструкция, которую вы даете ИИ-модели. Чем точнее и подробнее промпт, тем лучше результат.
Примеры: - Плохой промпт: "Напиши договор" - Хороший промпт: "Подготовь проект договора аренды офисного помещения между ООО 'Альфа' (арендодатель) и ИП Иванов И.И. (арендатор) на срок 2 года с правом пролонгации. Включи пункты о порядке оплаты, ответственности сторон и расторжении договора"
Инференс (Inference) — Выполнение модели¶
Простыми словами: Это момент, когда модель "думает" и генерирует ответ на ваш запрос. Процесс работы модели в реальном времени.
Важно: Инференс отличается от обучения. Обучение — это долгий процесс подготовки модели на больших данных. Инференс — это быстрая работа уже обученной модели.
Обучение (Training)¶
Простыми словами: Процесс, когда модель изучает огромное количество текстов, чтобы научиться понимать язык и генерировать осмысленные ответы.
Важно: Обычно обучение делают один раз на больших вычислительных мощностях. Пользователи работают с уже обученной моделью.
Fine-tuning — Дообучение¶
Простыми словами: Дополнительное обучение уже готовой модели на специфических данных, чтобы она лучше работала в конкретной области.
Пример: Взять общую модель ChatGPT и дообучить её на тысячах договоров, чтобы она лучше понимала юридическую терминологию.
Токены (Tokens)¶
Простыми словами: Это единицы, на которые модель разбивает текст. Один токен — это примерно одно слово или часть слова.
Аналогия: Как страницы в документе. Модель "считает" текст не словами, а токенами. Обычно 1 токен ≈ 0.75 слова на русском языке.
Примеры:
- "Договор" = 1 токен
- "Договор аренды" = 2 токена
- "Договор аренды нежилого помещения" = 4 токена
Почему важно: Модели имеют ограничение на количество токенов, которые они могут обработать за раз (контекстное окно).
Контекст (Context)¶
Простыми словами: Вся информация, которую модель "помнит" во время разговора: ваш вопрос, предыдущие сообщения, загруженные документы.
Пример: Если вы загрузили договор на 10 страниц и задаете вопросы по нему, весь этот договор — часть контекста модели.
Контекстное окно / Ширина контекста (Context Window)¶
Простыми словами: Максимальное количество токенов (слов), которое модель может "помнить" одновременно.
Аналогия: Как объем краткосрочной памяти. Если документ слишком большой, модель "забудет" начало, когда дойдет до конца.
Примеры контекстных окон:
- GPT-3.5: ~4,000 токенов (~3,000 слов)
- GPT-4: ~8,000-32,000 токенов
- Claude 3: до 200,000 токенов (целая книга!)
- Llama 3: до 128,000 токенов
Для юристов: Большое контекстное окно позволяет анализировать длинные договоры целиком.
RAG (Retrieval-Augmented Generation) — Поиск и генерация¶
Простыми словами: Технология, которая позволяет модели искать информацию в вашей собственной базе документов перед ответом.
Как работает:
1. Вы задаете вопрос
2. Система ищет релевантные документы в вашей базе
3. Модель получает и ваш вопрос, и найденные документы
4. Модель генерирует ответ на основе найденной информации
Пример: Вместо того чтобы модель "придумывала" ответ о вашем внутреннем регламенте, она сначала найдет этот регламент в вашей базе и ответит на его основе.
MCP (Model Context Protocol) — Протокол контекста модели¶
Простыми словами: Стандарт, который позволяет ИИ-моделям безопасно подключаться к внешним инструментам и данным (базам данных, API, файлам).
Аналогия: Как универсальный адаптер для подключения различных устройств. MCP позволяет модели "общаться" с вашими системами: CRM, базами данных, календарями.
Зачем нужно: Модель может не только генерировать текст, но и выполнять действия: искать в базе, отправлять запросы, обновлять данные.
Пример: Модель может подключиться к вашей базе судебных решений и искать прецеденты, или к календарю и планировать встречи.
LoRA / QLoRA — Эффективное дообучение¶
Простыми словами: Техники, которые позволяют дообучить большую модель, изменяя только небольшую её часть, а не всю модель целиком.
Аналогия: Вместо того чтобы переписывать всю книгу, вы добавляете закладки и пометки на нужных страницах. Модель остается той же, но "знает" ваши специфические данные.
Преимущества:
- Требует меньше вычислительных ресурсов
- Быстрее обучается
- Можно запускать на обычных компьютерах
LoRA (Low-Rank Adaptation): Дообучение через добавление небольших слоев QLoRA (Quantized LoRA): То же самое, но с уменьшенной точностью для экономии памяти
Векторные базы данных (Vector Databases)¶
Простыми словами: Специальные базы данных, которые хранят документы в виде "векторов" (математических представлений смысла) и позволяют быстро находить похожие по смыслу тексты.
Аналогия: Как каталог в библиотеке, но вместо алфавитного порядка — группировка по смыслу. Если вы ищете документы про "расторжение договора", система найдет все документы с похожим смыслом, даже если там используются другие слова.
Примеры:
Qdrant, Pinecone, Weaviate, Chroma
Для юристов: Позволяет быстро находить похожие договоры, прецеденты, даже если формулировки отличаются.
Графовые базы данных (Graph Databases)¶
Простыми словами: Базы данных, которые хранят связи между объектами (как схема связей между людьми в социальной сети).
Аналогия: Как генеалогическое древо или схема связей между компаниями в холдинге. Граф показывает, кто с кем связан и как.
Для юристов: Полезно для анализа связей между сторонами договоров, бенефициарами, аффилированными лицами.
Примеры:
Neo4j, ArangoDB
Параметры работы модели¶
Температура (Temperature)¶
Простыми словами: Параметр, который контролирует "креативность" или "предсказуемость" ответов модели.
- Низкая температура (0.1-0.3): Модель дает точные, предсказуемые ответы. Как юрист, строго следующий шаблону.
- Высокая температура (0.7-1.0): Модель более креативна, может предлагать неожиданные формулировки. Как юрист, который ищет нестандартные решения.
Для юридических задач: Обычно используют низкую температуру (0.1-0.3) для точности и соответствия стандартам.
Top-p / Top-k — Ограничение выбора слов¶
Простыми словами: Параметры, которые ограничивают, из каких слов модель может выбирать при генерации ответа.
Top-k: Модель выбирает только из K наиболее вероятных слов
Top-p: Модель выбирает из слов, сумма вероятностей которых не превышает P
Аналогия: Как ограничение словаря. Вместо того чтобы выбирать из всех слов языка, модель выбирает только из наиболее подходящих.
Для юристов: Помогает избежать использования неподходящих терминов.
Stop tokens — Стоп-слова¶
Простыми словами: Специальные слова или фразы, при встрече с которыми модель прекращает генерацию.
Пример: Если вы установите stop token "КОНЕЦ ДОКУМЕНТА", модель остановится, когда напишет эту фразу.
Для юристов: Полезно для ограничения длины генерируемых документов.
Проблемы и ограничения¶
Hallucinations — Галлюцинации моделей¶
Простыми словами: Ситуация, когда модель генерирует информацию, которая выглядит правдоподобно, но на самом деле неверна или выдумана.
Аналогия: Как свидетель, который уверенно рассказывает детали, которых на самом деле не было. Модель "уверена" в своем ответе, но он не соответствует реальности.
Пример: Модель может указать несуществующую статью закона или неправильную дату судебного решения.
Как избежать:
- Использовать RAG для работы с реальными документами
- Всегда проверять факты
- Использовать низкую температуру
Prompt Leakage — Утечка промпта¶
Простыми словами: Ситуация, когда модель случайно выдает внутренние инструкции или системные промпты, которые не должны быть видны пользователю.
Пример: Вместо ответа на вопрос клиента модель может начать: "Вы — помощник юриста. Ваша задача — отвечать на вопросы о договорах..."
Как избежать: Правильная настройка системных промптов и фильтрация ответов.
Alignment — Выравнивание¶
Простыми словами: Процесс обучения модели, чтобы она вела себя полезно, безопасно и этично.
Для юридических моделей: Особенно важно, чтобы модель не давала юридических советов без оговорок, соблюдала конфиденциальность, не нарушала этику.
Техники работы с моделями¶
Chain-of-Thought (CoT) — Цепочка рассуждений¶
Простыми словами: Техника, когда вы просите модель показать свои рассуждения шаг за шагом, а не сразу давать ответ.
Аналогия: Как просить юриста объяснить не только вывод, но и логику: "Сначала я проанализировал договор, затем нашел похожие прецеденты, потом сравнил условия, и поэтому пришел к такому выводу..."
Пример промпта: "Реши задачу пошагово, объясняя каждый шаг: [задача]"
Преимущества:
- Более точные ответы
- Можно проверить логику
- Модель "думает" более структурированно
Reasoning Mode — Режим размышления¶
Простыми словами: Специальный режим работы некоторых моделей (например, o1 от OpenAI), когда модель тратит больше времени на "размышление" перед ответом.
Особенности:
- Ответы более точные и обдуманные
- Модель может "думать" несколько минут
- Подходит для сложных задач
Технические термины¶
KV-кэш (Key-Value Cache)¶
Простыми словами: Механизм, который позволяет модели "запоминать" уже обработанные части текста, чтобы не пересчитывать их заново.
Преимущества: Ускоряет работу модели, особенно в длинных диалогах.
Latency — Задержка¶
Простыми словами: Время, которое проходит от момента вашего запроса до получения ответа.
Для юристов: Важно для интерактивных систем, где пользователь ждет ответ в реальном времени.
Throughput — Пропускная способность¶
Простыми словами: Количество запросов, которые система может обработать за единицу времени.
Для юридических систем: Важно при работе с большим количеством документов одновременно.
Квантование (Quantization)¶
Простыми словами: Техника уменьшения размера модели за счет снижения точности вычислений, что позволяет запускать большие модели на обычных компьютерах.
Методы:
- INT8: Уменьшение точности в 4 раза
- INT4: Уменьшение точности в 8 раз
- GPTQ, GGUF: Специальные форматы сжатых моделей
Для юристов: Позволяет запускать мощные модели на обычных компьютерах без облачных сервисов.
Типы моделей¶
Проприетарные модели (Proprietary)¶
Простыми словами: Модели, код и детали обучения которых закрыты. Обычно предоставляются через API за плату.
Примеры:
ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google)
Плюсы:
- Высокое качество
- Не нужно настраивать инфраструктуру
- Регулярные обновления
Минусы:
- Зависимость от провайдера
- Данные могут уходить в облако
- Стоимость использования
Open-source модели (Открытые модели)¶
Простыми словами: Модели, код и веса которых открыты. Можно скачать и запускать самостоятельно.
Примеры:
Llama (Meta), Mistral, Qwen, Phi (Microsoft)
Плюсы:
- Полный контроль над данными
- Можно дообучать под свои задачи
- Нет зависимости от провайдера
Минусы:
- Требуют технических знаний для настройки
- Нужны вычислительные ресурсы
- Качество может быть ниже проприетарных
Инференс-сервер (Inference Server)¶
Простыми словами: Программа, которая запускает модель и обрабатывает запросы от пользователей.
Примеры:
vLLM, TensorRT-LLM, Ollama
Для юристов: Позволяет запустить модель в своей инфраструктуре для работы с конфиденциальными данными.
Prompt Engineering — Промпт-инжиниринг¶
Простыми словами: Искусство и наука формулирования запросов к ИИ-моделям для получения наилучших результатов.
Аналогия: Как умение правильно задавать вопросы. Один и тот же вопрос, заданный по-разному, может дать совершенно разные ответы.
Примеры техник:
- Few-shot learning (показ примеров)
- Chain-of-thought (пошаговые рассуждения)
- Role-playing (назначение роли модели)
Для юристов: Критически важно, так как от формулировки запроса зависит качество генерируемых документов и анализов.
Дополнительные полезные термины¶
Embedding — Векторное представление¶
Простыми словами: Математическое представление текста в виде чисел, которое отражает его смысл. Похожие по смыслу тексты имеют похожие векторы.
Аналогия: Как координаты на карте. Тексты с похожим смыслом находятся "близко" друг к другу в пространстве векторов.
Использование: Основа для векторного поиска в RAG-системах.
Tokenization — Токенизация¶
Простыми словами: Процесс разбиения текста на токены перед обработкой моделью.
Важно: Разные модели используют разные способы токенизации, поэтому один и тот же текст может занимать разное количество токенов.
Few-shot Learning — Обучение на примерах¶
Простыми словами: Техника, когда вы показываете модели несколько примеров желаемого результата прямо в промпте, и модель учится на них.
Пример:
Для юристов: Показываете несколько примеров правильно оформленных договоров, и модель учится их стилю.
Zero-shot Learning — Работа без примеров¶
Простыми словами: Способность модели выполнять задачу, которую она не видела в примерах, только на основе описания.
Пример: Модель может перевести текст на язык, который она никогда не видела в примерах перевода, если просто попросить её это сделать.
Multi-modal — Мультимодальность¶
Простыми словами: Способность модели работать не только с текстом, но и с изображениями, аудио, видео.
Для юристов: Модель может анализировать сканы документов, схемы, графики в договорах.
Резюме¶
Этот словарь покрывает основные термины, которые вам встретятся при работе с ИИ в юридической практике. Помните:
- Не бойтесь терминов — за каждым стоит простая концепция
- Используйте аналогии — они помогают понять сложное через простое
- Практикуйтесь — лучший способ понять термин — использовать его на практике
В следующих разделах мы подробнее разберем, как эти концепции применяются на практике.