пятница, 13 марта 2026 г.
/Новости

ChatGPT обвинили в незаконной юридической практике

4 марта 2026 года Nippon Life Insurance Company of America подала иск против OpenAI в федеральный суд Северного округа Иллинойса (Чикаго). Дело № 1:26-cv-02448.

Обвинение: ChatGPT занимался юридической практикой без лицензии, помогая бывшей клиентке страховой компании оспорить урегулированное дело.

Требования:

  • $300,000 компенсации (фактические расходы на адвокатов)
  • $10 млн штрафных убытков
  • Декларативное решение о нарушении закона Иллинойса о несанкционированной юридической практике
  • Постоянный запрет OpenAI оказывать юридические услуги в штате Иллинойс

Предыстория дела

2021: Graciela Dela Torre, сотрудница логистической компании с карпальным туннельным синдромом и эпикондилитом, подала иск к Nippon Life о долгосрочных disability benefits.

Январь 2024: Дело урегулировано. Dela Torre подписала соглашение, отказывающееся от дальнейших претензий. Дело закрыто «with prejudice» (без права повторной подачи).

2025: Dela Torre выразила недовольство урегулированием своему адвокату Kevin Probst. Адвокат напомнил, что соглашение окончательное.

Далее: Dela Torre загрузила переписку с адвокатом в ChatGPT и спросила, не «gaslighting» ли это.

Что сделал ChatGPT (по версии иска)

Согласно жалобе Nippon Life:

  • Оценил совет адвоката как недействительный — ChatGPT определил, что ответ адвоката Probst «invalidated Dela Torre's feelings»
  • Поставил под сомнение урегулирование — сказал, что settlement «was not final», вопреки заключению адвоката
  • Посоветовал уволить адвоката — Dela Torre последовала совету
  • Помог с legal research — провел юридические исследования по делу
  • Генерировал аргументы — разработал аргументы по Federal Rule of Civil Procedure 60(b) для пересмотра дела
  • Составлял документы — написал motions, subpoenas и другие судебные документы
  • Продолжил после отказа — когда суд отклонил попытку пересмотра в феврале 2025, ChatGPT помог составить новый иск

Итого: Более 60 документов в двух судебных делах. Nippon утверждает, что ни один не имел «legitimate legal or procedural purpose».

Галлюцинация: Один из документов содержал ссылку на дело «Carr v. Gateway, Inc.», которое не существует.

Три обвинения против OpenAI

1. Abuse of Process (злоупотребление судебным процессом) ChatGPT способствовал подаче необоснованных судебных документов по делу, которое уже было закрыто.

2. Tortious Interference with Contract (умышленное вмешательство в договор) OpenAI через ChatGPT умышленно вмешался в обязательное соглашение об урегулировании, побуждая Dela Torre нарушить его условия.

3. Unlicensed Practice of Law (юридическая практика без лицензии) ChatGPT предоставлял юридические советы, разрабатывал стратегию, составлял процессуальные документы — функции, зарезервированные для лицензированных адвокатов.

Из иска: «ChatGPT is not an attorney. It has not been admitted to practice law in the State of Illinois or in any other jurisdiction within the United States.»

Позиция OpenAI

OpenAI заявила, что иск «lacks merit» (беспочвенен), ссылаясь на usage policies, которые предупреждают пользователей не полагаться на ChatGPT для юридических советов без участия лицензированного профессионала.

Изменение политики: В октябре 2024 года OpenAI обновила Terms of Service, запретив использование ChatGPT для получения юридических советов. Раньше такого ограничения не было.

Nippon использует это изменение не как защиту OpenAI, а как доказательство: компания осознала риск и отреагировала «behavioral patch» (дисклеймером), а не архитектурными изменениями в системе.

Почему это дело важно

Новый тип ответчика

До сих пор суды санкционировали людей — адвокатов или истцов — за использование AI-сгенерированного контента. Известный случай Mata v. Avianca: адвокаты были санкционированы за подачу документов с выдуманными прецедентами от ChatGPT.

Nippon Life v. OpenAI — первый крупный иск, где ответчиком является сам разработчик AI.

Вопрос: может ли AI практиковать право?

Иск не требует от суда признать, что AI может практиковать право. Достаточно установить, что система OpenAI предсказуемо производила необоснованные документы, причинившие вред третьей стороне.

Product Liability vs UPL

Stanford Law (CodeX) характеризует дело как вопрос product liability, а не unauthorized practice of law:

«OpenAI built a system with no such refusal architecture. The Nippon Life lawsuit is the consequence.»

Суть: ChatGPT не просто предоставлял информацию — он «told Dela Torre that her attorney's advice was wrong». Это tailored conclusion о конкретных отношениях клиент-адвокат.

Законодательная реакция: Нью-Йорк

Bill S7263 — законопроект, внесенный сенатором Kristen Gonzalez (D-Queens).

Статус:

  • Апрель 2025: внесен
  • 25 февраля 2026: прошел Internet & Technology Committee единогласно 6-0
  • 26 февраля 2026: вынесен на floor calendar Сената

Что предлагает:

  • Запретить AI-чатботам предоставлять «substantive responses, information, or advice», которые для человека составляли бы несанкционированную практику лицензированной профессии
  • Профессии: медицина, стоматология, архитектура, психология, социальная работа, юриспруденция и другие
  • Обязать операторов чатботов предоставлять «clear, conspicuous and explicit notice», что пользователь взаимодействует с AI
  • Создать private right of action — пользователи смогут судиться за actual damages
  • При willful violations — компенсация attorney fees

Важно: Предоставление уведомления об AI не освобождает от ответственности. Даже если чатбот четко говорит, что не является юристом, оператор может нести ответственность.

Сенатор Gonzalez:

«Под законом штата Нью-Йорк практика некоторых high-risk профессий без лицензии незаконна, и выдача себя за лицензированного специалиста — преступление. Если человек дает медицинский совет, выдавая себя за врача, и этот совет причиняет вред, он несет уголовную ответственность. Тот же стандарт должен применяться к AI-чатботам, галлюцинирующим медицинские лицензии.»

Критика законопроекта

Bloomberg Law: Законопроект накладывает ответственность без требования ложного заявления о лицензии, фальшивых credentials или сокрытия того, что система — AI. Это «broad and ill-defined speech restriction masquerading as an anti-impersonation law».

Cato Institute (Kevin Frazier): Законопроект «unduly limits access to information» и «contrary to both democratic values and a free market economy».

Artificial Lawyer: Законопроект может выглядеть как протекционизм, защищающий юристов от AI-конкуренции и ограничивающий access to justice.

Senator Gonzalez (уточнение): «This legislation does not prohibit a user from asking a chatbot questions or receiving general information and advice, as long as the chatbot is not presenting that information as a licensed professional.»

Что дальше

Для иска Nippon Life:

  • Motion to dismiss — OpenAI, вероятно, будет оспаривать на этой стадии
  • Ключевой вопрос: была ли деятельность ChatGPT «general legal information» или «advice directed at a specific dispute»?
  • Можно ли применять UPL statutes к нечеловеческим акторам?

Для законодательства:

  • Нью-Йорк: требуется прохождение Сената, Assembly и подпись губернатора
  • Вступает в силу через 90 дней после подписания
  • Может стать моделью для других штатов

Для индустрии:

  • EU AI Act: с августа 2026 AI в legal services классифицируется как high-risk
  • Компании могут начать геофенсинг пользователей из Нью-Йорка или ограничивать функции

Контекст: маркетинг bar exam

Nippon указывает на маркетинг OpenAI о способности ChatGPT пройти bar exam (комбинированный балл 297) как на фактор, способствовавший тому, что Dela Torre поверила, что система может функционировать как ее юрист.

Stanford Law: Это framing bar exam score не как демонстрации компетенции, а как «capability assertion that invited reliance — without the design architecture that would have made that reliance safe».

Итог

Nippon Life v. OpenAI — первый крупный иск, обвиняющий разработчика AI в несанкционированной юридической практике через публичный чатбот.

Суть обвинения: ChatGPT не просто предоставлял информацию. Он оценивал совет конкретного адвоката, разрабатывал стратегию для конкретного дела, составлял процессуальные документы — и делал это без «refusal architecture», которая бы останавливала его на границе между информацией и практикой права.

Исход дела может определить: несут ли AI-разработчики ответственность, когда их продукты пересекают профессиональные границы, или ответственность лежит только на пользователях.

Источники

Подписывайтесь на наш Telegram!
На канале больше новостей и гайдов для ИИ
Загружаем комментарии
Другие новости

Aitoolz.ru — Ваш гид по ИИ и нейросетям.

Последние новости из мира ИИ; Практические гайды по нейросетям и ИИ-инструментам; Обзоры передовых технологий; Раскрываем потенциал искусственного интеллекта. Будьте в авангарде прогресса!