Недавно в ведущих изданиях и социальных сетях появились заголовки: "OpenAI официально запретила ChatGPT давать медицинские, финансовые и юридические советы". Поводом для такой новости стало то, что 29 октября 2025 года компания OpenAI обновила политику использования своих сервисов и прямо отметила, что "ChatGPT больше не будет давать персонализированных советов в медицинской или юридической сферах".

Многие юристы, которые со страхом наблюдали за экспоненциальным ростом возможностей ИИ, восприняли эту новость с откровенным облегчением, а некоторые – даже с радостью.

Это выглядело как признание Кремниевой долиной своего поражения. Как признание того, что  нюансы права, этические дилеммы и ответственность за судьбы клиентов являются сферами, в которые машина не должна вмешиваться.

Это выглядело капитуляцией перед сложностью профессии и победой человеческого опыта.

Почему юристы слишком рано радовались 

Но празднование было недолгим. Каран Сингхал, глава отдела искусственного интеллекта в сфере здравоохранения OpenAI, вышел в X (бывший Twitter) и категорически опроверг эти сообщения, назвав их ложными. Обновление от 29 октября не было изменением условий; это была лишь консолидация трех отдельных политик компании (универсальной политики, политики ChatGPT и политики API) в единый документ.

Однако такое изменение политики – это не какое-то мелкое техническое обновление, а сознательная эволюция подхода, преследующая три четкие, хотя и неявные цели.

Во-первых, это возведение юридического щита от волны судебных исков и проактивная защита от глобальных регуляторов.

Во-вторых, это формальное перекладывание полной ответственности за использование инструмента на плечи профессиональных пользователей.

И в-третьих, что является наиболее коммерчески значимым, это создание маркетинговой "воронки" для сегментации рынка и продвижение новых enterprise-решений для чувствительных отраслей.

Это не отступление, это стратегическое завоевание нового плацдарма.

Действительно ли ChatGPT перестал давать юридические советы

Если коротко, то нет. Вообще, чат-бот и раньше не должен был выдавать себя за дипломированного юриста или врача, поэтому и сейчас он с радостью поделится с вами подробной, практической и часто опасно убедительной информацией, юридической также.

Но теперь он делает это с оговоркой, встроенной не только в ответ, но и в саму политику использования сервиса.

Теперь OpenAI открыто предупреждает, что все это не является профессиональной юридической консультацией, и советует привлекать реального адвоката для принятия важных решений.

Предупреждая в условиях использования, что ChatGPT нельзя применять для получения юридического совета, компания защищает себя на тот случай, если бот вдруг ошибется, а пользователь, положившись на него, понесет ущерб.

Как "совет" превратился в "информацию"

Ключевой момент, раскрывающий стратегию OpenAI, произошел в конце эксперимента, проведенного изданием Artificial Lawyer. Когда журналист поблагодарил чат-бота за его "юридический совет" (legal advice), модель немедленно ответила: "То, что я предоставляю, не является юридическим советом... это общая юридическая информация и примеры для написания".

Модель уточнила, что может "объяснить, как работает закон" и "сгенерировать практические шаблоны документов", но формальный индивидуальный совет все равно требует "пересмотра квалифицированным адвокатом".

В этом диалоге кроется суть маневра OpenAI – они не изменили возможности модели, они изменили ее юридическую самоидентификацию.

Это гораздо глубже, чем обычное перекладывание ответственности на конечного пользователя, которое было в политике и раньше (например, в версии от января 2025 года также было требование "пересмотра квалифицированным специалистом"). Это – формализация новой экосистемы.

OpenAI сознательно меняет позиционирование своего продукта – из "всезнающей шкатулки", которая может заменить эксперта, он превращается в "самого мощного в мире ассистента". А ассистент никогда не несет финальной ответственности – ее несет тот, кто подписывает документ.

Таким образом, OpenAI юридически закрепляет полную ответственность за галлюцинации, ошибки и неправильное применение информации ИИ на лицензированном профессионале, осуществляющем надзор. Компания больше не "консультант", она – "производитель инструмента".

Причины "прозрения": тень регулятора и призрак судебных исков

Почему OpenAI, компания, стоящая на вершине технологического олимпа, вдруг решила сыграть в такую игру именно сейчас?

Этот шаг не был проактивным выбором; это была продуманная защита от двух экзистенциальных угроз, которые нависли над компанией в 2025 году: беспрецедентной юридической ответственности и неизбежного глобального регулирования.

Для юристов OpenAI каждый судебный иск о взыскании ущерба от использования ChatGPT – это кошмар.

Даже если компания может выиграть дело, сам факт того, что ее инструмент обвиняют в смерти или серьезном вреде, создает огромный регуляторный риск.

Новая политика – это проактивная защита, которая позволяет OpenAI заявить в любом будущем судебном процессе: "Мы не несем ответственности за трагедию. Истец – будь то пациент, юрист или подросток – нарушил нашу четкую и явную политику использования, которая запрещает полагаться на наш инструмент для принятия решений с высокими ставками без профессионального надзора".

Однако главным драйвером изменений, вероятно, стал EU AI Act (закон ЕС об ИИ) – первое в мире всеобъемлющее законодательство об искусственном интеллекте.

Если ChatGPT будет классифицирован Европейской комиссией как "высокорисковая" система, это будет означать огромные расходы на комплаенс, обязательный аудит третьими сторонами, жесткие требования к прозрачности данных и алгоритмов и, что хуже всего, потенциальные штрафы за нарушения.

Таким образом, обновленная политика – это не просто новые условия для пользователей. Это юридический аргумент, адресованный непосредственно европейским регуляторам: "Наш общедоступный инструмент ChatGPT не является высокорисковой системой, поскольку наша официальная, юридически обязывающая политика категорически запрещает его использование для принятия высокорисковых решений (таких как медицинский диагноз или юридическая стратегия). Ответственность несет исключительно пользователь, который нарушает нашу политику".

Эта стратегия "проактивного комплаенса" призвана юридически отделить возможности продукта от ответственности за его использование. OpenAI, по сути, говорит регуляторам и судам: "Мы создали мощный двигатель, но не несем ответственности, если кто-то решит установить его на самолет и разбиться, нарушив нашу инструкцию, которая позволяет использовать его только в блендерах".

Не отступаем, а наступаем в обратном направлении

OpenAI больше не утверждает, что ChatGPT может заменить юриста. Она утверждает, что может продать юристу инструмент, который делает его непобедимым. Юристы больше не являются конкурентами ИИ. Они стали самыми важными и платежеспособными клиентами разработчиков ИИ.

Это сигнал о взрослении отрасли искусственного интеллекта. Дикие времена, когда нейросеть без всяких условий могла лечить или судить, постепенно проходят. Впереди – эра регламентированного и ответственного ИИ, который работает бок о бок с экспертами.

ChatGPT не станет вашим адвокатом в прямом смысле, но он останется мощным инструментом для бизнеса и юристов, если использовать его правильно и в пределах здравого смысла.

Разработчики ИИ любезно предоставляют вам этот инструмент. Но полная ответственность за его использование – и счет за эту привилегию – теперь лежит исключительно на вашем столе.