Когда ИИ пишет договоры: мой опыт и почему это не работает
Друзья, тема про ИИ сейчас везде. Все говорят, что ChatGPT заменит юристов, программистов, маркетологов - всех нас, короче.
Но есть один нюанс, которую многие не понимают: ИИ не знает контекста.
Расскажу на примере.
Когда я экзитил SpatialChat, у нас была куча юридических документов. Term sheet, SHA, representations & warranties, earn-out structure - вся эта движуха.
Можно ли было это сгенерить в ChatGPT? Технически да. Практически - нет.
Приходит клиент из Германии, хочет купить годовую лицензию на $12K. Я отправляю стандартный договор. Он говорит: "Алмас, а где пункт про GDPR compliance? А где Data Processing Addendum? А почему jurisdiction прописана не в ЕС?"
И тут до меня дошло: каждая сделка - это не просто "купи-продай". Это целый контекст:
- География клиента
- Его отраслевые риски
- Корпоративные требования его компании
- Местное законодательство
- История отношений
Почему ИИ не справляется с договорами
ИИ выдает то, что статистически правильно. Он генерит текст, который "похож" на договор. Но он не понимает:
- Реальные риски конкретной сделки - ИИ не знает, что у одного из фаундеров есть параллельный бизнес, который может стать конкурентом
- Контекст отношений - может, вы дружите 10 лет и некоторые пункты можно смягчить. А может, это холодная сделка и надо все жестко прописать
- Переговорную силу - кто кого больше хочет? От этого зависит, как формулировать условия
- Будущие сценарии - что будет, если компания масштабируется? Или если один из партнеров захочет выйти?
Кстати, недавно наткнулся на интересный кейс в канале ребят из LEXRUS. Они юристы, которые специализируются на корпоративных сделках и привлечении инвестиций.
Там разбирают похожую ситуацию: клиент попросил ChatGPT написать корпоративный договор для входа инвестора. ИИ выдал красивый текст, но когда начали моделировать реальные сценарии - договор посыпался.
Например, в договоре был запрет на конкурентную деятельность на 3 года. Звучит логично? Да. Только вот один из фаундеров уже имел параллельный бизнес и не собирался его закрывать. Тупик.
Им пришлось переделывать всю структуру - вместо прямого запрета придумывать гибкий механизм ограничений и мотивации. ИИ с такой задачей не справился.
Мораль
ИИ - потрясающий инструмент для ускорения рутины. Но там, где нужен реальный опыт, понимание контекста и умение предвидеть проблемы - без живых людей не обойтись.
Особенно в юриспруденции, где одна неучтенная запятая может стоить миллионы.
У вас были похожие случаи? Когда шаблонное решение не сработало и пришлось все переделывать?
Подписывайтесь на Telegram Венчур по Понятиям | Street MBA.