В начале октября австралийские СМИ сообщили, что Deloitte согласилась вернуть часть средств по госконтракту после обнаружения ошибок в отчёте, подготовленном с использованием искусственного интеллекта.Стоимость работы — около 440 000 долларов. Ошибки — не просто технические: в документе нашли вымышленные ссылки на академические исследования, ложные цитаты из судебных решений и несуществующие рекомендации профессоров.
Компания признала, что в отчёте применялась генеративная модель Azure OpenAI GPT-4o, и что результат был частично сгенерирован с её помощью. По сути, это первый крупный случай, когда консалтинговая фирма признаёт ответственность за ошибку, вызванную использованием ИИ.
Что произошло
Отчёт был заказан Министерством занятости и трудовых отношений Австралии. После публикации специалисты заметили несоответствия и начали проверку. В результате выяснилось, что часть документа была подготовлена с применением генеративного ИИ без должной проверки человеком.Deloitte заявила, что"выводы отчёта остались корректными", но согласилась переработать документ и вернуть клиенту часть средств.
Этот случай вызвал бурное обсуждение в профессиональной среде: насколько допустимо использование ИИ при подготовке аналитических или юридических материалов и кто несёт ответственность, если инструмент ошибается.
Почему это важно
История с Deloitte — не единичная. Уже есть и другие примеры, пусть менее масштабные, но отражающие тенденцию появления ответственности за ошибки ИИ.
Mata v. Avianca (США).В этом деле адвокаты использовали ChatGPT для поиска судебных прецедентов. Модель «сочинила» несуществующие решения, а юристы включили их в иск.Суд оштрафовал адвокатов на 5000 долларов и отдельно указал, что проверка достоверности источников — профессиональная обязанность юриста, которую нельзя делегировать алгоритму.
Morgan & Morgan (США).Юристы крупнейшей американской фирмы подали судебные документы с недостоверными ссылками прецеденты, "выдуманные" ИИ.Суд указал, что факт использования ИИ без проверки экспертом усугубляет нарушение профессиональных стандартов.
Какие выводы можно сделать из истории
🔹 ИИ не снимает ответственности с эксперта.Даже если текст подготовлен искусственным интеллектом, ответственность за его достоверность несёт человек.
🔹 Ошибки ИИ = риски клиента.В юридической или консалтинговой практике ошибка модели способна не только привести к убыткам, но и испортить отношения с заказчиком.
🔹 Регуляторы уже реагируют.После кейса Deloitte в Австралии и уже не единичных случаев подобных ошибок в США начались обсуждения необходимости стандартов аудита и отчётности при применении ИИ-систем в консалтинге.В США аналогичные инициативы рассматриваются профессиональными ассоциациями юристов и аудиторов.
В заключение
ИИ постепенно выходит за рамки "экспериментов" и становится частью реальных проектов, где цена ошибки измеряется не мегабайтами, а деньгами и репутацией.Каждый новый случай, подобный истории с Deloitte, напоминает: искусственный интеллект не отменяет человеческую ответственность.
Можно использовать самые передовые модели, но если результат не проходит проверку эксперта, последствия будут самыми обычными — финансовыми, юридическими и репутационными.