ChatGPT - trick or treat 👹
Очередной хайп или бизнес-прорыв
В 2023 году я вновь полюбил Искусственный интеллект. GPT-4 — мультимодальная большая языковая модель, созданная OpenAI, действительно показывает уникальные результаты и может иметь прикладное применение в определенных бизнес-задачах.
Еще в далеком 2017-2018гг мы анализировали примение методов ИИ в качестве чат-ботов для задач HR, Legal, Администрирования и Ассистирования. Долгое время даже изучали возможность совершенствования законотворческой деятельности - написание и сопоставление законов (законодательных актов) с помощью нейронных сетей. Однако, решению поддавались только не очень сложные задачи. А если совсем с минимальным риском, то система "на рулах" показывала простой и эффективный результат, чем всякие нейронки. Но уже в то время было понятно, что есть какой-то magic в том, как нейросеть суммаризирует информацию и понимает смыслы. ChatGPT4 превзошел ожидания!
Если бы...если бы оказалось, что ChatGPT4 не всегда осознает, что он врунишка! То есть, зафиксированны случаи, и мной в том числе, когда он врет с уверенным "лицом", подставляя как факт не существующую информацию, или делая нелогичные выводы.
Обо всем по порядку. Начнем с истории создания чат-ботов на базе ИИ, и некоторых значимых исторических фактов.
В 1966 году была создана первая чат-бот программа ELIZA, способная иммитировать разговор с психотерапевтом.
Его труды можно почитать в доступной для русской аудитории книге "Возможности вычислительных машин и человеческий разум. От суждений к вычислениям".
Джозеф увидел, как программисты и тестировщики с интересом ведут диалог в стиле психотерапевтической терапии с Eliza, и доверяют ей свои сокровенные секреты.
Всего через 6 лет, в 1972 году, был создан второй наиболее известный бот - Parry. На удивление, создал его профессор психиатрии Стэндфордского Университета - Кеннет Колби. Parry имитировал диалог человека, больного шизофренией. Зафиксировано, что ему удалось обмануть 52% психиатров, которые считали, что перед ними действительно человек. Не знаю, насколько этот тест можно считать чистым, так как у этих психиатров явно не было насмотренности на подобные программы. Уверен, что некоторые и не подозревали о возможностях Искусственного Интеллекта в прошлом веке.
Оба чат-бота, ELIZA и Parry, прошли тест Тьюринга.
И вот уже в 2011 году мир покорила новость "Суперкомпьютер IBM Watson победил в телевизионной игре Jeopardy (у нас она шла под названием "Своя Игра"). Суперкомпьютер заработал 77 тысяч долларов, обыграв сильнейших игроков! Первая победа супер-интеллекта над человеком? Ряд активистов на этом хайпе даже предложили кандидатуру IBM Watson на пост президента США в 2016 году.
В том же 2016 году сети и ТВ облетела вторая новость о победе ИИ на человеком. Google AlphaGo победил чемпиона мира в игре Го!
В этот момент страны действительно задумались о безграничных и сложно предсказуемых (читайте - управляемых и контролируемых человеком) возможностях Искусственного Интеллекта, и напряглись.
В 2018 году выходи Европейская этическая хартия об использовании ИИ в судебных системах и окружающих их реалиях. 5 ключевых принципов - повытка призвать к этике и контролю ИИ-разработчиков, которые в стиле "Золотой лихорадки" ринулись разрабатывать чат-боты, системы для прогнозирования и принятия решений, скорринговые системы. Вот эти принципы, кратко:
Принцип соблюдение основных прав;
Принцип недискриминации;
Принцип качества и безопасности;
Принцип прозрачности, беспристрастности и достоверности;
Принцип контроля пользователем.
Подробное описание легко найти на разных языках мира, поэтому здесь приводить не буду.
В то время и в России было много статей, эфиров, обсуждений на тему "Будет ли ИИ судить человека?", "Робот-судья!" и прочие "сенсации".
"Без паники и хайпа! Судить будет человек!". Действительно, выражение ВОЛИ - прерогатива человека (натурального интеллекта). Параллельно с этим, много лет существуют и прогрессируют системы для принятия решений на базе нейронных сетей, как в медицине, так и в финансовой сфере. Работают они эффективней человека, который просто физически не способен к сопоставлению миллионов фактов и информации.
Человек способен принимать решения и аргументировать!
С помощью методов ИИ можно выполнять практически все когнитивные задачи, присущие человеку:
Мой опыт показывает, что организации менее охотно доверяются Open Source генеративным решениям. Высок риск и ответственность за неверно сгенерированное решение или ответ. Приоритет более отработанным гибридным технологиям из направления natural language processing с промежуточной проверкой фактов.
Уже есть известные кейсы, когда ChatGPT привел несуществующие кейсы и факты, опираясь на не совсем понятную логику. Он был настолько убедителен, что американский юрист Стивен Шварц использовал его, как базу данных при поиске идентичных судебных прецедентов. Chat GPT привел в пример несуществующие дела, типа "Мартинез против Delta Airlines" или "Дерден против KLM Royal Dutch Airlines". Имена, события и кейсы он просто взял "из головы"! WTF?!? (а мы ведь только поверили, что создан почти искусственный полноценный разум).
Выходит, при использовании ChatGPT в бизнес-процессах надо закладывать проверку фактов и сопоставлений. И чем больше информации, тем в геометрической прогрессии увеличивается задача проверки.
В такой конфигурации вряд ли кто-то полноценно решит использовать ChatGPT на полную катушку. Разве что в тех задачах, где риск минимальный. Такие задачи тоже есть в организациях, но они, как я писал выше, так же решаются и более традиционными методами автоматизации+ИИ.
Я упоминал о том, что сам столкнулся с тем, как поймал ChatGPT на несуществующей информации. На одной стратегической сессии я хотел, чтобы меня представил Искусственный Интеллект, тем самым демонстрируя его возможности. Однако, он присвоил мне создание "российской технопарка Сколково". Впервые увидел и орфографические ошибки. Вот вырезка из тг:
Тем не менее, ChatGPT - это огромный прорыв, и вопрос нормализации информации - лишь дело времени. Направлений, в которых уже сейчас можно использовать ChatGPT большое количество. Некоторые профессии оказались под риском. Например, копирайтеры и писатели, junior-программисты и сценаристы. ИИ без трудов справляется с подобными задачами - проверенно мной лично!
в завершении, несколько "бытовых" примеров использования разработок на базе ChatGPT: