Я создал себе ИИ-ассистента на модели 4o. Ассистент должен заполнять брифы помогать пользователям с ноля или готовить вопросы по брифам, анализировать их
Подготовил для него инструкции, кстати сам чат мне помог по запросу (тут надо понимать что хочешь) подготовить инструкцию для ИИ-ассистента в том виде, в котором тот будет хорошо понимать.
Готовые инструкции я проработал: – убрал лишнее – поправил кое-где структуру – назвал верно – перевел в txt – залил
И все равно ассистент забывает определенные вещи, по-разному строит диалог, хотя у меня и правила проверки ответов и обвязка по структуре диалога и пример идеальных ответов (тут стоит отметить, что как я понял, если вы хотите супер точных ответов, то нужно по каждом запросу прям подробный гайд с ответами писать)
Мои ассистент образается и к своей базе и к интернету и все равно не проверяет банальную информацию, например, правдивое ли название Бренда ему говорят, бюджет пишут с НДС или без. Какую локацию ему сообщают для, например проведения мероприятия и тд.
Те я почти ушел от галюнов ИИ и от оценочных ответов, но все равно они проскакивают вместе с неполной обработкой запроса пользователя )) пока решаю как быть...
Именно так и работают генеративные модели, избавиться от галлюцинаций полностью не получится :( поэтому мы всё чаще выбираем формат подбора заранее заготовленных ответов, о котором и рассказали в статье.
Спасибо, что поделились своим опытом :) согласны с тем, что при такой настройке ИИ периодически возникают баги
Пустовато. Окей.
Я создал себе ИИ-ассистента на модели 4o. Ассистент должен заполнять брифы помогать пользователям с ноля или готовить вопросы по брифам, анализировать их
Подготовил для него инструкции, кстати сам чат мне помог по запросу (тут надо понимать что хочешь) подготовить инструкцию для ИИ-ассистента в том виде, в котором тот будет хорошо понимать.
Готовые инструкции я проработал:
– убрал лишнее
– поправил кое-где структуру
– назвал верно
– перевел в txt
– залил
И все равно ассистент забывает определенные вещи, по-разному строит диалог, хотя у меня и правила проверки ответов и обвязка по структуре диалога и пример идеальных ответов (тут стоит отметить, что как я понял, если вы хотите супер точных ответов, то нужно по каждом запросу прям подробный гайд с ответами писать)
Мои ассистент образается и к своей базе и к интернету и все равно не проверяет банальную информацию, например, правдивое ли название Бренда ему говорят, бюджет пишут с НДС или без. Какую локацию ему сообщают для, например проведения мероприятия и тд.
Те я почти ушел от галюнов ИИ и от оценочных ответов, но все равно они проскакивают вместе с неполной обработкой запроса пользователя )) пока решаю как быть...
Вот так пока выглядит ассистент -ИВА (не публичный)
https://chatgpt.com/g/g-673c3933cbac819190cd8bbdc86ff52a-iva
Дальше наверное нао переводить его в Бизнес Аккаунт из плюса и коннектить с Телеграм Ботмо)
Именно так и работают генеративные модели, избавиться от галлюцинаций полностью не получится :( поэтому мы всё чаще выбираем формат подбора заранее заготовленных ответов, о котором и рассказали в статье.
Спасибо, что поделились своим опытом :) согласны с тем, что при такой настройке ИИ периодически возникают баги