Врачам, которые только освоили ChatGPT для блога
Все больше докторов осваивают ChatGPT, который действительно может облегчить ведение канала. Но я часто замечаю ошибку, из-за которой тексты теряют живость, а врач – цифровую личность. В статье расскажу, что это за ошибка и как избежать ее.
Классическая ошибка на старте и на радостях
Специалисты по ИИ учат детально настраивать, тренировать нейросеть, чтобы она переняла индивидуальный «голос» автора. Но обсудить хочу другой, более распространенный случай, когда базовый ИИ выдаёт универсальный обезличенный сухой текст. Врачи и клиники выкладывают эти материалы в чистом виде, не переписывая, не меняя оформление… Почему не стоит так делать:
1. ИИ может ошибаться (настроенный – тоже). Ученые обнаружили, что чат-боты могут выдавать ложные исследования с ссылками на авторитетные источники. Но главная суть новости, на мой взгляд, не в злоумышленниках, а в привлечении внимания к проблеме доверия ИИ и к важнейшему навыку в медицинском медиа – фактчекингу. Даже непосредственно в декстопной версии ChatGPT под поисковой строкой висит предупреждение о необходимости перепроверки важной информации
2. Пациенты не ждут от вас идеального слога, они ждут вас: энергию, тот самый медицинский голос и архетип, которому можно доверять. Они чувствуют душу между строк, и нейросеть ее не сымитирует
3. И да, это палится нутром... Я стойко убеждена в чувственной составляющей материалов, что где-то на подкорке человеческий вайб считывается автоматически. Что говорить о прошаренных читателях с высокой насмотренностью, которые могут с явным неудовольствием заподозрить неладное и бездушное в блоге?
Человечность – фактор доверия
На X Конференции Медплатформы разбирала свое видение факторов доверия в цифровой медицинской коммуникации. Человечность – один из этих факторов. Кусочек выступления по теме прилагаю:
В 2024 году ученые проверили, как влияет авторство на восприятие медицинского контента при консультациях. Один и тот же текст подписывали «врач», «ИИ» или «врач + ИИ».
Интересно, что параметр «понятность» не зависел от метки. А вот «надежность, эмпатия» и «готовность следовать совету» под «врач» оценивали выше по сравнению с остальными двумя. То есть участие ИИ (даже под контролем врача) воспринималось как обезличение без эмпатии.
В исследовании не определяли, сколько людей палят цифровое перо, выданное за человеческое. Но если уж палят, то меньше доверяют, а доверие – главная валюта медицинского контента.
Так, и что теперь?
Больше не пользоваться ИИ? Или надеяться, что не спалят?
Пользоваться, конечно! Но вложить себя:
1. Перепроверьте медицинские факты и ссылки (даже если проводите глубокое исследование, переходите вручную в найденные ИИ первоисточники и прицельно ищите фразы в оригинальном документе, перепроверяя контекст и дизайн исследования)
2. Прочитайте вслух, чтобы скорректировать логику и связку, текст должен «литься»
3. Перепишите своими словами, уберите классические нейросетевые повторы и парцелляции (четко.по делу.без лишних слов) и текстовые инфекции (тавтология, плеоназм, канцелярит; готовлю отдельную статью по ним в медицинском контексте)
4. Исправьте оформление на свое «фирменное», уберите засилие жирного текста из середины предложений, лишние эмодзи и тире вместо очевидных запятых. А вот с длинным тире поступайте как душе угодно: если привыкли писать по классическим правилам пунктуации – пишите, не ломайте себя из-за страха быть принятым за ИИ. Не длинным тире единым он определяется
5. Снова перечитайте вслух, текст всё еще должен «литься»
6. Оцените разницу, прочувствовав ее на себе
7. «Опубликовать»
Пользуйтесь на здоровье благами цивилизации, с умом и душой, и когда-нибудь вы войдете в тот самый симбиоз машины и человека.