{"id":14275,"url":"\/distributions\/14275\/click?bit=1&hash=bccbaeb320d3784aa2d1badbee38ca8d11406e8938daaca7e74be177682eb28b","title":"\u041d\u0430 \u0447\u0451\u043c \u0437\u0430\u0440\u0430\u0431\u0430\u0442\u044b\u0432\u0430\u044e\u0442 \u043f\u0440\u043e\u0444\u0435\u0441\u0441\u0438\u043e\u043d\u0430\u043b\u044c\u043d\u044b\u0435 \u043f\u0440\u043e\u0434\u0430\u0432\u0446\u044b \u0430\u0432\u0442\u043e?","buttonText":"\u0423\u0437\u043d\u0430\u0442\u044c","imageUuid":"f72066c6-8459-501b-aea6-770cd3ac60a6"}

Искусственный интеллект для написания текстов: как не нагородить огород? История одного разоблачения

Наша команда ни в коем разе не воспринимает искусственный интеллект в штыки и активно изучает его возможности, в том числе, в фокусе внимания — искусственный интеллект для написания текстов.

Но к помощи искусственного интеллекта мы прибегаем в максимально разумных пределах и, если вы закажете у нас SEO, то вы не получите на посадочных и в блоге тексты, сгенерированные ИИ. Они будут написаны именно копирайтерами – живыми, настоящими, штатными.

Почему? Здесь найдётся несколько причин.

Причина 1. Мы категорически против искажения информации.

Из всех утюгов «кричат»: «Многое зависит от промта». Запрос, вводные данные для чат-ботов ИИ – это действительно язык общения с нейросетью.

Но язык–языком, но если мы не знаем ответ, то часто, увы, можем получить искажённую информацию и при лаконичных, и при развернутых промтах. И это одна из главных бед при применении искусственного интеллекта для написания текстов.

Давайте рассмотрим это на примере запроса, связанного с парками вокруг станции метро ВДНХ. Ситуацию разберём на развёрнутом примере. Итак – в фокусе взаимодействие с одним из популярных чат-ботов (во избежание рекламы или антирекламы мы не называем его).

Вводим запрос лаконично: «Парки вокруг станции метро ВДНХ».

Один среди ответов, которые заставляют удивиться, – «Ботанический сад МГУ «Аптекарский огород».

Включив голову (а для проверки головы - заодно и карту), мы понимаем – чат-бот что-то путает. К ВДНХ примыкает Главный ботанический сад им. Н. В. Цицина Российской академии наук, но никак не Ботанический сад МГУ «Аптекарский огород», который находится возле станции метро «Проспект Мира».

Т. е. чат-бот «знает», что рядом с ВДХ находится Ботанический сад, но автоматически он «привязывает» название другого Ботсада «Ботанический сад МГУ «Аптекарский огород».

Откуда может быть такая путаница?

Человек не может думать, как искусственный интеллект. Но предполагать то может! Причин может быть несколько. Вот одно из таких предположений.

Искусственный интеллект, присущий используемому чат-боту, «не понимает», что в Ботанический сад ведёт пешеходный путь от станции «ВДНХ» через само пространство «ВДНХ», ведь самые близкие станции к основным входам всё-таки «Владыкино», «Петро-Разумовская», «Окружная», «Ботанический сад» (последний вариант, правда, неудобный), поэтому в более близкие к станции метро места чат-бот при ответе «забрасывает» объект «Ботанический сад МГУ «Аптекарский» огород», который находится у станции метро «Площадь Мира».

Конечно, если ехать на авто по проспекту Мира, то от станции «Проспект мира» до станции метро «ВДНХ» можно долететь, например, за 13 минут. На метро - тоже быстро. Вот только расстояние между этими станциями – более 6 км. И считать «Аптекарский огород» парком возле станции метро «ВДНХ» можно с очень с огромной натяжкой. Только, если хотеть угодить искусственному интеллекту. Но мы угождаем искусственному интеллекту или хотим получить достоверную информацию и создать качественные тексты?

Теперь вернемся к промтам. Давайте поможем чат-боту и уточним: «Какой ботанический сад примыкает к ВДНХ, напиши точное название».

После этого уточняющего промта, как видно на скриншоте выше, искусственный интеллект и вовсе начинает «заливать».

Мало того, что он опять-таки «привязывает» МГУ, он ещё «микширует» и само название Ботанического сада с университетом. Почему? Не стоит забывать, что в Москве есть ещё и «Ботанический сад имени Петра I биологического факультета Московского государственного университета имени М. В. Ломоносова» (на Воробьёвых горах).

Если по такому промту турист будет искать нужный ему Ботанический сад у ВДНХ, он конечно запутается и полностью сдастся. Идти в Ботанический сад ему просто элементарно не захочется.

Но мы не сдаёмся и далее продолжаем составлять промты. Включаем режим «душнила» и расспрашиваем искусственный интеллект с максимальным пристрастием и дотошливостью.

«Сколько в Москве Ботанических садов. Напиши их названия и напиши, какой из них по какому адресу находится, и с каких станций метро можно дойти пешком для каждого из этих садов»

И вот какой ответ получаем:

Что же мы тут видим? Опять-таки ошибки на ошибке. И логические, и фактические.

1. Чат-бот в Москве находит только два Ботсада (искусственный интеллект опять разочаровал, ведь на деле - их больше).

Первый, согласно усердиям поисков исскусственного интеллекта,— это как раз Ботанический сад имени Петра I биологического факультета МГУ имени М. В. Ломоносова Ботанический сад МГУ на Воробьевых горах, второй – Центральный ботанический сад РАН.

Но, а где, дорогой чат-бот, тогда третий Ботсад, тот самый «Аптекарский город» МГУ возле станции метро «Проспект Мира»? Он теперь остался без внимания.

2. С адресами – тоже серьезная проблема. Если вы приедете по адресу Москва, ул. Академическая 55, вы не то что зеленой зоны не увидите, вы упретесь в типовой жилой дом. И никаким Ботаническим садом там не «пахнет». По прямой до реальной точки назначения – около 4 км, по дороге – около 5.

Приехали… Приплыли…

А по какому адресу мы или вы должны были оказаться. Откроем поисковик, карту. Конечно же, адрес – иной. Совсем иной…

И это только один из примеров, как может искажаться информация. И запрос был отнюдь не каким-то суперсложным. Он связан с достаточно известными местами Москвы.

И «раскусили» мы его, потому что знали эти понятия, факты, перепроверяли их.

А если тематика малоизвестная. Данные чат-бота могут быть восприняты как истинные, а в тоге текст получится с недостоверной информацией. К неё не будет доверия сто стороны пользователей. «Увидеть» низкую ценность контента смогут и некоторые алгоритмы поисковых роботов. И если вы, к примеру, пишите на медицинскую, юридическую тематику, где требования к авторитетности, экспертной (особенно для Google) — одни из самых важных, то такое искажение станет настоящей катастрофой.

Более того, увы, пока искусственный интеллект не может противостоять, если его мотивировать врать. Для создания фейков — подспорьрье (какой ужас) . Для создания качественных информационных текстов – беда.

Пример: мы «заставили» два разных чат-бота сгенерировать посредством искусственного интеллекта тексты про Ботанический сад ВДНХ в Минске. Такой запрос был сформулирован умышленно, понимая, что в Минске нет ни ВДНХ (в прошлом, правда, так называли Выставочный центр БелЭкспо), ни Ботанического сада в его близи (здесь Ботанический сад расположен совсем в другом районе даже в «привязке» к «БелЭкспо»).

Но оба чат-бота без зазрения совести составили тексты по запросу «Ботанический сад возле ВДНХ в Минске». Чем же порадовал (точнее, огорчил) искусственный интеллект в этом случае?

Смотрим на 2 скриншота ниже:

Причина 2. Мы учитываем алгоритмы Google и Яндекс

Алгоритмы Google и Яндекс – тоже не против искусственного интеллекта как такового, но при неразумном злоупотреблении чат-ботов легко не просто не вырасти в поисковой выдаче, а попасть в зону недружелюбия поисковых систем.

Что особенно не приветствуется?

- Тексты, созданные посредством искусственного интеллекта, часто получается переспамленными ключевыми словами. И, чтобы разрешить проблему, часто нужна тотальная чистка вручную.

- Автоматический низкопробный контент. С марта 2024 года алгоритм Google стал особенно негативно относиться к генерации масштабного низкосортного контента. Эта санкция – и против низкосортных текстов, сгенерированных вручную, и посредством ИИ. Но масштабный низкосортный контент последнее время – это чаще как раз-тексты, созданные автоматическими генераторами ИИ. Искушение всегда велико, только вот искусственный интеллект для написания текстов при этом далеко не всегда используется вдумчиво и грамотно.

Искусственный интеллект для написания текстов – это инструмент в руках копирайтера. «Накидать» многочисленные идеи, структуру – пожалуйста. Добиться нужно уникальности без ущерба смыслу– далеко не всегда. «Заспамить» тексты (и повергнуть в гнев поисковые роботы) –легко. Исказить факты, события – получить добавку в виде печальных последствий: от потери доверия пользователей до (опять-таки) до потери доверия со стороны поисковых систем. Ведь туда, где присутствует недостоверная информация, рано или поздно приходит разоблачение.

Безусловно, в данном материале мы рассмотрели историю одного разоблачения только на примере двух чат-ботов с искусственным интеллектом, и кто-то может возразить: «Чат-боты – чат-ботам рознь», но пока даже при их различиях очевидно одно: если их сделать главными руководителями и довериться им – несуразицы не избежать. Человек пока что незаменим. По крайней мере там, где вы ждёте качественные и достоверные тексты.

0
2 комментария
Татьяна Павлова

На технических текстах тоже легко обжечься. Например, машиностроительные и сантехнические термины причудливо смешиваются.
Хотя, конечно, здесь в промте нужно верно конкретизировать, но и это не всегда помогает. Нужно в тематику глубоко вникнуть.

Ответить
Развернуть ветку
mediaSol
Автор

Понимаем Вас. Общение с ИИ на техническую тематику, если ей плохо владеть, может, порой, получиться, весьма комичным.

Ответить
Развернуть ветку
-1 комментариев
Раскрывать всегда