Бизнесмены боятся, что нейросети их очернят и опозорят

Сделано в АйБро
Сделано в АйБро

Предприниматели обеспокоены — они считают, что нейросети негативно влияют на репутацию их компаний.

Некоторое время назад одна из нейронных сетей охарактеризовала Машу из мультфильма «Маша и медведь» в стиле японских аниме:

Маша — призрак мертвой девочки. Она не меняется и не растет. Видеть ее могут только лесные звери. Родители девочки уехали, не в силах справиться с горем. Призрак Маши мучит медведя — ведь именно он убил ее.

Такое описание героини детского мультфильма встревожило взрослых. Они посчитали, что нейронные сети могут плохо повлиять на хрупкую детскую психику.

И, правда, все, кто, так или иначе, сталкиваются с нейросетями, знают — любую информацию от ИИ надо проверять и перепроверять.

Да, нейронные сети «выдумывают» новые данные. Это факт.

Нейросети — хороший инструмент для работы. Экономят массу усилий и колоссальное количество времени.

Однако никакой ИИ не может заменить то, что есть у человека — критического мышления. К тому же, люди умеют обо всем составлять собственное мнение. Нейросетям это недоступно.

Поэтому к ответам нейронных сетей нужно относиться очень осторожно. Особенно к тем суждениям ИИ, которые нужны не для развлечения, а для работы или обучения.

На алгоритмы нельзя полагаться во всем. Любые полученные от нейронных сетей результаты следует перепроверять.

ИИ может ошибаться по таким причинам:

1.Ограниченная исходная информация. Для обучения нейросетей используются невероятные объемы данных. В этих данных могут быть неточности и ошибки, непроверенная информация и устаревшие факты, противоречия. Поэтому ИИ может повторять эти ошибки и неточности.

2.Отсутствие понимания. Нейронные сети не могут так глубоко вникать в суждения, как это доступно людям.

3.Уверенность в своей правоте. Нейросети дают ответы уверенно, даже если они неверны.

Разработчики нейронных сетей считают, что такие казусы, как забавное или даже жутковатое описание героини мультфильма «Маша и медведь» — единичный случай.

Создатели ИИ уверены — именно взрослые люди, родители, должны ограждать детей от опасного контента. Требовать от нейросети 100% правдивости, мягкости и этичности — неразумно.

Люди, далекие от разработки ИИ, не понимают, зачем нейросетям лгать или придумывать какие-то факты. Но дело в том, что нейронные сети не выдумывают и не врут в прямом смысле слова. Они лишь используют данные из открытого интернет-пространства. К сожалению, пока еще ИИ не может правильно оценить, насколько надежный источник он использует.

Например, в случае с «Машей и медведем», возможно, кто-то пошутил о героине мультфильма на каком-нибудь форуме, а нейросеть приняла шутку за правду.

Будем честны — такие случаи отнюдь не единичны, хоть так и утверждают создатели ИИ. Поэтому тревоги предпринимателей о том, что нейронные сети могут негативно влиять на их репутацию, не беспочвенны.

Поэтому бизнесмены в настоящее время внимательно следят за тем, что об их компаниях говорят нейросети. Проверяют и перепроверяют всю информацию об ИИ. Ведь даже такие умные современные нейросети, как Айбро, могут ошибаться.

При этом повлиять на «мнение» нейронных сетей сложно. Можно попробовать исправить негативный отзыв ИИ о какой-либо компании хвалебными или объективными статьями. Но никто не даст гарантии, что нейросеть не примет за истину негативные комментарии. Такое тоже может быть.

Поэтому для компаний может быть только один совет. Чтобы ИИ отзывался о бизнесе хорошо, нужно работать качественно, на «совесть». И надеяться на лучшее.

Еще больше новостей из мира ИИ вы найдете в нашем телеграмм-канале. Подписывайтесь, чтобы быть в курсе!

33
реклама
разместить
Начать дискуссию