Самые забавные ошибки от Gemini, модели компании Google
В декабре 2023 года компания Google представила свою новейшую модель искусственного интеллекта под названием Gemini. Эта мультимодальная языковая модель, разработанная подразделением Google DeepMind, является преемником предыдущих моделей LaMDA и PaLM 2 и призвана конкурировать с GPT-4 от OpenAI. Однако с этой моделью связано немало курьезных историй и скандалов.
Так, в феврале 2024 года компания Google временно отключила функцию генерации изображений в своей модели Gemini. Причиной стали жалобы пользователей на исторические неточности и несоответствия в сгенерированных изображениях.
Например, при запросах на создание изображений исторических личностей или групп, таких как отцы-основатели США или солдаты нацистской Германии, Gemini представляла их с расовой и гендерной инклюзивностью, не соответствующей историческим реалиям. В результате изображения могли включать темнокожих или азиатских фигур в контекстах, где это было исторически неверно.
Но особенно прославились советы и рекомендации от Gemini в рамках новой функции AI Overviews, которая должна была улучшить результаты поиска с помощью искусственного интеллекта. AI Overviews — это краткое резюме перед основными результатами поиска, которое генерирует искусственный интеллект. На презентации представители компании рассказывали, что функция создана в первую очередь для комплексных запросов, в которых нужно учитывать сразу несколько параметров.
Однако одна из проблем заключается в том, что ИИ не может отличить серьезную информацию от шуток и троллинга. Поэтому в разделе AI Overview можно было встретить ложные, а иногда и опасные для жизни ответы.
Так, в мае 2024 года нашумел случай о том, что Gemini предложил добавить 1/8 стакана нетоксичного клея в соус для пиццы, чтобы сыр лучше прилипал. Этот совет был основан на шуточном комментарии с Reddit, опубликованном 11 лет назад.
В том же месяце AI-сервис от Google заявил, что врачи рекомендуют беременным женщинам курить 2-3 раза в день, что, конечно же, является опасным и неверным советом. Позже он рекомендовал ежедневно употреблять небольшие камни для улучшения пищеварения и получения витаминов и минералов. Этот совет был взят из сатирической статьи на сайте The Onion.
В другом нашумевшем случае Gemini предложил людям, страдающим депрессией, спрыгнуть с моста «Золотые ворота» в качестве решения этой проблемы.
Также весной этого года AI-инструмент Google заявил, что собаки играют в Национальной баскетбольной ассоциации (НБА). А также, что бег с ножницами — полезное упражнение, укрепляющее сердечно-сосудистую систему.
Подобные ошибки вызвали волну критики и насмешек в социальных сетях, что подчеркнуло уязвимость ИИ перед дезинформацией и сложность корректной интерпретации данных. Google публично признал эти сбои, заявив, что работает над улучшением точности моделей и внедрением более строгих проверок для предотвращения подобных случаев в будущем.
В последствии многие скрины ответов от Gemini были признаны сфабрикованными. И это указывает на еще одну уязвимость ИИ — из-за повышенного "хайпа" вокруг этой темы модель и выпустившая ее компания становится мишенью фейков и шуток ради быстрого обретения популярности.
А какие ошибки и шутки про ИИ встречали вы?
В среду Google объявил, что все ИИ функции в Gmail, Docs, Sheets и Meet теперь доступны клиентам Workspace без дополнительной платы, но тарифный план предусматривает увеличение на $2 в месяц за пользователя.
Согласно недавнему исследованию, опубликованному в The BMJ, ведущие AI-чат-боты демонстрируют признаки легких когнитивных нарушений при прохождении тестов, обычно используемых для выявления ранних стадий деменции у людей. При этом более старые версии моделей показывают худшие результаты, что напоминает возрастное снижение когнитивных способностей,…
Google Gemini 2.0 — значительное обновление ядра работы искусственного интеллекта от Google, которое компания представила сегодня, — предназначено для того, чтобы помочь генеративному ИИ перейти от ответов на вопросы пользователей к выполнению действий самостоятельно, рассказал генеральный директор Google DeepMind Демис Хассабис.
Те же самые достижения в разработке технологий искусственного интеллекта, которые позволяют передовым моделям решать сложные задачи, похоже, также способствуют и побуждают их замышлять интриги и вводить пользователей в заблуждение.