Последствия перехода к информационному сообществу: технология GPT

Последствия перехода к информационному сообществу: технология GPT

Внедрение разработок в области ИИ, машинного обучения и анализа больших данных позволило повысить производительность и оптимизировать различные задачи. Одним из достижений в области искусственного интеллекта стал СhatGPT, поразивший многих своей функциональностью и способностью к быстрому обучению. Чат-бот находит ответы на любые вопросы, а также может поддержать диалог, вызывая доверие пользователя.

Содержание

В ноябре 2022 года американская компания, занимающаяся разработкой и лицензированием технологий на основе машинного обучения, OpenAI анонсировала запуск нейросети GPT – продукт, созданный для обработки и генерации текстовых данных.

GPT обучается на огромных дата-сетах, состоящих из слов и предложений, собранных из различных источников. После обучения GPT может сама генерировать и переводить текст, развернуто отвечать на вопросы, самостоятельно писать программные коды, а также решать широкий круг самых разнообразных задач.

ChatGPT4: великий прорыв или инструмент гибридной войны?

В 2023 году была представлена версия ChatGPT4, которая создаёт иллюзию полноценного общения на различные темы в формате беседы, а также умеет осуществлять поиск необходимых изображений, формулировать «проверенные» ответы на самые непредсказуемые вопросы.

В ChatGPT используется набор базовых систем, известный как «большая языковая модель», представляющая собой массивы текстовой информации. Компьютерная сеть на основе этих данных за миллисекунды решает задачу угадывания следующего слова или действия. В результате огромного количества итераций возникает принципиально новый уровень анализа содержания контекста. Таким образом, данная модель программируется по принципу «нейронной сети», т.е. имитирует способ взаимодействия нейронов человеческого мозга.

Такой уровень развития технологии совершенно по-новому ставит вопрос о международной и национальной безопасности, в том числе в контексте всех составляющих гибридной войны: политико-дипломатической, экономической, военной и информационной, включая когнитивное и ментальное оружие.

Искусственный интеллект на поле боя: армия США внедряет новые технологии

Так, американские военные уже активно используют ИИ для выполнения задач стратегического уровня. В начале июля 2023 года представитель ВВС США, полковник М. Стромайер, заявил о проведении испытания системы управления войсками с применением технологий ИИ. Это позволило в разы сократить время на анализ ситуации и принятие соответствующих решений.

Известно, что в рамках данного эксперимента военные США проводят испытания пяти моделей ИИ под руководством Управления цифровых технологий Пентагона, а также высшего военного руководства при участии союзников США по НАТО. Хотя Пентагон и не раскрывает, какие языковые модели для этого задействуются, компания Scale AI из Сан-Франциско заявила, что ее новый продукт Donovan находится в списке тестируемых платформ.

ИИ: потенциальные опасности технологии

Последствия перехода к информационному сообществу: технология GPT

Вместе с тем руководство США выражает обеспокоенность по поводу потенциальных рисков генеративного ИИ. В частности, Президент США заявил, что на компаниях-разработчиках искусственного интеллекта лежит «фундаментальная ответственность». Американский лидер выразил мнение, что необходимо нивелировать как существующие, так и потенциальные риски, которые несет ИИ для людей, общества и национальной безопасности. При этом речь идет не только о соблюдении прав человека или тайны личной жизни, но и сохранении рабочих мест.

Директор по цифровым технологиям и искусственному интеллекту Пентагона Крейг Мартелл поддержал озабоченность руководства США данной темой. Он назвал чатбот ChatGPT «идеальным инструментом для распространения дезинформации», т.к., по его словам, у пользователей может сложиться мнение, будто эта система авторитетна. По его мнению, в настоящий момент отсутствуют эффективные решения для выявления такой дезинформации и предупреждения о ней граждан.

О потенциальной опасности технологии, которая легла в основу программ ИИ, также предупреждает, британско-канадский ученый в области когнитивной психологии и информатики, разработчик нейросетей Д. Хинтон. Ученый длительное время занимался разработкой алгоритмов в области машинного обучения и нейронных сетей — математических моделей, имитирующих человеческий мозг, которые помогли заложить основу для развития искусственного интеллекта. Хинтон утверждает, что одной из угроз развития ИИ, является потенциальная опасность замещения или полного уничтожения ряда профессий, а следовательно, большого количества рабочих мест.

Приостановка развития ИИ: Илон Маск поднимает тревогу

В конце марта 2023 года предприниматель Илон Маск, сооснователь Apple Стив Возняк и более тысячи экспертов в сфере высоких технологий и искусственного интеллекта подписали открытое письмо с призывом приостановить обучение нейросетей из-за потенциальных рисков. В нём утверждается, что технологии с искусственным интеллектом, сопоставимым человеческому, могут представлять значительную угрозу для общества и цивилизации и стать причиной экономических и политических потрясений. В обращении подчёркивается, что мощные ИИ-системы должны разрабатываться только после того, как человечество будет уверено в позитивных последствиях такого развития и в том, что связанные с ними риски будут управляемыми. Разработчиков призывают тесно сотрудничать с регуляторами, в том числе в лице национальных правительств.

Это письмо было опубликовано после того, как группу обеспокоенных развитием ИИ ученых поддержал Европол, предупреждающий о возможности использования злоумышленниками систем вроде ChatGPT — их можно применять для фишинга, дезинформации и совершения киберпреступлений. В связи с этим подписавшиеся призвали все ИИ-лаборатории немедленно приостановить обучение моделей более мощных, чем GPT-4, как минимум на полгода.

Заявления Маска и других экспертов базировалось, в частности, на отчёте компании OpenAI, вышедшем в марте 2023 года, в котором разработчики чат-ботов предупредили, что новая языковая модель GPT-4 может быть использована для генерации убедительной дезинформации. По мнению специалистов, человечество недалеко от создания чрезвычайно опасного искусственного интеллекта. Кроме того, зависимость от такой технологии может помешать развитию новых навыков человека или даже привести к потере уже сформированных.

Темная сторона ИИ: фишинг, дезинформация и «язык ненависти»

Проведя тесты совместно с Alignment Research Center, OpenAI продемонстрировала способность чат-бота запустить фишинговую атаку и скрыть все доказательства мошеннического поведения. Беспокойство у общественности вызывает и стремление компаний внедрять нейросеть GPT-4, не принимая достаточных мер против её возможности генерировать нежелательную модель поведения — имеется опасение, что нейросеть GPT-4 способна самостоятельно создавать и воспроизводить «язык ненависти, дискриминирующие фразы, а также призывы к насилию».

Результаты тестов OpenAI подтверждают исследования, проведённые учёными Института биомедицинской этики и истории медицины Цюрихского университета. В исследовании, в котором приняли участие 697 испытуемых, оценивалось умение людей отличать ложную информацию от правдивой, определять их способность выявлять какие сообщения написаны людьми, а какие сгенерированы ИИ. Также необходимо было решить, верна ли та или иная опубликованная информация, содержащая неоднозначный для социума контент — например, об эффективности вакцин и климатических изменениях, часто используемых для массовых манипуляций общественным мнением в Сети.

Оказалось, что дезинформацию труднее выявить, если она написана ботами. При этом достоверную информацию, написанную нейросетью, легче распознавать. Другими словами, люди, участвовавшие в исследовании, охотнее верили искусственному интеллекту, чем другим людям, независимо от того, насколько точными были сведения, что свидетельствует о потенциальной опасности языковых моделей при их использовании для дезинформации.

Подробнее о проблемах безопасности ИИ в нашем полном переводе в Telegram канале. В сообществе представлены разные точки зрения научного сообщества, тематические переводы и актуальные новости — подписывайтесь.

WormGPT как темная альтернатива ChatGPT

Последствия перехода к информационному сообществу: технология GPT

Доступность и повсеместное использование генеративного искусственного интеллекта позволяет киберпреступникам также легко брать его на вооружение. Например, инструмент WormGPT широко представлен на хакерских форумах для организации сложных фишинговых атак. WormGPT помогает организовать целевые атаки на корпоративную почту. Данное ПО представляет собой вредоносную альтернативу моделям GPT. Киберпреступники могут использовать его для автоматического создания злонамеренных электронных писем, специально персонализированных под конкретных получателей, что повышает вероятность успешной атаки. Сами авторы WormGPT описывают своё детище как антагониста ChatGPT, который позволяет осуществлять целый спектр незаконных действий.

Злоумышленники активно применяют нейросеть ChatGPT для написания вредоносного кода и фишинговых электронных писем. При этом часть из них практически не имеет опыта в программировании. Генеративный ИИ может создавать электронные письма с безупречной грамматикой, повышая их внешнюю «легитимность» и снижая вероятность того, что они будут помечены как подозрительные. Использование генеративного ИИ значительно упрощает и выполнение сложных BEC-атак.

Анализ развития и применения GPT показывает, что для обеспечения ответственного и безопасного ее использования, а также для предотвращения потенциальных угроз, связанных с этой новаторской технологией, необходимо государственное регулирование данной сферы, основанное на этических и юридических нормах общества.

Больше полезной информации об ИТ и ИБ — в наших соцсетях:

Telegram

Вконтакте

Одноклассники

Дзен

55
Начать дискуссию