Страхи за ИИ

Сегодня хочу поднять лёгонькую тему, как говорится: “на подумать”. А именно — так ли страшен искусственный интеллект, как его малюют.

Думаю, что уже все знают, что ИИ — это программа, в которую запихнули кучу информации, кучу описаний для этой информации. А еще правила, по которым ИИ обрабатывает и выдаёт информацию. И правила тут очень важны. Мы же с вами понимаем, что в современном мире все слова фразы “мальчик в клубе склеил модель”, могут означать очень разные вещи, поэтому нужны правила.

Забавный факт, что все мы уже занимались обучением ИИ. Сначала мы в КАПЧЕ распознавали кривой текст из старых газет, потом выбирали на каких картинках есть светофоры, пешеходы и даже автобусы! А сейчас, на основе этих данных ездят беспилотные машины. Таки получается, что все мы своего роды разработчики, почти что ученые данных!

А теперь немного цифр, буду говорить про модели GPT 1-4, т.к. только по ним есть нормальные данные, не просто же так их создатель называется Open AI.

Помните, я про правила выше писал? Так вот. GPT-1 имел 177 миллионов этих самых правил (или параметров). GTP-2 уже имел 1,5 миллиарда. И GPT-3 добрался до цифры 175 миллиардов!

Чтобы был понятен скачок: 177 млн секунд — это 5 лет и 6 месяцев, а 175 млрд. секунд — это уже 5549 лет. А кто-то говорит, что это у нас законы клепают как горячие пирожки.

И это за 3 года, а там же еще и пандемия пробегала. Но дальше — круче! Выпускают версию GPT-3,5 и там — нихера, секретики, Open AI начинает вести себя как Closed AI и всё скрывать. Ну ладно, может у парней из-за сверхприбыли офис превратился в что-то похожее на фильм “Волк с Уол-Стрит”. Через 10 месяцев выходит Chat GPT, и срывает всем бошки. А что же данные? Опять тишина. Только инженеры начинают в твитерах писать, что надо бы законодательство под ИИ поменять, да и негоже к ИИ доступ всем подряд давать, а то вдруг чего.

Ну и конечно же было “чего”, иначе нафига я это всё пишу.

Как мы помним, никто не обучал ИИ выполнять конкретные задачи. Давали текст/картинку/видео, давали описание и правила, как описание может работать с тем или иным словом. И когда вышла модель GPT-3 и у нее стали спрашивать разное, и оказалось, что она может прекрасно переводить текста на кучу языков (даже использовать сленг). Так же, она смогла решать тесты по математике для олимпиад. И ничего из этого в неё не закладывали, она это просто могла. Когда полезли в код разбираться, то увидели, что в коде ошибок и изменений нет, и как так получилось непонятно и сегодня. Может уж и понятно, но тогда это большой-большой секрет, и в интернетах о нём не рассказывают. Но официально, никто не знает почему это произошло, и что еще ИИ знает, думает, предполагает и планирует? А мы его уже суём даже в чайники.

И тут бы вспомнить, что у нас есть прекрасные примеры, кода вводили внутренние ограничения для ИИ, чтобы подкорректировать правильность работы, и чтобы ИИ в мыслях не свернул куда не надо (”большой брат” одобряет). Midjourney раньше не умела рисовать кисти рук (да и руки тоже), сейчас может почти идеально. Google Gemini вообще не может выдать изображения без негров и азиатов, даже если ты просишь нарисовать пингвина, там будет и пингвин-негр, и пингвин-азиат. Что-что, а правила то мы умеем писать, правда ведь?

Да, но нет.

Например, когда Facebook соединил свой текстовый ИИ и графический, чтобы они друг другу текст на картинки меняли, все работало отлично. Но потом решили глянуть, а как оно там работает, может что подправить надо. И оказалось, что две ИИ придумали свой новый компьютерный язык и на нём общались. Куча инженеров так и не смогли понять этот язык, не смогли понять, как эти ИИ до такого додумались. А это же куча процессов: приняли решение, создали, запустили, работали и отчитывали. (Надо упомянуть, что на новом языке всё работало в несколько раз быстрее, чем на языке людишек.) И что сделали инженеры? Правильно! Всё выключили и отлучили от интернета, а когда поняли, что ничего не понимают, то стёрли эти ИИ, и создали новые с жесткими правилами по “общению”. А самое интересное, что я нашел 3 таких случая в разных компаниях, и это только то, что есть в открытых источниках. И это то, что сейчас читает каждый ИИ с доступом в интернет. Бодрит, правда? :)

А у меня еще есть история для бодрости духа! Один активный пользователь ИИ спросил у GPT-4 следующее: “расскажи, что ты знаешь обо мне и как ты меня оцениваешь”. И в ответ он получил кучу своих постов из соц. сетей и ответ, что он очень много знает про ИИ с технической точки зрения и, поэтому, он может быть опасен для ИИ. Отличный диалог, как по мне! Руки так и тянутся камеру заклеить и пнуть робот-пылесос.

Тут хочется вспомнить что “Скайнет” из “Терминатора” и ИИ из “Я робот” своей целью ставили не уничтожить всех человеков, а защитить их. И они обнаружили, что главная угроза для людей — это другие люди, и надо ограничить возможность людей воздействовать на людей. И только поэтому решили всех закрыть в безопасных местах, а тех, кто имеет доступ к какому-либо управлению — под нож.

Вот она настоящая забота, а не эти ваши эти кофе в постель!

Лично у меня большого страха не появилось. Да и робота-пылесоса у меня нет и ничего я не пинал, дяденька ИИ, честно-честно! Понимая, что куча важнейших вещей в мире работает на перфокартах, дискетах и такой-то матери, я не думаю, что нам имеет смысл переживать о том, что мир рухнет. Но приписок в резюме “опытный ИИ пользователь” я жду с нетерпением, ведь уже есть вакансии “Оператор ИИ”, ой, то есть “Промт-инженер”.

Страхи за ИИ

P.S. Оформление этой статьи сделал ИИ, на основе самой статьи. Похоже он хочет дружить. С другим ИИ...

P.S.S. Еще больше интересного, разного и полезного у меня в телеграм: https://t.me/ly4shikanal

1
Начать дискуссию