{"id":14290,"url":"\/distributions\/14290\/click?bit=1&hash=bece6ae8cf715298895ba844b6416416882fe02c5d18dab2837319deacd2c478","title":"\u041a\u043e\u0440\u043f\u043e\u0440\u0430\u0446\u0438\u0438 \u043a\u0430\u043a \u043d\u0438\u043a\u043e\u0433\u0434\u0430 \u0440\u0430\u043d\u044c\u0448\u0435 \u0445\u043e\u0442\u044f\u0442 \u0441\u043e\u0442\u0440\u0443\u0434\u043d\u0438\u0447\u0430\u0442\u044c \u0441 \u043c\u0430\u043b\u044b\u043c \u0431\u0438\u0437\u043d\u0435\u0441\u043e\u043c","buttonText":"","imageUuid":""}

Генеративный ИИ - это просто "замыленный JPEG интернета", который убедительно косит под интеллект

ИИ чат-боты любят ловить глюки и выдавать всякую чушь. Так массово, что словом 2023 года признали "галлюцинировать". В чем причина такого явления? Является ли генеративный ИИ интеллектом (спойлер - и да, и нет)? И что общего у ChatGPT и копировального аппарата Xerox? Разбираемся, осмысляя базовую логику работы языковых моделей.

Небольшое вступление или "в чем суть проблемы?"

Кебриджский словарь признал словом года "галлюцинировать" (hallucinate). Причем не в вакууме, а применительно к генеративному ИИ. Глюки ИИ - это когда ChatGPT выдает косяки в фактологии, из-за которых пользователи теряют всякую веру его результатам (и срочно бегут все перепроверять в Гугле). Но не стоит злиться на генеративный ИИ за подобные выкрутасы, ведь дело в самой логике его работы. Ее мы сегодня и разберем с помощью парочки метких аналогий.

Лично я люблю сыграть пару каток в FIFA, поэтому слово "галлюцинировать" вижу как-то так. И пофиг, что там умные дяди из Кембриджа имели в виду.

Год назад Google впервые представил миру своего чат-бота Bard. Сейчас он вполне неплохо работает (хотя и уступает первопроходцу), но на той презентации умудрился выдать базу-основу. Он заявил, что "Джеймс Уэбб" был первым космическим телескопом, сделавшим снимки планет за пределами Солнечной системы. Это была ошибка - первые снимки этих самых планет сделал другой телескоп еще за 17 лет до появления на свет "Джеймса Уэбба". Неточность Барда быстро заметили, в результате чего у Google даже просела стоимость акций.

ИИ чат-боты регулярно выдают неточности и искажения. Чаще всего они незначительны и касаются отдельных деталей. Однако даже наличие небольших косяков сильно снижает полезность генеративного ИИ на практике. Ведь если вы знаете, что ошибки в целом возможны и даже регулярны, то не можете полностью довериться этому инструменту.

Глюки ИИ в вакууме. Да-да, ChatGPT, конечно же это мероприятие или концерт. День хлопка на плантации отмечают, не иначе. 

Но не спешите обвинять бездушную машину в злом умысле. У нее нет цели подставить кожаных или намеренно ввести в заблуждение.

Причина в другом. Дело в том, что генеративный ИИ по принципам своего устройства больше напоминает архиватор (т.е. программу для сжатия файлов), нежели полноценное сознание. Именно поэтому эксперты в ИИ зачастую недовольно фыркают, когда генеративные нейросети называют звучным словом "интеллект". А еще это отлично объясняет, почему ChatGPT очень вряд ли превратится в злой скайнет (но это не точно).

Итак, давайте разбираться. В этом нам поможет классная статья издания The New Yorker за авторством Теда Чана, из которой я с большой благодарностью буду заимствовать ключевые тезисы. Подкрепляя их иллюстрациями, дабы нагляднее было.

Хитрый Xerox и внимательные проектировщики зданий

Осмыслять проблему удобнее чуть издалека, с интересной аналогии.

В 2013 году копировальный аппатар Xerox в офисе одной немецкой строительной фирмы начал творить очень странные дела. Ребята делали копию проекта дома с тремя комнатами и заметили очень любопытное расхождение:

  • На оригинальной схеме три команты имели разную площадь - 14,13, 21,11 и 17,42 метра. То есть, на чертеже в центре каждой комнаты стояла разная циферка, обозначающая площадь.
  • Xerox же выдал копию, где на всех трех комнатах стояла одинаковая цифра - 14,13 (как площадь первой комнаты).

Компания прифигела от такого контринтуитивного глюка копировальной техники и обратилась к специалисту по обработке данных Давиду Крайзелю.

Вы, возможно, спросите: "Аффтар, а почему они обратились к человеку такой специальности, а не к эксперту в копировальном деле?". Дело в том, что современные ксероксы используют не классический процесс ксерографии (это когда изображения передаются с оригинала на копию через прохождение лучей через специальный барабан - в общем, аналоговая классика), а цифровое сканирование.

А когда речь заходит о каких-то манипуляциях с изображениями (да и файлами в целом) в цифровой среде, то мы почти наверняка столкнемся с процедурой сжатия объектов.

Процедура сжатия состоит из двух ключевых этапов. Первый - кодирование (encoding), в ходе которого изначальное изображение переводится в какой-то более компактный формат. Второй - декодирование (decoding), т.е. обратное действие.

При этом сжатие бывает двух типов:

  1. Сжатие без потерь (lossless) - это когда закодированные данные могут быть восстановлены с точностью до пикселя или бита. Если речь идет про изображения, то самый популярный формат сжатия без потерь - это PNG.
  2. Сжатие с потерями (lossy) - здесь уже распакованные данные отличаются от исходных, но степень отличия столь незначительно и минорна, что их без проблем можно дальше использовать. Яркий пример - JPEG.
Чоткие пацаны не забивают карту памяти своего Сименса пээнгэшками!

Сжатие без потерь обычно используется, скажем, для компьютерных программ. Потому что если потерять хотя бы один символ кода, то все поломается. А вот для изображений, аудио или видеофайлов часто предпочитают использовать сжатие с потерями. Ведь даже если отдельные пиксели картинки поедут или мелодия будет звучать чуть менее чисто, то человечьи органы осязания все равно не заметят подлога, так что пофиг.

Здесь и была зарыта собака в истории со ксероксом. Агрегат использовал lossy-сжатие формата JBIG2, которое работает примерно так:

В целях экономии места или вычислительных мощностей (а может и того и другого, пойди разберись в этой офисной технике) машина ищет очень похожие области изображения и сохраняет для всех них одну копию, которую потом воспроизводит обратно при декодинге.

Проще говоря, конкретно в этом случае ксерокс почему-то решил, что комнаты на чертеже так похожи друг на друга, что можно смело забивать на различия и считывать только одну из них - ту, которая площадью 14,13 кв метров. А потом везде нарисовать именно её. То ли потому что формат JBIG2 создан для работы с черно-белыми офисными бумажками, а не с мелкими объектами чертежей, то ли просто у аппарата был дурной характер - история умалчивает. Но суть в том, что ксерокс решил забить на небольшие различия именно в том случае, где эти различия оказались очень даже критичными.

Вообще, сам факт того, что ксерокс использует сжатие с потерями - это не проблема. Проблема в том, что изображение деградирует очень незначительно, "на тоненького". Настолько чуть-чуть, что с ходу фиг заметишь. Одно дело, если бы он просто блюррил упрощенные области картинки, но он их может просто вероломно заменить. А строительному бюро потом объясняй заказчику, почему в итоге все комнаты получились одинаковыми.

Идем дальше. Проблема сжатой Википедии

Запомним историю со Xerox и проведем один мысленный эксперимент (он нам нужен, чтобы подойти еще ближе к пониманию проблемы этих наших GPT).

Представьте, что завтра во всем мире отключат интернет. Вообще. Совсем. Не будет его больше. В связи с этим мы решаем по максимуму выгрузить все содержимое интернета к себе на частный сервер. Ну окей, пусть будет не весь интернет (это совсем тяжко), но хотя бы всю Википедию. Чтобы оставить великие знания потомкам.

Разумеется, место на сервера ограничено - вся Википедия туда не влезет. Допустим, места хватит на 1% от оригинального размера, т.е. сжать изначальный объем нужно в 100 раз. Следовательно, нужно прибегнуть к сжатию с потерями.

Печатать всю Википедию мы, пожалуй, не будем. Это too much даже для гипотетического мысленного эксперимента. Обойдемся цифровым форматом.

Итак, мы применяем сжатие с потерями. Алгоритм у нас мощный - он легко находит чрезвычайно тонкие статистические закономерности на совершенно разных страницах (иногда одинаковыми оказываются длинные фразы или целые предложения). Таким образом нам удается сжать Википедию примерно в 100 раз, что и требовалось в нашем мысленном эксперименте.

Теперь нам не так страшно потерять доступ к интернету, ведь у нас как минимум выкачана база знаний в виде Википедии (а значит, потомкам будет чуть проще делать выводы о предназначении предметов, найденных при раскопках через тысячи лет). Но есть нюанс:

Мы не сможем найти любую цитату слово в слово. Потому что из-за сжатия с потерями наша Википедия сохранена не буквально, а приблизительно. Алгоритм оставил только то, что кровь из носу требуется, чтобы сохранить смысл всех сущностей. Остальное же было объединено и апроксимировано (т.е. передано приблизительно). А значит, чтобы достать информацию, нам нужно создать интерфейс, который умеет в ответ за запрос выдавать основной смысл.

Чувствуете, на этом моменте комнату начинает наполнять знакомый аромат генеративного ИИ?

GPT выдает точные ответы, но есть нюанс...

Да-да, только что мы мысленно создали большую языковую модель (LLM), обученную на Википедии (в нашем конкретном случае).

ChatGPT - это заблюренный JPEG не только Википедии, но вообще всего интернета. Когда модель дообучают, этот JPEG еще лучше детализируется в отдельных уголках. Но суть все та же - LLM аккумулирует именно бОльшую часть интернета, но далеку не всю.

Следовательно, когда GPT отвечает за ваш запрос, он не может выдать точную последовательность символов. Он сделает приближение. Другое дело, что GPT отлично умеет превращать это приближение в связный и опрятный текст, который человеческий мозг не может сходу отличить от оригинального.

А как LLM воссоздает пробелы, которые отсутствуют в его сжатой версии интернета? Ответ - интерполяция. Не будем вдаваться в математические дебри этой штуки. Простыми словами - это оценка отсутствующего элемента путем анализа того, что находится с двух сторон от этого разрыва. Когда программа обработки изображений декодирует ранее сжатую фотографию и должна восстановить пиксель, потерянный в процессе сжатия, она просматривает близлежащие пиксели и, по сути, вычисляет среднее (генерирует его).

То же самое делает ChatGPT, только со словами и прочими текстовыми смысловыми сущностями. Секрет в том, что ChatGPT научился делать эту интерполяцию настолько мастерски, что люди не могут этого раскусить (и думают, что имеют дело с настоящим интеллектом).

По сути, генеративный ИИ выдумывает отсутствующие элементы на основе смежных. Фантазер этот GPT, получается.

Если теперь вы хотя бы иногда будете вспоминать эту картинку во время написания очередного промпта, то это значит, что я написал эту статью не напрасно :)

Описанная выше логика отлично объясняет "галлюцинации". Просто-напросто даже самый большой мастер интерполяции иногда допускает ошибки. И совсем периодически эти ошибки замечают. Однако сам факт вероятности ошибок сильно снижает надежность инструмента. Ведь это значит, что в любой момент может вылезти значимый косяк. А это уже означает, что все результаты нужно сверять с оригинальным текстом (= лишние затраты ресурсов).

Получается, генеративный ИИ - это совсем не интеллект?

И да, и нет. Тут, как говорится, смотря как посмотреть.

Действительно, не стоит очеловечивать генеративный ИИ. То есть не нужно отождествлять его с человеческим интеллектом.

ChatGPT впитывает информацию с большими потерями, восстанавливая ее через интерполяцию. В результате он как будто пересказывает суть своими словами. Вероятно, здесь и кроется разгадка, почему люди так восхищаются генеративным ИИ.

Дело в том, что еще со школьных и универских скамей у людей сидит на подкорке убеждение (весьма резонное), что точное воспроизведение информации - удел зубрилок, которые "выучили, но не поняли", а по-настоящему толковые ребята пересказывают все своими словами, сохраняя суть. Поэтому и ChatGPT нам кажется толковым парнем, который реально все понимает. На самом же деле он просто передает основной смысл, воссоздавая пропуски за счет усреднения.

Именно поэтому, кстати, GPT3 не очень хорошо справлялся с точными вычислениями больших чисел (допустим, выражение "2345 х 57789" в интернете встретишь не так уж часто), но при этом как Боженька писал всякие студенческие эссе. По мере перехода к GPT4 модель стала более продвинутой, в нее завезли больше закономерностей, поэтому она стала сносно щелкать любую арифметику.

Однако, есть и другая сторона медали. Она касается тех самых закономерностей, которых в GPT4 завезли больше. Смотрите:

Есть такая премия под названием "Приз Хаттера". Ее в 2006 г. учредил старший научный сотрудник DeepMind (это ИИ-стартап, уже давно купленный Гуглом) Маркус Хаттер. Суть конкурса такая:

Есть текстовый файл на английском языке размером 1 Гб. Его требуется сжать без потерь. Каждый, кто сожмет на 1% от предыдущего лучшего результат, получит 5000 евро. Сейчас лучший результат 115 Мб.

На самом деле, это не просто конкурс по сжатию текста без потерь. Это важное упражнение, приближающее понимание сути настоящего ("взрослого") искусственного интеллекта. И вот этого товарища уже можно отождествлять с человеческим сознанием как минимум по одному признаку:

Чтобы наиболее эффективно сжимать текст без потерь, он должен уметь по-настоящему понимать этот текст и сопоставлять его содержание с реальными знаниями о мире.

Маркус Хаттер вскоре после запуска своего конкурса. Кстати, Лекс Фридман записывал с ним интервью еще три года назад. Рекомендую глянуть.

Например, вот есть у нас какая-то статья в Википедии на тему физики. Допустим, некий текст, где фигурирует Второй закон Ньютона (Сила = Масса х Ускорение). Вероятно, самый простой способ сжать без потерь такую статью - это заложить в алгоритм сжатия базовый постулат, что "Сила = Масса Х Ускорение". Тогда алгоритм может выкинуть повторящиеся куски статьи, вытекающие из логики этого закона, а потом легко их восстановить при надобности (потому что знает сам базовый принцип).

Аналогично и со статьей на некую экономическую тему. Наверняка там будет дофига выводов, основанных на законе спроса и предложения. А значит, если в принцип сжатия заложен этот закон, то можно выкинуть кучу "вторичной" информации.

ИИ работает так же. Чем больше первичных правил и законов он знает, тем меньше может париться с запоминанием вторичных выводов (ведь он может их легко восстановить - если и не дословно, то достаточно точно по смыслу).

При таком раскладе ИИ действительно становится интеллектом - в том плане, что делает частные выводы на основе общих знаний. По сути, старая добрая дедукция из детективных романов про Шерлока Холмса.

Всегда догадывался, что этот парень - искусственный интеллект.

Получается, что хотя ChatGPT все еще очень далек от настоящего интеллекта, он все сильнее стремится к таковому по мере наполнения своей базы знаний и лучшей адаптации к устройству нашего мира. Вот такой интересный процесс.

Получается, из-за глюков LLM-кам нельзя доверять так же, как поисковикам (как минимум пока они не усвоят все законы бытия)?

В целом, получается, что да. Пока что нельзя. Ведь:

  1. Во-первых, мы не знаем наверняка, скушала ли LLM откровенную пропаганду или какие-нибудь антинаучные теории заговора. Если скушала, то она могла выстроить очень специфические логические связи. И если она будет заполнять пробелы в соответствии с ними, то результат может получиться очень веселым.
  2. Во-вторых, также нет гарантии, что ИИшный "JPEG" не заблюррил полностью ту информацию, которая нужна для отработки конретно нашего запроса.

Держа в голове эти два обстоятельства, можем сделать вывод - результаты нынешнего генеративного ИИ можно использовать как отправную точку для анализа, но не финальную истину (не стоит сразу же нести выводы от ИИ своему начальнику, ну вы поняли).

Но мы его все равно любим...)

Также стоит разобраться - а хорошая ли это идея создавать контент с помощью ИИ?

Ну, если вы работает на объем, то наверно да. А если на качество и уникальность, то не уверен. Ведь даже если вы используете ИИ для получения некой первичной версии, то держите в уме, что холстом вашего великого произведения будет вторичный (изначально переработанный) продукт, где часть смыслов вообще фантазировалась через интерполяцию (иначе говоря - отправной точки ваших смыслов станет совсем уж откровенный полуфабрикат).

Так что, если вы хотите создавать уникальный контент - то, пожалуй, ИИ стоит использовать только для поиска информации, не более. Однако, если ваша задача переупаковать уже готовый контент - то почему бы нет? Особенно если вам нужно избавиться от оков авторских прав и копирайтов (рубрика "вредные советы").

Выводы

Глюки ИИ - это норма. Иногда они кажутся нам смешными и чересчур упоротыми. Но объяснение лежит на поверхности.

По мере обрастания моделей закономерностями и знаниями о мире, глюков будет все меньше. Если, конечно, мир не будет усложняться с той же скоростью или быстрее.

Полезно учитывать эту особенность при использовании ИИ. Так будет меньше шансов серьезно опростоволоситься в кругу уважаемых людей или испортить качество выдаваемых смыслов.

Когда генеративный ИИ сможет стать Скайнетом? Учитывая вышысказанное, рискну предположить, что еще очень-очень нескоро. Если вообще сможет.

После осмысления информации выше я теперь представляю Скайнет примерно так ("ути-пути какой хорошенький"). Надеюсь, меня за такое не прикончат первым... 

А вы часто сталкиваетесь с глюками ИИ?

И как вы считаете, отличается ли наш человеческий мозг от заблюренного джипега?

Большая часть этой статьи - художественный перевод вот этой статьи. Очень-очень вольный перевод - считайте, что я интерполировал кое-какие смыслы, чтобы воспринимать их было проще и веселее. Статья вышла в феврале 2023, т.е. еще до релиза GPT4, но логику передает верно. Рекомендую прочитать оригинал, там еще больше примеров и иллюстраций (но предупреждаю - понадобится неплохой английский и ясное сознание).

Также рекомендую заглянуть на мой тг-канал Дизраптор. Там я простым человечьим языком и с максимальной наглядностью пишу про разные интересные штуки из мира технологий, инноваций и бизнеса. В том числе про этот наш ИИ, но не только про него.

0
46 комментариев
Написать комментарий...
Павел Комаровский

Человеческий мозг - это просто замыленный джипег для архивации и интерполяции информации! Prove me wrong 🤔

Ответить
Развернуть ветку
Алексей Подклетнов
Автор

Я бы сказал, "замыленный и заебанный"...)

Ответить
Развернуть ветку
Алексей Подклетнов
Автор

Давно подозревал, что твой профиль захватил ИИ)))

Ответить
Развернуть ветку
Илья Ланкевич

А если ещё заметить, что "замыленный джипег" мозга (brain) лишь эхо для недалекого сознания (conscience), становится совсем интересно. :)

Ответить
Развернуть ветку
Дарья Пинигина

С некоторыми людьми когда разговариваешь, они будто тоже архивацию включают. Пересказывают потом дичь, и так уверенно, обоснованно.

Ответить
Развернуть ветку
Буквоед

Феномен ложной памяти ещё есть. Да много чего.

Ответить
Развернуть ветку
Captain

Есть у психологов такое упражнение, когда историю рассказывают одному человеку, а он по цепочке рассказывает остальным. И там в конце такие галлюцинации, которые ChatGPT и не снились.

Ответить
Развернуть ветку
Алексей Подклетнов
Автор

Да, имхо в режим архивера люди впадают не всегда (хотя и часто), а языковые модели - только ими и являются

Ответить
Развернуть ветку
Janie

Включают архивацию и начинают подлагивать

Ответить
Развернуть ветку
Олег

каждая речь деда по фамилии начинающаяся на П заканчивается на Н

Ответить
Развернуть ветку
Киприан Лейн

Согласен с предыдущим оратором: естественный разум, с его ограниченной и ненадежной памятью, когнитивными искажениями, и множеством скрытых воздействующих на него параметров "hallucinating" гораздо сильнее, чем ИИ. Но тут как в пословице про бревно в глазу

Ответить
Развернуть ветку
Алексей Подклетнов
Автор

Давайте зайдем в Википедию и наберём "интеллект":

Интелле́кт (от лат. intellectus «восприятие»; «разуме́ние», «понимание»; «понятие», «рассу́док») или ум — качество психики, состоящее из способности осознавать новые ситуации, способности к обучению и запоминанию на основе опыта, пониманию и применению абстрактных концепций, и использованию своих знаний для управления окружающей человека средой.

Здесь и понимание абстрактных концепций, и осознание новых ситуаций (может ли GPT сама себя обучить, синтезировать новое?)

Всё-таки есть четкое ощущение, что тут гораздо больше фичей, чем у архивера.

Но вопрос дискуссионный, согласен

Ответить
Развернуть ветку
Роман Величкин
может ли GPT сама себя обучить, синтезировать новое?

Нейросети давно могут генерировать новое и сами себя обучать.

Вопрос ведь в другом - нам не так важна генерация нового. Нам важна генерация объектов четко по нашему запросу.

Все жаловались на то, что нейросети не могут пальцы нарисовать. Разве кто-то жаловался на то, что ему не хватает новых форм конечностей? Нет, всем были необходимы правильные пять пальцев.

Ответить
Развернуть ветку
Griby Lenina
Представьте, что завтра во всем мире отключат интернет. Вообще. Совсем. Не будет его больше.

Спустя неделю:

Ответить
Развернуть ветку
Алексей Подклетнов
Автор

В сжатой википедии наверняка есть статья про это)

Ответить
Развернуть ветку
Дарья Пинигина

Да какую неделю... Мужики знакомые из клуба тайбо выбрались на шашлыки, так они не могли мангал зажечь. С розжигом. И зажигалками. Тренер рассказывал - я рыдала

Ответить
Развернуть ветку
НЕплатный акк

ИИ это олицетворение сегодняшнего развития человека.
Все знают, что основная масса сдала.

Поэтому:
"Резистор переменного напряжения",
"Преимущества аккумулятора переменного тока АПТ"
и прочая хрень подаётся под научным видом ...

Ответить
Развернуть ветку
Алексей Подклетнов
Автор

Ну, учитывая, что ИИ обучен на интернете, который содержит информацию человеков кожаных, то логично

Ответить
Развернуть ветку
Ekaterina Khalitova

Спасибо за статью! на 100% согласна с этим:
"Также стоит разобраться - а хорошая ли это идея создавать контент с помощью ИИ?
Ну, если вы работает на объем, то наверно да. А если на качество и уникальность, то не уверен".

Мы с командой в одном проекте думали: "Щас чатGPT нам нагенирит крутых постов для LinkedIn и красиво стартанём". В итоге мы его начали обучать и пробовать - он не передаёт уникальность нашего подхода, сводит всё под одну гребёнку))) В итоге сами пишем, сами логотип нарисовали, сами сайт отрисовали

Ответить
Развернуть ветку
Алексей Подклетнов
Автор

Да, если хотите выделяться за счёт контента, а не сваливаться еще сильнее в общую массу, то придется писать самим.

Но ИИ хорошо помогает на этапе подготовки. С поиском информации, например

Ответить
Развернуть ветку
Stepan

И вот тут буква потеряна "Каждый, кто сожмет на 1% от предыдущего лучшего результат,"

А статья классная! Просто о сложном. А если еще чуть-чуть докрутить, и можно было бы даже бабушкам давать почитать вместо объяснения, что такое этот ваш чат жэпэтэ.

Ответить
Развернуть ветку
Алексей Подклетнов
Автор

Спасибо! Но бабушкам сначала пришлось бы долго объяснять, что такое джипеги))

Ответить
Развернуть ветку
Stepan

Вот-вот. Потому и про докрутить написал.
Можно попробовать заменить джиреги подходом, привычным пожилому возрасту: "не дослышал, так придумал"

Ответить
Развернуть ветку
SharpNesla

Разница архиватора и GPT заключается в том, что у него есть контекст, чего у Википедии всё-таки нет, даже в пожатой (он есть в нашей голове, что и позволяет нам цепочки составлять). На примерно таком принципе ещё старые экспертные системы работали, условные операторы вроде есть, а вроде могут и собраться в неожиданную цепочку (особенно если их много), порождение нового знания из имеющихся.

Ответить
Развернуть ветку
Ненавижу Лицемеров

С удовольствием прочитал весь текст. Доступно, интересно. В лучших традициях научпопа.

Ответить
Развернуть ветку
Алексей Подклетнов
Автор
Ответить
Развернуть ветку
Ненавижу Лицемеров

Кстати, я подумал что не так уж далек принцип работы ИИ от принципов работы нашей памяти.

Мы ведь тоже помним ключевые (самые яркие и крупные) объекты событий, а остальное каждый раз достраиваем (выдумываем). И если часто вспоминать то само это событие превращается в новый контейнер, который потом используется для маркировки "площади комнат".

Наверно правильно называть это не искусственным интеллектом, а искусственной памятью интернета (человечества).

Ответить
Развернуть ветку
Алексей Подклетнов
Автор

Тут принципиальная разница в количестве усвоенных закономерностей и умении ими пользоваться. В конце статьи как раз пишу об этом

Ответить
Развернуть ветку
Иван Воробьёв

Автор, буковку потерял:
"а когда речь заходит о каких-то манипуляциях с изображениями (да и файлами в целом) в цифровой среде, то мы почти наверняка !стоЛкнёмся! с процедурой сжатия объектов."

Ответить
Развернуть ветку
Алексей Подклетнов
Автор

Спасибо, нашел!

Ответить
Развернуть ветку
Barone Rosso

Спасибо, круто! С ксероксом вообще жесть!!!

Ответить
Развернуть ветку
Роман Величкин

Автор упрощает тему. В нейросетях используют нелинейные функции, чтобы находить сложные зависимости и взаимосвязи. За счёт этого у нейросети возникает понимание правил и возможность делать какие-то выводы.

Ответить
Развернуть ветку
Алексей Подклетнов
Автор

В таком случае, это не я упрощаю, а Тед Чан, автор оригинальной статьи

P.S. про тип функций в статье ни слова не было)

Ответить
Развернуть ветку
Роман Величкин

Не хотел обидеть, это Теду и было обращено в общем-то :)

Ответить
Развернуть ветку
Алексей Подклетнов
Автор

Не-не, все ок, передам ему)

Ответить
Развернуть ветку
Dmitriy Pokrovski

После такой стати хочется порассуждать на тему того каким образом генеративный ИИ может теоретически представлять опасность.

Может быть кто-то обернет в форму статьи аргументы сторонников ограничительной политики в отношении ИИ?

Для меня интеллект как таковой в смысле способности обрабатывать информацию, распознавать связи, выделять объекты и т.д. и мотивация - это совершенно разные почти никак не связанные вещи.

Ну например почему тигр опасен? Потому что у него есть ОТДЕЛЬНЫЙ блок в голове отвечающий за мотивацию - ему нужно искать еду, выживать, защищаться от опасности и т.д. Этот блок задает команды для самого "интеллекта" тигра - что ему надо искать, на кого нападать и зачем.

При чем мотивационный блок в природе сформировался отдельно от интеллекта. У простейших одноклеточных интеллекта (и вообще нейронных связей как таковых) еще нет, но "прошивка" которая определяет в какой момент надо покушать а в какой отдохнуть уже есть.
То есть мотивационный блок не появился из интеллекта каким-то образом сам по себе, а скорее наоборот интеллект развился благодаря работе этого блока.
Мотивационный блок даже и работает-то на других принципах относящихся больше к прошивке ДНК, тогда как природный интеллект - это чисто нейронные связи.

У ИИ мотивационный блок простой - понять о чем его спрашивают и дать ответ. Поэтому сценария при котором ИИ "случайно и безконтрольно" сам себе каким-то образом создаст мотивационный блок я тут не вижу никак. Сначала должна появиться мотивация а потом уже включаться в работу интеллект, но никак не наоборот.

При чем мотивационный блок - это не просто написать боту в чате "уничтожь человечество". Мотивационный блок связан с интеллектом через сложный драйвер который работает и устроен гораздо сложнее чем механизм "ввода-вывода" внешней информации.

Ответить
Развернуть ветку
Vladimir P

Спасибо за ваш вклад в замыленный jpeg интернета. Вообще, пересказ этой статьи уже был на vc полгода назад. Интересно, сколько авторов успеют пересказать эту статью после вас до выхода LLM на новый уровень.

Ответить
Развернуть ветку
Алексей Подклетнов
Автор

Потом появится новая статья, и ее перескажем))

Ответить
Развернуть ветку
Vladimir P

Имейте совесть)

Ответить
Развернуть ветку
Алексей Подклетнов
Автор

Эту фразу можно трактовать очень по-разному :)

Ответить
Развернуть ветку
Анастасия

А вот и теории заговора подъехали

Ответить
Развернуть ветку
Алексей Подклетнов
Автор

Где?

Ответить
Развернуть ветку
Евгений Заруцкий

Скайнетом ии стать не может никогда по той причине что он никогда не захочет жить

Ответить
Развернуть ветку
Vladimir P

Делюсь ссылкой на перевод статьи от 13 февраля без рекламы тг-каналов: https://vc.ru/607460

Ответить
Развернуть ветку
Алексей Подклетнов
Автор

Ну да, пелена гугл-транслейтного текст - это кайф. Но зато нет тг-канала, это же главное!

Ответить
Развернуть ветку
Александр Морозов

Неужели можно доверять поисковикам и сайтам с информацией в интернете?

Ответить
Развернуть ветку
43 комментария
Раскрывать всегда