Naomi Klein: «галлюцинации» не у ИИ, а у ее создателей. Коммерческие компании просто хотят заработать

Naomi Klein, автор таких разоблачающих работ как No Logo и The Shock Doctrine, предлагает взглянуть на стремительное развитие технологий генеративного ИИ с точки зрения мотивации их создателей. Обладая репутацией блестящего аналитика, не стесняющегося задавать неудобные вопросы, Naomi рассуждает, а действительно ли такие боты как ChatGPT сделают наш мир лучше. Создатели алгоритмов нанимают консалтинговые компании (BCG) и тратят огромные деньги ( $70 млн за 2022 год) на лоббирование своих технологий и уверяют, что они принесут несомненную пользу экономике и обществу. Генеративный ИИ решит проблему климатического кризиса, сделает наши правительства более «умными» (так считает Eric Schmidt, бывший CEO Google), возьмет на себя монотонную работу. И, разумеется, создатели этих машин не хотят разрушить мир, а его улучшить. Naomi задает два вопроса: 1) Неужели наши правительства настолько «неумные», а толпы ученых, Нобелевских лауреатов и экспертов до сих пор не знают, как решить проблему климата? 2) Каким образом в мире капитализма коммерческая корпорация хочет улучшить мир? В системе капитализма компании создаются для получения прибыли в интересах акционеров. Если мы говорим, что машина решит проблему климата и сделает наши правительства умными, то есть принимающими разумные решения на основе данных в пользу людей, а не под влиянием миллионов лоббистских денег, то это уже не капитализм, а социализм. Вряд ли Google, Microsoft, Meta и техно отрасль Силиконовой Долины строят социализм. Значит, цели внедрения алгоритмов совсем не те, что озвучивают их создатели.

Naomi рассуждает дальше: как так могло произойти, что создатели алгоритмов смогли среди бела дня совершить «кражу века»: алгоритмы тренировали на миллионах рисунков, фотографий, изображений, защищенных авторскими правами. Авторы не получили компенсации, у них даже не спросили согласия. Художники называют ситуацию самым крупным грабежом в истории. Они даже не знали об этом. Следовательно, генеративный ИИ незаконно использовал результаты работ людей, чтобы потом его создатели предлагали клиентам заменить работу реального журналиста на машину, которая мимикрирует под журналиста. Получается, журналист останется без работы, а владелец алгоритма заработает.

Naomi раскрывает трюк Силиконовой Долины по созданию монополий. Это часть 2.

Главы технологических компаний хотят, чтобы мы поверили, что генеративный ИИ принесет пользу человечеству. Они обманывают сами себя.

Среди многочисленных дебатов о генеративном ИИ имеет место один не очень известный спор именно с фразой «галлюцинации ИИ».

Искаженные галлюцинации ИИ

Термин «производить галлюцинации» (“hallucinate”) используется архитекторами и сторонниками генеративного ИИ, когда ответы алгоритма совершенно неадекватны или просто ошибочны. Например, если попросить бота дать определение чему-то, что не существует в природе, то алгоритм очень убедительно даст вам определение и еще сноски на какие-то материалы предоставит. Sundar Pichai, CEO Google и Alphabet: «Пока никто не смог решить проблему галлюцинаций алгоритма».

И это правда. Однако, почему ошибки называют «галлюцинациями»? Почему не назвать их мусор алгоритма? Или просто глюк? Термин галлюцинация означает таинственные возможности человеческого мозга видеть необычные явления, которые на самом деле не существуют, по крайней мере в физическом мире. В психологии этот термин используется в отношении к психоделическим явлениям и различным формам мистерий. Евангелисты ИИ признают, что алгоритмы ошибаются, но при этом создают иллюзию у пользователей и самих себя: дескать, большие языковые модели, которые тренируются на всем материале, который люди написали, сказали или нарисовали, похожи на новый разумный вид, который находится на раннем этапе своего развития. Иначе по какой еще причине алгоритмы типа Bing и Bard могут галлюцинировать в пространстве?

Искаженные галлюцинации действительно приходятся на нынешний этап развития технологии алгоритмов. Однако галлюцинации - не у ботов, а у CEO технологических компаний, которые выпускают релизы алгоритмов, а также у толпы поклонников ботов, которые находятся во власти своих чудаковатых галлюцинаций. Причем галлюцинации у них и коллективные и индивидуальные. Эти галлюцинации – не в смысле психоделические практики или измененные формы сознания, которые могут помочь людям постичь потайные уголки своего подсознания. Галлюцинации евангелистов ИИ – это своеобразные «спотыкания» в реальности, когда они видят иллюзорные доказательства того, что на самом деле не существует, и даже создают целые миры, которые будут использовать их продукты разработки для возвышения и образования человека.

Генеративный ИИ должен покончить с бедностью, говорят фанаты алгоритмов. Он решит проблему изменения климата на планете. Сделает нашу работу более осознанной и интересной. Алгоритм раскроет потенциал досуга и медитаций, поможет нам вернуть понятие человечности, которое мы потеряли в результате перехода в последнюю стадию капитализма. Генеративный ИИ покончит с одиночеством. Сделает наши правительства более рациональными и ориентированными на гражданина. Эти галлюцинации ИИ мы слышим из каждого утюга с тех пор, как был опубликован первый релиз ChatGPT в конце прошлого года.

Нам представляют мир генеративного ИИ как мощный инструмент прогнозирования и выполнения скучной работы, который действительно принесет пользу человечеству, другим видам и нашей планете в целом. Но чтобы все это произошло, алгоритм необходимо запустить в совершенно другом экономическом и социальном порядке. Мир должен быть другим, он должен иметь цель помочь человечеству и защитить планету от климатических изменений.

Те, кто не находятся во власти галлюцинаций, прекрасно осознают, что наш мир совсем не такой. Более того, современный мир нацелен на извлечение прибыли и богатства – как из человека, так и из природы. Это настоящая реальность, к которой мы пришли, и могли бы ее назвать техно-некротической стадией капитализма. В этой реальности, где сконцентрированы власть и богатство, ИИ с большой долей вероятности станет новым инструментом отъема собственности и разорения в пользу сильных и богатых.

Почему утопические иллюзии алгоритмов используются сторонниками технологии

Так почему же это произошло? Во-первых, стоит подумать о целях, которым служат эти утопические иллюзии алгоритмов. Зачем нужны эти великодушные истории в нашей культуре, когда мы сталкиваемся с чем-то новым? Одна из гипотез: эти истории служат мощным и заманчивым прикрытием для одного из самых масштабных обманов в истории человечества. Мы становимся свидетелями того, как крупнейшие и самые богатые в истории человечества коммерческие компании (Microsoft, Apple, Google, Meta, Amazon..) в одностороннем порядке присваивают себе всю совокупность человеческих знаний, которые существуют в цифровом виде. Они извлекают их, помещают в закрытые пространства, объявляют их проприетарными продуктами и нацеливают их на извлечение прибыли из людей, которые, по сути, и обучали эти продукты, не давая на это разрешения или даже согласия.

Обучение алгоритмов на изображениях, защищенных авторскими правами, без уведомления авторов – самое масштабное воровство в истории

Это точно не может быть законным. В отношении материалов, защищенных авторскими правами, на которых обучались алгоритмы, как мы знаем, уже поданы многочисленные иски. Поэтому обучение на таких материалах точно незаконно. Почему, к примеру, коммерческая компания может иметь право обучать свой алгоритм на картинах, зарисовках и фотографиях современных художников, чтобы алгоритм - типа Stable Diffusion или Dall-E 2- создавал двойников работ художников? Какую пользу авторам работ приносит алгоритм в этом случае?

Molly Crabapple, художник и иллюстратор, помогает движению защиты прав художников, которое противостоит такому виду воровства. Открытое письмо Molly Crabapple: «Технология ИИ для генерации изображений натренирована на огромном количестве данных. Эти данные содержат миллионы изображений, защищенных авторскими правами. Использование этих материалов осуществлялось без разрешения правообладателя. Последние не получили никакой компенсации, у них даже не спросили согласия. Это самое громкое и крупное воровство в истории. Совершено оно с виду респектабельными корпоративными структурами из Силиконовой Долины. Это грабеж среди бела дня».

Почему галлюцинации алгоритмов так нужны их создателям

Галлюцинации техно отрасли о тех прекрасных задачах, которые ИИ сделает для человечества, исключительно важны. Ведь эти надменные заявления маскируют массовое воровство и представляют его как подарок человечеству, а также используются для рационализации принятия непреодолимых рисков технологии ИИ.

На сегодняшний день большинство из нас слышали опрос, который провели разработчики и фанаты алгоритмов, чтобы оценить вероятность «вымирания человечества» из-за продвинутых технологий ИИ. Около 10% опрошенных заявили, что такой риск есть.

Как можно рационализировать работу таких систем? Часто для обоснования продолжить разработку опасных систем используется аргумент, что пользы от них будет чем вреда. Следовательно, риски можно принять. Польза от алгоритмов, высказываемая сторонниками технологии, сама по себе выглядит галлюцинацией.

Naomi Klein разбирает часть из этих галлюцинаций.

Галлюцинация №1: ИИ решит проблему климатического кризиса

Первое место в списке пользы от генеративного ИИ занимает утверждение, что эта технология решит проблему климатического кризиса. Мы слышим это от всех, начиная от участников Международного Экономического Форума (World Economic Forum) и заканчивая Советом по международным отношениям американской консалтинговой компании Boston Consulting Group. Как заявляют сторонники технологии, ИИ «может быть использовано всеми заинтересованными сторонами для более содержательного и основанного на данных подхода к решению проблемы выбросов и созданию зеленого общества. Также алгоритм может быть использован для переориентации глобальных климатических усилий в сторону подверженных риску регионов». Eric Schmidt, бывший CEO Google, заявил изданию the Atlantic, что риски ИИ стоит принять и двигаться дальше, так как «если вы думаете о самых больших проблемах мира - изменение климата, мироустройство человечества и так далее, то я хочу, чтобы люди были умнее».

Такая логика бывшего CEO Google ведет к мысли, что «решить» большие проблемы, такие как изменение климата, пока не удалось, так как те, кто их решал, недостаточно умные. Получается, что стоит забыть, как ученые с степенями PhD и обладатели Нобелевской премии, дававшие советы правительствам десятилетиями, как избежать проблем климатического кризиса, а именно: снизить выбросы, меньше добывать углеродов, обуздать неуемное сверхпотребление богатых и увеличить поддержку бедных. Ведь не бывает бесплатных источников энергии без экологических затрат.

Причина, по которой всех этих умных людей просто игнорировали, - не в том, что кто-то не понимал их советов или не мог прочитать их тексты, а в том, что нам нужны машины, которые будут думать за нас. Выполнение советов умных людей приведет потере миллионов долларов от ископаемых источников энергии, а снижение потребления – к потере роста как основной бизнес-модели. Климатический кризис, в общем-то, - не загадка какая-то, или ребус, который никто не может решить. Все знают, что нужно делать, но нужна смена парадигмы. Ожидать, что машина выдаст какой-то другой совет, - это не способ найти решение проблемы, а ее симптом.

Пора избавиться от галлюцинации. Технологии ИИ будут выведены на рынок способами, которые только усугубят климатический кризис. Во-первых, огромные сервера, которые необходимы для работы генеративного ИИ, являются источником колоссального карбонового выброса. Во-вторых, такие компании как Coca-Cola начинают массовые инвестиции в технологии генеративного ИИ, чтобы продавать больше своих продуктов. Так что становится ясно, что эта технология будет использоваться не для распространения свободы и демократии, а для микротаргетирования клиентов, чтобы мы покупали больше ненужных продуктов, являющихся источником карбонового выброса.

Если дип фейков будет так много в медиа пространстве, то как мы отличим правду от лжи?

В-третьих, чем больше медиа каналов заполнены дип феками и различными клонами, тем больше мы погружаемся в информационные зыбучие пески. Geoffrey Hinton, «крестный отец ИИ», оставил свой пост в Google, чтобы иметь возможность говорить открыто о риске этой технологии. Он заявил изданию the New York Times, что использование ИИ приведет к тому, что мы «не сможем отличить правду от лжи».

Это очень коррелирует с заявлением, что ИИ поможет в борьбе с климатическим кризисом. Если мы все меньше доверяем тому, что мы видим и читаем в медиа пространстве, то как мы сообща справимся с кризисом? Кризис доверия предшествовал появлению ChatGPT, но нет никаких сомнений, что распространение дип фейков будет сопровождаться ростом теорий заговоров. И тогда какая разница, совершит ли ИИ какой-то технологический или научный прорыв? Если информационное пространство вокруг нас опутает нас ложью, то мы не сможем отреагировать соответствующим образом на технологический прорыв. Мы про него можем и не узнать.

Галлюцинация №2: ИИ создаст более разумное правительство

Эта галлюцинация рисует недалекое будущее, в котором политики и бюрократы используют накопленные данные алгоритмов и получают способность «видеть модели потребностей для создания программ, основанных на фактах». Таким образом они принесут больше пользы своим избирателям. Это заявление из материалов, опубликованных консалтинговой компанией Boston Consulting Group. Его повторяют различные мозговые центры и консультанты по управлению. Именно эти компании, нанятые правительством и корпорациями для оптимизации расходов и предлагающие массовые сокращения, быстрее всех присоединились к восторженным похвалам алгоритмам. PwC (бывшая PricewaterhouseCoopers) объявила об инвестициях в размере $1 млрд. Bain & Company и Deloitte ратуют за использование технологий ИИ, чтобы сделать своих клиентов более «эффективными».

Как и в случае с галлюцинацией о климатическом кризисе, стоит спросить: неужели причина, по которой политики проводят неэффективные и жесткие меры, является отсутствие фактов? Или неспособность увидеть «модели потребности», как гласит материал BCG? Действительно политики не понимают связь уровня смертности во время пандемии и слабой системы здравоохранения или не способны понять, что необходимо строить некоммерческое жилье, если множество палаток бездомных заполняют парки? Точно ли нужен алгоритм, чтобы сделать чиновников «умнее»- используя термин Eric Schmidt? Или они достаточно «умны», чтобы понимать, кто финансирует их избирательную кампанию или будет финансировать их противников, если они пойдут не в том направлении?

Было бы просто прекрасно, если бы технология ИИ смогла разорвать связь между деньгами корпораций и безрассудной политикой. Однако, эта связь имеет прямое отношение к тому факту, что такие компании как Google и Microsoft вывели на рынок своих ботов не смотря на множество предупреждений и явные риски. Eric Schmidt и другие много лет подряд лоббировали свои интересы среди Демократов и Консерваторов. Корпорации заявляли, что если они не смогут свободно разрабатывать генеративный ИИ, а сделать это можно только если регулирование слабое, то западные страны окажутся далеко позади Китая. В прошлом году крупнейшие техно компании потратили $70 млн на лоббирование в Вашингтоне. Эта сумма превышает затраты на лоббирование нефтяного и газового сектора. Как писало издание Bloomberg, эта сумма превышает другие затраты корпорация на публикации мозговых центров, НКО и различных ассоциаций.

Слушая выступление Sam Altman, CEO в OpenAI - разработчик ChatGPT- о том, что нужно сделать для его продуктов, все забывают, кто финансирует формирование национальной политики. Вместо этого, он создает в галлюцинациях алгоритмов несуществующий мир, где политики и корпорации принимают решение на данных и никогда не подвергнут риску миллионы жизней ради получения прибыли и геополитических интересов. Такие идеи загоняют нас в другую галлюцинацию.

Галлюцинация №3: технологические компании можно доверять, они же не разрушат мир

В ответ на вопрос, не беспокоит ли Sam Altman последствия золотой лихорадки, которую он развязал своим продуктом ChatGPT, CEO ответил, что беспокоится, но: «Все должно получиться». Он также сказал, что победа на рынке генеративного ИИ будет благодаря лучшим ангелам (better angels).

Кто такие эти лучшие ангелы? Они в Google? Naomi напоминает, что именно Google уволила многих работников, которые открыто критиковали технологию ИИ или публично рассказывали о расизме и сексизме в компании. Другие «лучшие ангелы» покинули компанию, как Geoffrey Hinton, «крестный отец ИИ». Ангелы уходят или их просят уйти, так как они выступают в противовес галлюцинации людей, делающих деньги на ИИ. Google не принимает решений на основе аналитики, что будет лучше для мира. Корпорация принимает решения на основе того, что будет лучше для акционеров, которые очень боятся пропустить пузырь, особенно если Microsoft, Meta и Apple уже делают деньги на нем.

Следующие галлюцинации и разбор трюков Силиконовой долины по созданию монополии в "серой зоне" регулирования в части 2 лонг рида от Naomi Klein

22
1 комментарий