Ян Лекун, визионер и отец искусственного интеллекта о технологии и будущем

Ян Лекун — пионер современного искусственного интеллекта (ИИ) и один из самых ярых защитников технологии. В отличие от других, он высмеивает апокалиптические сценарии развития ИИ и ратует за открытый исходный код. Кто такой Лекун, что он сделал для развития ИИ, что он думает об OpenAI, суперинтеллекте и страхах в отношении ИИ.

Ян Лекун, фото <a href="https://www.wired.com/story/artificial-intelligence-meta-yann-lecun-interview/" rel="nofollow noreferrer noopener" target="_blank">Wired</a><br />
Ян Лекун, фото Wired

Что сделал Лекун для развития ИИ?

Он помог создать подход к глубокому обучению, который имел решающее значение для повышения уровня искусственного интеллекта (ИИ) — работа, за которую он вместе с Хинтоном и Бенджио получил премию Тьюринга - самую престижную премию по информатике, вручаемую Ассоциацией вычислительной техники за выдающийся научно-технический вклад.

Meta* (тогда Facebook) добилась серьезных подвижек, после того как наняла его на должность директора-основателя исследовательской лаборатории ИИ (FAIR) в 2013 году. Он также является профессором Нью-Йоркского университета.

Совсем недавно он убедил Марка Цукерберга поделиться с миром некоторыми технологиями ИИ Meta*: этим летом компания запустила большую языковую модель с открытым исходным кодом Llama 2, которая конкурирует с языковой моделью от OpenAI, Microsoft и Google.

О страхах в отношении ИИ

Он считает, что не нужно преувеличивать страхи по поводу того, что мы скоро получим сверх интеллект: точно нескоро. Все революции несут в себе возможности и риски. В пример он приводит печатную революцию 15 века, которая привела к 200-летнему религиозному конфликту, но также породила эпоху Просвещения.

ИИ принесет миру много пользы, и не стоит отпугивать людей от технологии, эксплуатируя закономерный страх перед ней.

Ян Лекун в интервью Wired

Лекун полагает, что кто-то распространяет страхи для привлечения внимания, кто-то - из-за непонимания. ИИ уже сейчас помогает снижать разжигание ненависти, дезинформацию и попытки пропагандистов коррумпировать избирательную систему.

Если пять лет назад в Facebook* с помощью ИИ превентивно удалялось только 20–25% вредоносных высказываний (дезинформация, разжигающие ненависть сообщения, попытки повлиять на избирательную систему), то в прошлом году эта цифра достигла уже 95%.

ChatGPT показал, что ИИ может принести пользу в новых продуктах гораздо раньше, чем мы думаем. И показательно то, что публика оказалась гораздо сильнее очарована возможностями ChatGPT, чем можно было предположить.

Почему был сделан выбор в пользу открытого решения

Главный научный сотрудник Meta* подписал открытое письмо президенту США Джо Байдену, призывая к использованию ИИ с открытым исходным кодом и заявив, что он «не должен находиться под контролем нескольких избранных компаний».

Критики предупреждают, что стратегия Лекуна развития ИИ с открытым исходным кодом может позволить злоумышленникам вносить изменения в код и устранять барьеры, которые сводят к минимуму расистский мусор и другие токсичный контент; Лекун считает, что человечество сможет с этим справиться.

Лекун на это отвечает, что эти страхи беспочвенны. Открытые платформы, в которые могут вносить вклад многие, развиваются быстрее. А в результате - они более безопасные и надежные.

Второй аргумент: представьте себе будущее, в котором все наше общение с цифровым миром будет проходить через ИИ, и вы точно не захотите, чтобы эта система контролировалась небольшим количеством компаний из США.

Об OpenAI

Журналист Wired отмечает, что Лекун не является поклонником компании и предполагает, что открытость подхода к развитию ИИ Meta - это способ “уесть” конкурентов, явно намекая на позицию OpenAI в этом вопросе. Но Лекун уверяет, что дело совсем не в этом: ИИ должен быть с открытым исходным кодом, потому что миру нужна общая инфраструктура, т.к. платформа становится важной частью системы коммуникаций.

OpenAI на заре своего запуска представляли себя в качестве противовеса плохим парням, таким как Google и Meta, доминировавшим в отраслевых исследованиях. Лекун говорит, что он с самого начала говорил, что это неправильно, и, как полагает, оказался прав. OpenAI больше не открыт. У OpenAI не было способа финансировать свои исследования, и в конце концов им пришлось создать коммерческое подразделение и взять инвестиции у Microsoft (подробнее об этом). Так что теперь они, по сути, являются исследовательским центром Microsoft, хотя и сохраняя некоторую независимость.

Лекун считает, что исследовательский мир, в отличие от нас с вами, не слишком следит за разработками OpenAI, потому что они не раскрывают свою работу, и их вклад в исследовательское сообщество невелик. Но что плохо для OpenAI, так это нестабильность в компании. Исследованиям нужна стабильность, и когда происходят такие драматические события, как мы наблюдали в ноябре, это заставляет людей нервничать.

Законодательство ЕС в области ИИ

В частности, речь идет об освобождении от налога моделей с открытым кодом. Лекун убежден, что модели с открытым кодом имеют бОльший потенциал для развития. Cтраны, у которых нет собственных ресурсов, могут полагаться на платформы с открытым исходным кодом в создании решений для себя (с учетом культуры, языка, интересов), которые будут опосредовать наше взаимодействие с цифровым миром.

Лекун влиял на принятие решений, хотя и не напрямую, т.к. не общался с законодателями, а взаимодействовал с правительствами, в частности - правительством Франции. И он продвигал идею, что не стоит желать получить цифровую диету для своих граждан, если платформа ИИ будет закрытой и станет контролироваться небольшим количеством людей.

Лекун не считает, что платформы с открытым кодом сложно контролировать и регулировать. Более того, регулирование уже создано. Например, если вы собираетесь производить лекарства с помощью ИИ, то все необходимое регулирование уже есть. Если речь идет о регулировании исследований и развития ИИ, то этого делать не стоит, считает главный ученый по ИИ Meta.

Неужели система с открытым исходным кодом действительно безопасна? И, имея доступ к исходному коду и моделям, ее не смогут использовать террористы или мошенники в своих целях?

Нет, считает Лекун, у них не будет ресурсов (им понадобится доступ к примерно 2 тыс. графических процессоров) и достаточного количества талантов. У некоторых стран есть много ресурсов, возражает журналист. Нет, отвечает Лекун, даже Китай не может этого сделать из-за эмбарго на чипы, но рано или поздно они смогут создать свои чипы для ИИ, и Лекун признает это.

Но главный довод — другой:

Так устроен мир: всегда есть противостояние плохих и хороших парней, и единственный способ победить — развиваться быстрее [плохих парней]. А способ развиваться быстрее — это открытые платформы, в развитие которых может вносить вклад большое сообщество.

О супер интеллекте

Лекун считает, что нет такого понятия, как универсальный ИИ (AGI), разные типы ИИ имеют разные наборы навыков. Но рано или поздно машины превзойдут человека и создадут суперинтеллект? Да, это точно произойдет, вопрос - когда. Этот процесс может занять десятилетия, если не века.

Но в таком случае человечеству придется туго? Нет, считает Лекун. У нас у каждого будут ИИ помощники (подробнее о них), и это будет как штат супер умных людей. И они не будут вести себя, как люди. Кого-то это пугает, но Лекуна вдохновляет возможность работать с людьми, чьи способности усилены ИИ и которые умнее его.

Но зачем таким суперкомпьютерам нужен будет человек?, не унимается журналист. Нет никаких оснований полагать, что только потому, что системы ИИ разумны, они захотят доминировать над нами.

Люди заблуждаются, когда думают, что системы ИИ будут иметь те же мотивы, что и люди. Они просто не будут такими: мы спроектируем их по-другому.

Ян Лекун в интервью Wired

Ограничения безусловно будут, считает Лекун: это все равно, что создать автомобиль с двигателем мощностью 1 тыс. лошадиных сил без тормозов. Внедрение приводов в системы искусственного интеллекта — единственный способ сделать их управляемыми и безопасными. Он называет это целенаправленным ИИ, и это своего рода новая архитектура.

Идея состоит в том, что у машины есть предназначение, и она не может производить ничего, что не соответствует этому предназначению. Эти может включать ограничение опасных действий или что-то еще. Вот так можно сделать систему ИИ безопасной.

Лекун не считает, что есть основания полагать, что в будущем он пожалеет о своем подходе. Если бы это было так, он бы уже перестал заниматься тем, что сейчас делает.

* Meta признана экстремистской организацией на территории РФ.

Пожалуйста, поставьте лайк, поддержите меня!

11
Начать дискуссию