Раскрываем секреты: Ключевые выводы из отчета Стэнфордского университета "Индекс ИИ 2024"

Раскрываем секреты: Ключевые выводы из отчета Стэнфордского университета "Индекс ИИ 2024"

В 500-страничном Отчете изложены основные идеи и выводы, сделанные в результате отслеживания, сбора, обработки и визуализации данных, связанных с индустрией искусственного интеллекта.

Но что они означают?

Смотрите комментарии Time2Future AI Guide к каждому основному пункту отчета.

1. ИИ превосходит человека в некоторых задачах, но не во всех.

Раскрываем секреты: Ключевые выводы из отчета Стэнфордского университета "Индекс ИИ 2024"

ИИ превзошел человека в некоторых областях, таких как распознавание образов, понимание изображений и английского языка. Однако он все еще отстает в более сложных задачах, таких как математика высшего уровня, образное мышление на основе здравого смысла и планирование.

Все эти эталонные показатели - составляют определение и являются основными признаками двух способов человеческого мышления - абстрактного (левополушарное понимание, обработка и генерация абстрактных понятий с помощью слов и чисел) и визуального (правополушарное понимание, обработка и генерация образов).

По скорости и качеству абстрактного мышления (способность понимать слова и числа и выражать мысль словами и числами) ИИ приблизился к человеку и даже частично превзошел его в 2023 году. Теперь ИИ вплотную приблизился к тому, чтобы превзойти человека в образном мышлении (способность понимать изображения и выражать мысль с помощью образов, изображений, диаграмм, графиков, схем и т. д.). И, скорее всего, это произойдет уже в этом году. Почему это важно?

Визуальное мышление - очень важный человеческий навык. Люди получают большую часть информации из визуальных образов - они создают наш образ жизни. У людей этот навык поддается тренировке и обучению. Так же как и у искусственного интеллекта.

Таким образом, ИИ сейчас обладает почти таким же уровнем двух основных характеристик человеческого мышления - абстрактного и образного мышления.

Это не означает, что ИИ сравнялся или стал лучше человека, или что ИИ будет обладать какими-то "другими" уровнями или "другими" характеристиками. Это означает, что ИИ справляется с задачей быстрее и чаще, чем большинство людей. ИИ лучше по производительности, но он все равно мыслит как человек.

2. Индустрия продолжает доминировать в исследованиях передового ИИ.

Раскрываем секреты: Ключевые выводы из отчета Стэнфордского университета "Индекс ИИ 2024"

Почти 60% всех моделей машинного обучения, созданных в 2023 году, - это промышленные модели.

Это означает, что частные компании пользуются эффектом скорости и не готовы упускать выгоды, отставая технологически. Срабатывает правило - в начале любой гонки, в том числе и в продвижении новых технологий, легче стать лидером, а при наличии ресурсов проще увеличить разрыв и упрочить позиции, а значит, получить возможность диктовать правила игры, оставив других в догоняющих. В свою очередь, технологическое лидерство, особенно в начале активного внедрения новой технологии, обычно обеспечивает максимальную денежную отдачу. Академическая сфера и государства объективно менее мотивированы денежной выгодой, поэтому не нацелены к доминированию в отрасли. Такая ситуация характерна для всех технологий, которые уже проникли в реальный рынок.

Исходя из этого, есть два вывода:

- ИИ - это технология "приносящая деньги", которая уже присутствует на рынке и уже является частью экономики;

- Доминирование индустрии в дальнейшем развитии и совершенствовании ИИ будет возрастать.

Кроме того, есть и вторая причина доминирования индустрии над наукой и государственным сектором, и она же - следствие первой. Это стоимость разработки технологии.

И это следующий пункт...

3. Передовые модели становятся все дороже.

Раскрываем секреты: Ключевые выводы из отчета Стэнфордского университета "Индекс ИИ 2024"

По оценкам AI Index, обучение передовых моделей ИИ стало чрезвычайно дорогим. Например, по подсчетам, GPT-4 от OpenAI потребовалось около 78 миллионов долларов на обучающие вычисления, а Gemini Ultra от Google - около 191 миллиона долларов на обучение.

Уровень цифр говорит о том, что этап технологического неравенства в индустрии уже начался.

Есть признанные лидеры, которые могут позволить себе дорогостоящее развитие технологий для сохранения своего лидерства.

4. США опережают Китай, ЕС и Великобританию, как ведущий источник ТОП моделей ИИ.

Раскрываем секреты: Ключевые выводы из отчета Стэнфордского университета "Индекс ИИ 2024"

В 2023 году организации, расположенные в США, создали 61 из наиболее значимых моделей ИИ, намного больше, чем 21 модель ЕС и 15 моделей Китая. При этом по количеству всех известных фундаментальных моделей разрыв между США еще больше (американские организации создали 109 всех моделей ИИ, остальные - 48).

Демографический состав разработчиков ИИ часто отличается от состава пользователей. Например, значительное число известных ИИ-компаний и наборы данных, используемые для обучения моделей, происходят из западных стран, что отражает западную точку зрения. Отсутствие разнообразия может навсегда закрепить или даже усугубить социальное неравенство и предубеждения.

В отрасли есть те, кто видит в этом серьезную угрозу для человечества.

Из интервью основателя компании Mistral:

"Более серьезная угроза - монополия американских компаний на рынке ИИ. Модели ИИ формируют культурное понимание мира, и важно учитывать ценности и культурные коды разных стран".

Это может стать серьезным ограничением для использования ИИ за пределами западного мира в будущем, а также для возможности достижения цифрового или технологического равенства в глобальном масштабе.

5. Надежных и стандартизированных оценок ответственности LLM (Больших Языковых Моделей) не хватает.

Раскрываем секреты: Ключевые выводы из отчета Стэнфордского университета "Индекс ИИ 2024"

Недавно выпущенный Foundation Model Transparency Index показывает, что разработки ИИ не очень прозрачны, особенно когда речь идет о предоставлении подробной информации об их обучающих данных и методах. Отсутствие открытости затрудняет полное понимание того, насколько надежны и безопасны системы ИИ.

Это приводит к проблеме дипфейков при распространении ИИ.

Дипфейки действительно представляют собой серьезную проблему, в первую очередь из-за их потенциала для обмана и манипуляций. Вот три ключевых последствия:

- Дезинформация и манипуляции: дипфейки могут использоваться для создания очень убедительных видеороликов или изображений, на которых люди говорят или делают то, чего они на самом деле не делали. Такая дезинформация может быстро распространяться в социальных сетях и на других платформах, приводя к путанице в обществе, манипулированию мнением и даже клевете.

- Подрыв доверия и подлинности: по мере того как технология deepfake становится все более изощренной, становится все труднее отличить настоящий контент от поддельного. Такой подрыв доверия к СМИ и источникам информации может иметь далеко идущие последствия, влияя на все - от общественных дискуссий до судебных разбирательств.

- Проблемы конфиденциальности и согласия: дипфейки поднимают серьезные этические вопросы, связанные с использованием сходства людей без их согласия. Накладывая лица или голоса на откровенный контент или изменяя видео, чтобы создать компрометирующие ситуации, технология может нарушить неприкосновенность частной жизни людей и нанести ущерб их репутации и отношениям.

Политические фейки уже влияют на выборы по всему миру, а последние исследования показывают, что существующие методы обнаружения фейков с помощью искусственного интеллекта работают с разной степенью точности. Сюда же относятся постоянные скандалы, связанные с использованием "чужих" или "похожих" голосов.

Кроме того, возникает проблема производной ответственности для тех, кто использует в своих сервисах фундаментальные модели, но не имеет прозрачного способа сравнить риски и ограничения этих ИИ-моделей.

Решение этих проблем потребует многогранного подхода, включающего развитие технологий, вмешательство в политику, инициативы по повышению медиаграмотности и кампании по информированию общественности.

6. Инвестиции в генеративный ИИ стремительно растут.

Раскрываем секреты: Ключевые выводы из отчета Стэнфордского университета "Индекс ИИ 2024"

Несмотря на то что общий объем частных инвестиций в ИИ в прошлом году снизился, финансирование генеративного ИИ резко возросло, увеличившись почти в восемь раз с 2022 года до 25,2 млрд долларов. Крупнейшие компании в области генеративного ИИ, такие как OpenAI, Anthropic, Hugging Face и Inflection, сообщили о значительных раундах привлечения средств.

Ключевым моментом является то, что инвесторы все больше внимания уделяют конкретным областям ИИ, таким как обработка естественного языка и управление данными. Частные компании ожидают возврата инвестиций от генеративного ИИ, поскольку наиболее очевидные результаты можно получить от его использования в реальном мире.

Это означает, что генеративный ИИ становится частью реальной экономики и рынка.

Два следующих пункта также влияют на этот результат.

7. ИИ делает работников более продуктивными и приводит к повышению качества работы.

Раскрываем секреты: Ключевые выводы из отчета Стэнфордского университета "Индекс ИИ 2024"

С 2018 года количество упоминаний об искусственном интеллекте в отчетах компаний из списка Fortune 500 выросло почти вдвое. Наиболее часто упоминаемой темой, фигурирующей в 19,7% всех корпоративных отчетов, стал генеративный ИИ.

Увеличилось количество опрошенных организаций, которые сообщают о сокращении расходов и увеличении доходов в результате внедрения ИИ (в том числе генеративного ИИ).

Это свидетельствует о значительном повышении эффективности бизнеса с помощью ИИ.

В 2023 году несколько исследований изучили влияние ИИ на работу. Они показали, что ИИ помогает работникам быстрее выполнять задачи и повышает качество их работы. Кроме того, ИИ обещает сократить разрыв в квалификации между низкоквалифицированными и высококвалифицированными работниками. Однако некоторые исследования предупреждают, что использование ИИ без надлежащего надзора может снизить производительность.

8. Научный прогресс еще больше ускоряется благодаря ИИ.

"В 2022 году ИИ начал способствовать научным открытиям. Однако в 2023 году были запущены еще более значимые приложения ИИ для науки - от AlphaDev, повышающего эффективность алгоритмической сортировки, до GNoME, облегчающего процесс открытия новых материалов".

В особенности ИИ помогает медицине добиться значительных успехов. Появился высококвалифицированный медицинский ИИ. В последние годы системы ИИ продемонстрировали значительные улучшения в тесте MedQA (Medical Question Answering) - ключевом тесте для оценки клинических знаний ИИ.

В то же время только за последний год доля докторов наук в области ИИ, работающих в промышленности, выросла на 5,3 процентных пункта, что свидетельствует об усиливающейся "утечке мозгов" из университетов в индустрию.

"В 2011 году примерно равные доли новых докторов наук в области ИИ занимали рабочие места в индустрии (40,9%) и в научной сфере (41,6%). Однако с 2022 года значительно большая доля (70,7%) переходит в индустрию после окончания университета по сравнению с теми, кто остается в науке (20,0%)".

Причина кроется в пункте 6 (произошел и усиливется переход в практическое применение ИИ в реальной экономике).

А это значит, что рост и проникновение ИИ (особенно Генеративного ИИ) в бизнес и промышленность будет продолжаться.

9. В США резко увеличивается количество нормативных актов, регулирующих ИИ.

Раскрываем секреты: Ключевые выводы из отчета Стэнфордского университета "Индекс ИИ 2024"

Но это происходит не только в США.

Растущие возможности ИИ привлекли внимание политиков. За последний год Соединенные Штаты и страны ЕС провели значительное количество законодательных инициатив, связанных с ИИ. Этот всплеск свидетельствует о том, что политики все больше осознают необходимость регулирования ИИ для повышения способности своих стран извлекать выгоду из его потенциала.

Но существуют различные точки зрения на эту тенденцию.

С одной стороны, усиление регулирования ИИ должно решить такие проблемы, как отсутствие стандартизации и ответственного использования (о том, к чему это приводит, мы говорили в пункте 5).

С другой стороны, некоторые лидеры индустрии говорят, что это нецелесообразно.

Из интервью основателя Mistral:

"Законодательное регулирование ИИ неуместно и вредит инновациям. Франция лоббировала ограничение регулирования компаний с открытым исходным кодом в законе ЕС об ИИ. Это помогло Mistral быстро развиваться".

На наш взгляд, проблему вряд ли стоит обсуждать в терминах "регулировать или не регулировать". Скорее, важнее определить критерии "как" и "зачем" регулировать.

Если мы начнем регулировать ИИ как потенциального конкурента, чуждого человеку, это действительно приведет к пагубным ограничениям развития. Такое регулирование, скорее всего, будет неестественным (например, попытка ограничить доступ ИИ к информации, без ограничений доступной людям, какой бы она ни была). Но, если регулирование будет направлено на поддержку развития ИИ как инструмента для расширения возможностей человечества, путем создания четких правил игры для всех участников отрасли, оно, скорее всего, будет полезным.

10. Люди по всему миру больше осознают потенциальное влияние ИИ и больше беспокоятся относительно этого.

Раскрываем секреты: Ключевые выводы из отчета Стэнфордского университета "Индекс ИИ 2024"

По данным исследования, за последний год доля людей, считающих, что ИИ окажет значительное влияние на их жизнь в ближайшие три-пять лет, увеличилась с 60 до 66%. Кроме того, 52% выражают беспокойство по поводу продуктов и услуг ИИ, что на 13 процентных пунктов больше, чем в 2022 году.

По мере того как ИИ становится все более распространенным, важно понимать, как меняется отношение общества к этой технологии. Знание общественного мнения помогает прогнозировать влияние ИИ на общество и то, как его внедрение может варьироваться в разных странах и демографических группах.

Общественное мнение об ИИ становится все более важным фактором при отслеживании прогресса ИИ.

Это означает, что есть признаки того, что мы сталкиваемся с новой эрой экономических и социальных отношений. Мы начинаем жить среди работ ИИ и решений ИИ. Нам нужно думать и что-то делать в области этики ИИ.

И главный вопрос: "Является ли ИИ чем-то большим, чем просто следующим или очередным уровнем автоматизации?". И если да, то нужно ли нам создавать другие или новые правила для него и для нас в эту новую эпоху?

Или мы просто должны использовать нашу человеческую этику, ведь другой этики, кроме человеческой, пока не существует. Возможно, в силу этой концепции правила и законы должны существовать для людей, а не для инструментов, даже если этот инструмент - искусственный интеллект.

В любом случае, мы должны знать ИИ, мы должны понимать ИИ, и мы можем использовать ИИ.

Все данные для этой статьи взяты из отчета AI Index 2024 и находятся в открытом доступе. Все выводы и соображения, содержащиеся в этой статье, являются мнением редакторов Time2Future AI Guide; при использовании ссылка на Time2Future AI Guide обязательна.

33
2 комментария

хорошая статья спасибо

Ответить

Спасибо!

Ответить