ИИ для чайников: 25+ ключевых терминов, которые должен знать каждый в 2024 году

<a href="https://www.theverge.com/24201441/ai-terminology-explained-humans" rel="nofollow noreferrer noopener" target="_blank">Автор</a>: Джей Питерс, редактор новостей, пишущий о технологиях, видеоиграх и виртуальных мирах.
Автор: Джей Питерс, редактор новостей, пишущий о технологиях, видеоиграх и виртуальных мирах.

Запутались в терминологии искусственного интеллекта? Эта статья — ваш путеводитель по миру ИИ. Разберитесь в 25+ ключевых понятиях, от машинного обучения до нейронных сетей. Узнайте, чем отличается ChatGPT от Gemini, и почему все говорят о RAG. Решите проблему непонимания технологий ИИ, научитесь разбираться в трендах и примените эти знания в своем бизнесе. Статья поможет вам говорить на одном языке с техническими специалистами и принимать обоснованные решения о внедрении ИИ в вашу компанию.

***

На связи Роман Шарафутдинов. Я маркетолог, продюсер, специалист по нейросетям, спикер.

Занимаюсь стратегическим маркетингом, продюсированием, помогаю экспертам, блогерам, предпринимателям и фрилансерам внедрять нейросети в свою работу, экономить время/деньги и зарабатывать больше за счет внедрения ИИ.

Подписывайтесь на мой Телеграм-канал. Здесь еще больше полезностей из мира нейросетей и маркетинга.

***

Искусственный интеллект — это горячая новинка в мире технологий. Кажется, что каждая компания говорит о том, как она делает успехи, используя или разрабатывая ИИ. Но область ИИ настолько наполнена жаргоном, что бывает чрезвычайно трудно понять, что на самом деле происходит с каждым новым достижением.

Чтобы помочь вам лучше понять происходящее, мы составили список некоторых наиболее распространенных терминов ИИ. Мы постараемся объяснить, что они означают и почему они важны.

Что именно такое ИИ?

Искусственный интеллект: Часто сокращаемый до ИИ, термин "искусственный интеллект" технически является дисциплиной компьютерных наук, посвященной созданию компьютерных систем, которые могут мыслить как человек.

Но сейчас мы в основном слышим об ИИ как о технологии или даже как о сущности, и точное определение этого понятия сложнее установить. Он также часто используется как маркетинговое модное слово, что делает его определение более изменчивым, чем оно должно быть.

Google, например, много говорит о том, что уже годами инвестирует в ИИ. Это относится к тому, как многие из его продуктов улучшаются с помощью искусственного интеллекта, и как компания предлагает такие инструменты, как Gemini, которые кажутся интеллектуальными. Существуют базовые модели ИИ, которые питают многие инструменты ИИ, такие как GPT от OpenAI. Затем есть генеральный директор Meta Марк Цукерберг, который использовал ИИ как существительное для обозначения отдельных чатботов.

По мере того, как все больше компаний пытаются продать ИИ как следующую большую вещь, способы использования ими этого термина и другой связанной номенклатуры могут стать еще более запутанными.

По мере того, как все больше компаний пытаются продать ИИ как следующую большую вещь, способы использования ими этого термина и другой связанной номенклатуры могут стать еще более запутанными. Существует множество фраз, с которыми вы, вероятно, столкнетесь в статьях или маркетинговых материалах об ИИ, поэтому, чтобы помочь вам лучше понять их, я составил обзор многих ключевых терминов в области искусственного интеллекта, которые в настоящее время активно используются. В конечном счете, однако, все сводится к попытке сделать компьютеры умнее.

Обратите внимание, что я даю лишь элементарный обзор многих из этих терминов. Многие из них часто могут стать очень научными, но эта статья должна помочь вам уловить основы.

Машинное обучение: Системы машинного обучения обучаются (мы подробнее объясним, что такое обучение позже) на данных, чтобы они могли делать прогнозы о новой информации. Таким образом, они могут "учиться". Машинное обучение является областью в рамках искусственного интеллекта и имеет решающее значение для многих технологий ИИ.

Искусственный общий интеллект (AGI): Искусственный интеллект, который столь же умен или умнее человека. (OpenAI, в частности, сильно инвестирует в AGI.) Это может быть невероятно мощная технология, но для многих людей это также потенциально самая пугающая перспектива возможностей ИИ — подумайте о всех фильмах, которые мы видели о суперинтеллектуальных машинах, захватывающих мир! Если этого недостаточно, ведется также работа над "сверхинтеллектом", или ИИ, который намного умнее человека.

Генеративный ИИ: Технология ИИ, способная генерировать новый текст, изображения, код и многое другое. Подумайте о всех интересных (хотя иногда и проблемных) ответах и изображениях, которые вы видели, созданных ChatGPT или Google Gemini. Инструменты генеративного ИИ работают на моделях ИИ, которые обычно обучаются на огромных объемах данных.

Галлюцинации: Нет, мы не говорим о странных видениях. Это вот что: поскольку инструменты генеративного ИИ хороши только настолько, насколько хороши данные, на которых они обучены, они могут "галлюцинировать", или уверенно придумывать то, что, по их мнению, является лучшими ответами на вопросы. Эти галлюцинации (или, если быть совершенно честными, чушь) означают, что системы могут делать фактические ошибки или давать бессмысленные ответы. Существуют даже споры о том, можно ли вообще "исправить" галлюцинации ИИ.

Предвзятость: Галлюцинации — не единственные проблемы, возникающие при работе с ИИ, и эту проблему можно было предвидеть, поскольку ИИ, в конце концов, программируются людьми. В результате, в зависимости от данных для обучения, инструменты ИИ могут демонстрировать предвзятость. Например, исследование 2018 года, проведенное Джой Буоламвини, специалистом по компьютерным наукам из MIT Media Lab, и Тимнит Гебру, основательницей и исполнительным директором Института распределенных исследований искусственного интеллекта (DAIR), соавторы статьи, которая показала, как программное обеспечение для распознавания лиц имело более высокий уровень ошибок при попытке определить пол женщин с более темной кожей.

Изображение: Хуго Дж. Эррера для The Verge
Изображение: Хуго Дж. Эррера для The Verge

Я постоянно слышу много разговоров о моделях. Что это такое?

Модель ИИ: Модели ИИ обучаются на данных, чтобы они могли выполнять задачи или принимать решения самостоятельно.

Большие языковые модели, или LLM: Тип модели ИИ, которая может обрабатывать и генерировать текст на естественном языке. Claude от Anthropic, который, по словам компании, является "полезным, честным и безвредным помощником с разговорным тоном", является примером LLM.

Диффузионные модели: Модели ИИ, которые могут использоваться для таких задач, как генерация изображений из текстовых запросов. Они обучаются путем сначала добавления шума — например, статики — к изображению, а затем обращения процесса, чтобы ИИ научился создавать четкое изображение. Существуют также диффузионные модели, работающие с аудио и видео.

Фундаментальные модели: Эти генеративные модели ИИ обучаются на огромном количестве данных и в результате могут быть основой для широкого спектра приложений без специального обучения для этих задач. (Термин был придуман исследователями Стэнфорда в 2021 году.) GPT от OpenAI, Gemini от Google, Llama от Meta и Claude от Anthropic — все это примеры фундаментальных моделей. Многие компании также рекламируют свои модели ИИ как мультимодальные, что означает, что они могут обрабатывать несколько типов данных, таких как текст, изображения и видео.

Передовые модели: В дополнение к фундаментальным моделям, компании, занимающиеся ИИ, работают над тем, что они называют "передовыми моделями", что, по сути, является просто маркетинговым термином для их еще не выпущенных будущих моделей. Теоретически эти модели могут быть гораздо мощнее моделей ИИ, доступных сегодня, хотя есть также опасения, что они могут представлять значительные риски.

Изображение: Хуго Дж. Эррера для The Verge
Изображение: Хуго Дж. Эррера для The Verge

Но как модели ИИ получают всю эту информацию?

Что ж, они обучаются. Обучение — это процесс, с помощью которого модели ИИ учатся понимать данные определенным образом, анализируя наборы данных, чтобы они могли делать прогнозы и распознавать шаблоны. Например, большие языковые модели были обучены путем "чтения" огромных объемов текста. Это означает, что когда инструменты ИИ, такие как ChatGPT, отвечают на ваши запросы, они могут "понимать", что вы говорите, и генерировать ответы, которые звучат как человеческий язык и соответствуют тому, о чем говорится в вашем запросе.

Обучение часто требует значительных ресурсов и вычислительных мощностей, и многие компании полагаются на мощные графические процессоры (GPU) для помощи в этом обучении. Модели ИИ могут быть обучены на различных типах данных, обычно в огромных количествах, таких как текст, изображения, музыка и видео. Это — логично — называется обучающими данными.

Параметры, коротко говоря, это переменные, которые модель ИИ изучает в процессе обучения. Лучшее описание того, что это на самом деле означает, я нашел у Хелен Тонер, директора по стратегии и фундаментальным исследовательским грантам в Центре безопасности и новых технологий Джорджтаунского университета и бывшего члена совета директоров OpenAI:

Параметры — это числа внутри модели ИИ, которые определяют, как входные данные (например, часть текста запроса) преобразуются в выходные данные (например, следующее слово после запроса). Процесс "обучения" модели ИИ состоит в использовании методов математической оптимизации для настройки значений параметров модели снова и снова, пока модель не станет очень хорошо преобразовывать входные данные в выходные.

Другими словами, параметры модели ИИ помогают определить ответы, которые они затем выдадут вам. Компании иногда хвастаются количеством параметров модели как способом продемонстрировать сложность этой модели.

Изображение: Хуго Дж. Эррера для The Verge
Изображение: Хуго Дж. Эррера для The Verge

Есть ли еще какие-нибудь термины, с которыми я могу столкнуться?

Обработка естественного языка (NLP): Способность машин понимать человеческий язык благодаря машинному обучению. ChatGPT от OpenAI является базовым примером: он может понимать ваши текстовые запросы и генерировать текст в ответ. Еще одним мощным инструментом, который может выполнять NLP, является технология распознавания речи Whisper от OpenAI, которую компания, как сообщается, использовала для транскрибирования аудио из более чем 1 миллиона часов видео на YouTube, чтобы помочь в обучении GPT-4.

Вывод: Когда приложение генеративного ИИ фактически что-то генерирует, например, когда ChatGPT отвечает на запрос о том, как приготовить шоколадное печенье, предоставляя рецепт. Это задача, которую ваш компьютер выполняет при выполнении локальных команд ИИ.

Токены: Токены относятся к фрагментам текста, таким как слова, части слов или даже отдельные символы. Например, LLM разбивают текст на токены, чтобы они могли анализировать их, определять, как токены связаны друг с другом, и генерировать ответы. Чем больше токенов модель может обработать одновременно (количество, известное как "контекстное окно"), тем более сложными могут быть результаты.

Нейронная сеть: Нейронная сеть — это компьютерная архитектура, которая помогает компьютерам обрабатывать данные, используя узлы, которые можно сравнить с нейронами человеческого мозга. Нейронные сети критически важны для популярных систем генеративного ИИ, потому что они могут научиться понимать сложные шаблоны без явного программирования — например, обучаясь на медицинских данных, чтобы быть способными ставить диагнозы.

Трансформер: Трансформер — это тип архитектуры нейронной сети, который использует механизм "внимания" для обработки того, как части последовательности связаны друг с другом. У Amazon есть хороший пример того, что это означает на практике:

Рассмотрим эту входную последовательность: "Какого цвета небо?" Модель трансформера использует внутреннее математическое представление, которое определяет релевантность и взаимосвязь между словами цвет, небо и синий. Она использует эти знания для генерации выходных данных: "Небо синее".

Трансформеры не только очень мощные, но и могут обучаться быстрее, чем другие типы нейронных сетей. С тех пор как бывшие сотрудники Google опубликовали первую статью о трансформерах в 2017 году, они стали огромной причиной того, почему мы сейчас так много говорим о технологиях генеративного ИИ. (Буква T в ChatGPT означает трансформер.)

RAG: Эта аббревиатура означает "генерация с дополнением извлечения" (retrieval-augmented generation). Когда модель ИИ что-то генерирует, RAG позволяет модели находить и добавлять контекст из источников за пределами того, на чем она была обучена, что может улучшить точность того, что она в конечном итоге генерирует.

Предположим, вы спрашиваете чат-бота с ИИ о чем-то, на что он, основываясь на своем обучении, на самом деле не знает ответа. Без RAG чат-бот может просто галлюцинировать неправильный ответ. Однако с RAG он может проверить внешние источники — например, другие сайты в интернете — и использовать эти данные для формирования своего ответа.

Изображение: Хуго Дж. Эррера для The Verge
Изображение: Хуго Дж. Эррера для The Verge

А как насчет оборудования? На чем работают системы ИИ?

Чип Nvidia H100: Один из самых популярных графических процессоров (GPU), используемых для обучения ИИ. Компании стремятся получить H100, потому что он считается лучшим в обработке рабочих нагрузок ИИ по сравнению с другими серверными чипами для ИИ. Однако, хотя чрезвычайный спрос на чипы Nvidia сделал ее одной из самых ценных компаний в мире, многие другие технологические компании разрабатывают собственные чипы для ИИ, что может подорвать господство Nvidia на рынке.

Нейронные процессоры (NPU): Специализированные процессоры в компьютерах, планшетах и смартфонах, которые могут выполнять вывод ИИ на вашем устройстве. (Apple использует термин "нейронный движок".) NPU могут быть более эффективными в выполнении многих задач, связанных с ИИ, на ваших устройствах (например, добавление размытия фона во время видеозвонка), чем CPU или GPU.

TOPS: Эта аббревиатура, которая расшифровывается как "триллион операций в секунду", является термином, который поставщики технологий используют для хвастовства о том, насколько их чипы способны выполнять вывод ИИ.

Изображение: Хуго Дж. Эррера для The Verge
Изображение: Хуго Дж. Эррера для The Verge

Так что же это за разные приложения ИИ, о которых я постоянно слышу?

Есть много компаний, которые стали лидерами в разработке ИИ и инструментов, основанных на ИИ. Некоторые из них — укоренившиеся технологические гиганты, но другие — более новые стартапы. Вот некоторые из игроков в этой сфере:

OpenAI / ChatGPT: Причина, по которой ИИ сейчас так важен, вероятно, благодаря ChatGPT, чат-боту с ИИ, который OpenAI выпустила в конце 2022 года. Взрывная популярность сервиса в значительной степени застала врасплох крупных технологических игроков, и теперь практически каждая другая технологическая компания пытается хвастаться своими достижениями в области ИИ.

Microsoft / Copilot: Microsoft встраивает Copilot, своего ИИ-ассистента, работающего на моделях GPT от OpenAI, в как можно большее количество продуктов. Технологический гигант из Сиэтла также имеет 49-процентную долю в OpenAI.

Google / Gemini: Google спешит внедрить Gemini, который относится как к ИИ-ассистенту компании, так и к различным вариациям ее моделей ИИ, в свои продукты.

Meta / Llama: Усилия Meta в области ИИ сосредоточены вокруг ее модели Llama (Large Language Model Meta AI), которая, в отличие от моделей других крупных технологических компаний, является открытым исходным кодом.

Apple / Apple Intelligence: Apple добавляет новые функции, ориентированные на ИИ, в свои продукты под баннером Apple Intelligence. Одна из больших новых функций — доступность ChatGPT прямо внутри Siri.

Anthropic / Claude: Anthropic — это компания, занимающаяся ИИ, основанная бывшими сотрудниками OpenAI, которая создает модели ИИ Claude. Amazon инвестировала в компанию 4 миллиарда долларов, в то время как Google инвестировала сотни миллионов (с потенциалом инвестировать еще 1,5 миллиарда долларов). Недавно она наняла соучредителя Instagram Майка Кригера на должность главного директора по продуктам.

xAI / Grok: Это компания Илона Маска, занимающаяся ИИ, которая создает Grok, LLM. Недавно она привлекла 6 миллиардов долларов финансирования.

Perplexity: Perplexity - еще одна компания, занимающаяся ИИ. Она известна своей поисковой системой на основе ИИ, которая подверглась критике из-за кажущихся сомнительными практик сбора данных.

Hugging Face: Платформа, которая служит каталогом для моделей ИИ и наборов данных.

Подписывайтесь на мой Телеграм-канал. Здесь еще больше полезностей из мира нейросетей и маркетинга.

11
1 комментарий

полезно кому то будет

1
Ответить