Искусственный интеллект это сложно? - Вот вам шпаргалка!

Если вы не видите разницы между AGI и RAG, не волнуйтесь! Мы поможем вам.

Искусственный интеллект это сложно? - Вот вам шпаргалка!

Искусственный интеллект - это горячая новинка в сфере технологий. Кажется, что каждая компания говорит о том, как она добивается успехов, используя или развивая ИИ. Однако область искусственного интеллекта настолько насыщена жаргоном, что понять, что же на самом деле происходит с каждой новой разработкой, бывает очень сложно.

Чтобы помочь вам лучше понять, что происходит, мы составили список наиболее распространенных терминов ИИ. Мы постараемся объяснить, что они означают и почему важны.

Еще больше полезностей в моем Телеграмм-канале про нейросети

Что такое искусственный интеллект?

Искусственный интеллект: Термин «искусственный интеллект», часто сокращаемый до ИИ, технически является дисциплиной компьютерной науки, которая занимается созданием компьютерных систем, способных думать как человек.

Но сейчас мы слышим об искусственном интеллекте в основном как о технологии или даже как о сущности, а что именно это значит, определить сложнее. Кроме того, его часто используют как маркетинговое «жужжащее» слово, что делает его определение более изменчивым, чем оно должно быть.

Например, Google много говорит о том, что уже много лет инвестирует в ИИ. Это относится к тому, что многие ее продукты улучшены с помощью искусственного интеллекта, а также к тому, что компания предлагает такие инструменты, как Gemini, которые кажутся интеллектуальными. Есть и базовые модели ИИ, на которых основаны многие инструменты ИИ, например GPT от OpenAI. А еще есть генеральный директор Meta Марк Цукерберг, который использовал AI как существительное для обозначения отдельных чат-ботов.

По мере того как все больше компаний пытаются представить искусственный интеллект в качестве следующей большой вещи, способы использования этого термина и другой связанной с ним номенклатуры могут стать еще более запутанными. В статьях и маркетинговых материалах, посвященных искусственному интеллекту, вы можете встретить множество фраз, поэтому, чтобы помочь вам лучше понять их, я подготовил обзор многих ключевых терминов в области искусственного интеллекта, которые сейчас используются. Однако в конечном итоге все сводится к попыткам сделать компьютеры умнее.

(Обратите внимание, что я даю лишь приблизительный обзор многих из этих терминов. Многие из них часто могут быть очень научными, но эта статья, надеюсь, даст вам представление об их основах).

Машинное обучение: Системы машинного обучения обучаются (подробнее о том, что такое обучение, мы расскажем позже) на данных, чтобы они могли делать прогнозы относительно новой информации. Таким образом, они могут «учиться». Машинное обучение является областью искусственного интеллекта и имеет решающее значение для многих технологий ИИ.Искусственный интеллект общего назначения (ИИОН): Искусственный интеллект, который по уровню интеллекта превосходит человека. (Это может стать невероятно мощной технологией, но для многих людей это также потенциально самая пугающая перспектива в отношении возможностей ИИ - вспомните все фильмы о сверхразумных машинах, захвативших мир! Если этого недостаточно, то сейчас также ведутся работы над «сверхразумом», или ИИ, который намного умнее человека.

Генеративный ИИ: технология ИИ, способная генерировать новый текст, изображения, код и многое другое. Вспомните все интересные (хотя иногда и проблематичные) ответы и изображения, которые вы видели в ChatGPT или Gemini от Google. Генеративные инструменты ИИ работают на основе моделей ИИ, которые обычно обучаются на огромном количестве данных.

Галлюцинации: Нет, мы не говорим о странных видениях. Дело в следующем: поскольку инструменты генеративного ИИ хороши лишь настолько, насколько хороши данные, на которых они обучены, они могут «галлюцинировать» или уверенно придумывать то, что, по их мнению, является наилучшими ответами на вопросы. Эти галлюцинации (или, если быть до конца честным, бред) означают, что системы могут допускать фактические ошибки или давать тарабарские ответы. Существуют даже некоторые споры о том, можно ли когда-нибудь «исправить» галлюцинации ИИ.

Предвзятость: Галлюцинации - не единственная проблема, возникающая при работе с ИИ, и эта проблема могла быть предсказана, поскольку ИИ, в конце концов, программируются людьми. В результате, в зависимости от обучающих данных, инструменты ИИ могут демонстрировать предвзятость. Например, в 2018 году Джой Буоламвини, специалист по информатике из MIT Media Lab, и Тимнит Гебру, основатель и исполнительный директор Distributed Artificial Intelligence Research Institute (DAIR), в соавторстве опубликовали работу, в которой показали, что программы распознавания лиц имеют более высокий процент ошибок при попытке определить пол темнокожих женщин.

Искусственный интеллект это сложно? - Вот вам шпаргалка!

Еще больше полезностей в моем Телеграмм-канале про нейросети

Я постоянно слышу разговоры о моделях. Что это такое?

Модель ИИ: Модели ИИ обучаются на данных, чтобы они могли самостоятельно выполнять задачи или принимать решения.
Большие языковые модели, или LLM: Тип модели ИИ, которая может обрабатывать и генерировать текст на естественном языке. Клод от Anthropic, который, по словам компании, является «полезным, честным и безобидным помощником с разговорным тоном», - пример LLM.

Диффузионные модели: Модели ИИ, которые можно использовать, например, для создания изображений по текстовым подсказкам. Они обучаются путем добавления к изображению шума (например, статического), а затем обратного процесса, чтобы ИИ научился создавать четкое изображение. Существуют также диффузионные модели, которые работают с аудио и видео.

Базовые модели: Эти генеративные модели ИИ обучаются на огромном количестве данных и, как следствие, могут стать основой для широкого спектра приложений без специального обучения для этих задач. (Термин был введен исследователями Стэнфорда в 2021 г.) Примерами базовых моделей являются GPT от OpenAI, Gemini от Google, Llama от Meta и Claude от Anthropic. Многие компании также рекламируют свои модели ИИ как мультимодальные, что означает, что они могут обрабатывать несколько типов данных, таких как текст, изображения и видео.

Пограничные модели: В дополнение к базовым моделям компании, занимающиеся разработкой ИИ, работают над так называемыми «пограничными моделями», что, по сути, является маркетинговым термином для обозначения еще не выпущенных будущих моделей. Теоретически эти модели могут быть гораздо более мощными, чем существующие сегодня модели ИИ, но есть и опасения, что они могут представлять значительный риск.

Искусственный интеллект это сложно? - Вот вам шпаргалка!

Еще больше полезностей в моем Телеграмм-канале про нейросети

Но как модели искусственного интеллекта получают всю эту информацию?

Их обучают. Обучение - это процесс, в ходе которого модели ИИ учатся понимать данные определенным образом, анализируя наборы данных, чтобы делать прогнозы и распознавать закономерности. Например, большие языковые модели обучаются путем «чтения» огромных объемов текста. Это означает, что когда инструменты искусственного интеллекта, такие как ChatGPT, отвечают на ваши запросы, они могут «понимать», что вы говорите, и генерировать ответы, которые звучат как человеческий язык и отвечают на ваш запрос.

Обучение часто требует значительных ресурсов и вычислительных мощностей, и многие компании используют мощные графические процессоры, чтобы помочь в этом обучении. Модели ИИ могут получать различные типы данных, как правило, в огромных количествах, например текст, изображения, музыку и видео. Это, что вполне логично, называется обучающими данными.

Параметры, проще говоря, - это переменные, которые модель ИИ изучает в процессе обучения. Лучшее описание того, что это значит, я нашел у Хелен Тонер, директора по стратегии и грантам на фундаментальные исследования в Джорджтаунском центре безопасности и новых технологий и бывшего члена совета директоров OpenAI:

Параметры - это числа в модели искусственного интеллекта, которые определяют, как входной сигнал (например, фрагмент текста с подсказкой) преобразуется в выходной (например, следующее слово после подсказки). Процесс «обучения» модели искусственного интеллекта заключается в использовании методов математической оптимизации для изменения значений параметров модели снова и снова, пока модель не станет очень хорошо преобразовывать входные данные в выходные.

Хелен Тонер

Другими словами, параметры модели искусственного интеллекта помогают определить ответы, которые она затем выдаст вам. Компании иногда хвастаются количеством параметров модели, чтобы продемонстрировать ее сложность.

Искусственный интеллект это сложно? - Вот вам шпаргалка!

Еще больше полезностей в моем Телеграмм-канале про нейросети

Есть ли другие термины, с которыми я могу столкнуться?

Обработка естественного языка (NLP): Способность машин понимать человеческий язык благодаря машинному обучению. В качестве базового примера можно привести ChatGPT от OpenAI: он может понимать ваши текстовые запросы и генерировать текст в ответ. Другим мощным инструментом, способным выполнять NLP, является технология распознавания речи Whisper от OpenAI, которую компания, как сообщается, использовала для расшифровки аудиозаписей из более чем 1 миллиона часов видео на YouTube, чтобы помочь обучить GPT-4.

Выводы: Когда генеративное приложение ИИ действительно что-то генерирует, например ChatGPT в ответ на запрос о том, как приготовить шоколадное печенье, выдает рецепт. Это задача, которую выполняет ваш компьютер, когда вы выполняете локальные команды ИИ.

Токены: Токены относятся к фрагментам текста, таким как слова, части слов или даже отдельные символы. Например, LLM разбивают текст на лексемы, чтобы проанализировать их, определить, как лексемы связаны друг с другом, и сгенерировать ответы. Чем больше лексем модель может обработать за один раз (эта величина известна как «контекстное окно»), тем более сложные результаты она может получить.

Нейронная сеть: Нейронная сеть - это компьютерная архитектура, которая помогает компьютерам обрабатывать данные с помощью узлов, которые можно сравнить с нейронами человеческого мозга. Нейронные сети играют важную роль в популярных системах генеративного ИИ, поскольку они могут научиться понимать сложные закономерности без явного программирования - например, обучаться на медицинских данных, чтобы уметь ставить диагнозы.

Трансформатор: Трансформатор - это тип архитектуры нейронной сети, которая использует механизм «внимания» для обработки того, как части последовательности соотносятся друг с другом. В Amazon есть хороший пример того, что это значит на практике:

Рассмотрим такую последовательность входных данных: «Какого цвета небо?». Модель трансформатора использует внутреннее математическое представление, которое определяет релевантность и взаимосвязь между словами «цвет», «небо» и «синий». Она использует эти знания для создания вывода: «Небо голубое».

Трансформаторы не только очень мощные, но и могут обучаться быстрее, чем другие типы нейронных сетей. С тех пор как бывшие сотрудники Google опубликовали первую работу о трансформаторах в 2017 году, они стали одной из главных причин, почему мы так много говорим о генеративных технологиях ИИ. (Буква «Т» в ChatGPT означает трансформатор).

RAG: эта аббревиатура расшифровывается как «генерация с расширением поиска». Когда модель ИИ что-то генерирует, RAG позволяет ей найти и добавить контекст, выходящий за рамки того, на чем она обучалась, что может повысить точность того, что она в итоге генерирует.

Допустим, вы спрашиваете чат-бота с искусственным интеллектом о чем-то, на что, исходя из его обучения, он на самом деле не знает ответа. Без RAG чат-бот может просто галлюцинировать неправильный ответ. Однако с RAG он может проверить внешние источники - например, другие сайты в Интернете - и использовать эти данные для обоснования своего ответа.

Искусственный интеллект это сложно? - Вот вам шпаргалка!

Еще больше полезностей в моем Телеграмм-канале про нейросети

Как насчет аппаратного обеспечения? На чем работают системы искусственного интеллекта?

Чип H100 компании Nvidia: Один из самых популярных графических процессоров, используемых для обучения ИИ. Компании стремятся приобрести H100, поскольку он считается лучшим в обработке рабочих нагрузок ИИ по сравнению с другими чипами серверного класса. Однако, несмотря на то что необычайный спрос на чипы Nvidia сделал ее одной из самых дорогих компаний в мире, многие другие технологические компании разрабатывают свои собственные чипы ИИ, что может подорвать позиции Nvidia на рынке.

Нейронные процессоры (NPU): Специализированные процессоры в компьютерах, планшетах и смартфонах, которые могут выполнять выводы ИИ на вашем устройстве. (Apple использует термин «нейронный движок»). NPU могут быть более эффективными при выполнении многих задач с использованием ИИ на ваших устройствах (например, добавление фонового размытия во время видеозвонка), чем CPU или GPU.

TOPS: Эта аббревиатура, расшифровывающаяся как «триллион операций в секунду», используется производителями техники, чтобы похвастаться тем, насколько их чипы способны делать выводы на основе ИИ.

Искусственный интеллект это сложно? - Вот вам шпаргалка!

Еще больше полезностей в моем Телеграмм-канале про нейросети

Так что же это за различные приложения с искусственным интеллектом, о которых я постоянно слышу?

Существует множество компаний, которые стали лидерами в разработке искусственного интеллекта и инструментов, работающих на его основе. Некоторые из них являются признанными технологическими гигантами, а другие - новыми стартапами. Вот несколько из них:

  • OpenAI / ChatGPT: Причина, по которой искусственный интеллект сейчас так важен, вероятно, кроется в ChatGPT, чат-боте с искусственным интеллектом, который OpenAI выпустила в конце 2022 года. Взрывная популярность сервиса в значительной степени застала крупных технологических игроков врасплох, и теперь практически каждая другая технологическая компания пытается похвастаться своим мастерством в области ИИ.
  • Microsoft / Copilot: Microsoft внедряет Copilot, своего ИИ-помощника на базе моделей GPT от OpenAI, в максимальное количество продуктов. Технологический гигант из Сиэтла также владеет 49-процентной долей в OpenAI.
  • Google / Gemini: Google стремится оснастить свои продукты Gemini, что относится как к ИИ-ассистенту компании, так и к различным вариантам моделей ИИ.
  • Meta / Llama: усилия Meta в области ИИ сосредоточены вокруг модели Llama (Large Language Model Meta AI), которая, в отличие от моделей других крупных технологических компаний, имеет открытый исходный код.
  • Apple / Apple Intelligence: Apple добавляет в свои продукты новые функции, ориентированные на ИИ, под вывеской Apple Intelligence. Одной из главных новых функций является наличие ChatGPT прямо в Siri.
  • Anthropic / Claude: Anthropic - это компания, основанная бывшими сотрудниками OpenAI, которая занимается созданием моделей ИИ Claude. Amazon вложила в компанию 4 миллиарда долларов, а Google - сотни миллионов (с возможностью вложить еще 1,5 миллиарда долларов). Недавно компания наняла соучредителя Instagram Майка Кригера в качестве главного директора по продуктам.
  • xAI / Grok: Это компания Илона Маска, занимающаяся искусственным интеллектом, которая производит Grok, LLM. Недавно она привлекла финансирование в размере 6 миллиардов долларов.
  • Perplexity: Perplexity - еще одна компания, занимающаяся разработкой искусственного интеллекта. Она известна своей поисковой системой на основе искусственного интеллекта, которая попала под пристальное внимание за, казалось бы, нечестные методы поиска.
  • Hugging Face: Платформа, которая служит каталогом для моделей и наборов данных ИИ.

Подписывайтесь на наш Телеграмм-канал чтобы быть в курсе последних новостей и событий, а так же получайте список нейросетей на все случаи жизни:

22
3 комментария

на самом деле чтобы пользоваться не обязательно понимать как это работает