КАК РОБОТЫ НАЧИНАЮТ НАС ПОНИМАТЬ

Не прошло и месяца, после того, как вышла в свет GPT4, как самые шустрые разработчики начали прикручивать новую модель для коммуникации и управлению роботами. Давайте для начала разберемся с GPT и понятием больших языковых моделей.

Когда говорят о современных языковых моделях с миллиардами параметров, это действительно очень сложные системы машинного обучения. Они способны обрабатывать и понимать естественный язык на уровне, который раньше был недоступен.

Давайте сразу договоримся:

большие языковые модели (Large Language Models, LLM), такие как ChatGPT, это не искусственный интеллект в научно-фантастическом понимании. Они не обладают сознанием, не имеют понимания мира в том смысле, как понимает его человек. Эти модели - это сложные инструменты, которые могут имитировать человеческий язык, но их возможности и способности строго ограничены данными, на которых они были обучены, и алгоритмами, которые их поддерживают.

Большие языковые модели, обучаются на обширных наборах данных, содержащих разнообразные тексты - от новостных статей до литературы. Эти модели анализируют тексты, выявляя закономерности, смысловые связи и контекст. Если очень грубо, то большая языковая модель это очень плотно упакованный крутейшими алгоритмами, на основе нейросетей Интернет. Весь.

Плотность упаковки данных в большую языковую модель определяется параметрами, на которых велось обучение модели. В частности у GPT4 количество таких параметров 175 миллиардов, а у GPT3.5 - 6 миллиардов. Именно поэтому четвертая модель кажется умнее чем её предшественница. Эти дополнительные параметры позволяют GPT-4 лучше понимать нюансы естественного языка, генерировать более точные и связные ответы, а также эффективнее обрабатывать более сложные запросы.

Однако, важно понимать, что:

количество параметров не является единственным показателем 'умности' модели. Качество и разнообразие данных, на которых обучается модель, также играют ключевую роль. Если обучающие данные ограничены или предвзяты, даже самая большая модель не сможет дать качественные результаты. Поэтому процесс подготовки и выбора данных для обучения языковых моделей является критически важным аспектом в разработке ИИ.

Также важно отметить, что большие языковые модели, такие как GPT-4, создают ответы, опираясь на обучающие данные, но они не 'понимают' информацию так, как это делает человек. Они не обладают собственным мнением, чувствами или осознанием. Их 'знания' ограничены информацией, которая была доступна во время обучения, и они не способны к самостоятельному обучению или изменению своих знаний без внешнего вмешательства.

Кроме того, несмотря на свои впечатляющие возможности, большие языковые модели подвержены ошибкам и могут генерировать неточные, предвзятые или даже нелепые ответы. Это делает их использование в критически важных областях, где требуется абсолютная точность и надежность, предметом серьезного внимания и дополнительных исследований.

И всё же, как мы могли заметить в этом году, разработчики роботов охотно прикручивают большие языковые модели, в частности GPT4, к своим роботам и получают в результате не просто запрограммированного ловкого трюкача, а говорящую собаку, например. Или, как в этом видео, роботу дают задачу притвориться призраком, а встроенный в него GPT4 интерпретирует эту команду и создаёт последовательнсть движений для робота.

Именно благодаря большим языковым моделям, у нас появляется возможность коммуницировать с роботами привычным нам способом, а не при помощи кода для управления отдельными действиями. И это работает в обе стороны - именно таким образом у роботов появляется человеческий язык.

И если до этого концепция Intelligence as a Service, которая великолепно заходит в роботов и бытовую технику, была ограничена долгим ответом от сервера, то уже в этом году мы видим как появляются LLM, которые спокойно работают на локальном компьютере в режиме реального времени.

То чувство, когда совсем скоро можно будет поговорить по душам со своим роботом-пылесосом, пока он занимается наведением порядка.

Начать дискуссию