{"id":14277,"url":"\/distributions\/14277\/click?bit=1&hash=17ce698c744183890278e5e72fb5473eaa8dd0a28fac1d357bd91d8537b18c22","title":"\u041e\u0446\u0438\u0444\u0440\u043e\u0432\u0430\u0442\u044c \u043b\u0438\u0442\u0440\u044b \u0431\u0435\u043d\u0437\u0438\u043d\u0430 \u0438\u043b\u0438 \u0437\u043e\u043b\u043e\u0442\u044b\u0435 \u0443\u043a\u0440\u0430\u0448\u0435\u043d\u0438\u044f","buttonText":"\u041a\u0430\u043a?","imageUuid":"771ad34a-9f50-5b0b-bc84-204d36a20025"}

Как запустить Llama 3 в Visual Studio Code на своем компьютере - пошаговое руководство

Недавно компания Meta* выпустила самую мощную языковую модель с открытым исходным кодом, Llama 3. Поскольку она с открытым исходным кодом, вы можете скачать веса модели и запустить их локально на своей машине.

Я знаю, я знаю. Идея запустить модель искусственного интеллекта с 8 миллиардами параметров на своем ноутбуке может показаться несложной только для технически подкованных людей. Но не волнуйтесь! В этой статье - пошаговое руководство, с помощью которого это сможет сделать каждый.

Еще больше полезностей - в моем телеграм-канале про нейросети и канале про генерацию изображений Миджорниум.

Необходимые условия

Прежде чем приступить к выполнению шагов, важно отметить характеристики среды, в которой я сейчас работаю:

  • Ноутбук: Lenovo ThinkPad X1 Extreme
  • ОС: Windows 11 Pro Version 10.0.22631 Build 22631
  • CPU: Процессор Intel(R) Core(TM) i7-9850H
  • RAM: 32 ГБ
  • Дисковое пространство: 642 ГБ

Именно так! Чтобы запустить модель локально, вам не нужен высококлассный графический процессор. При наличии приличного процессора и достаточного количества оперативной памяти вы сможете запустить Llama 3 на своем компьютере без каких-либо проблем.

Шаг 1: Скачайте и установите Ollama

Перейдите на сайт Ollama и загрузите последнюю версию программы установки. Ollama - это универсальный инструмент, предназначенный для запуска, создания и совместного использования больших языковых моделей (LLM) локально на различных платформах.

После установки Ollama убедитесь, что она работает в фоновом режиме. Вы можете проверить это, обнаружив значок Ollama в системном трее или диспетчере задач.

Чтобы убедиться, что Ollama работает правильно в интерфейсе командной строки (CLI), выполните следующую команду для проверки версии. Текущая версия, которую я использую, - 0.1.32, поэтому у вас она может отличаться.

> ollama -v

ollama version is 0.1.32

Шаг 2: Установите расширение CodeGPT в VS Code

Далее откройте Visual Studio Code и перейдите на вкладку расширений. Найдите "CodeGPT" на сайте codegpt.co и установите расширение. Это расширение позволит вам использовать Llama 3 непосредственно в VS Code.

После установки расширения вы должны увидеть значок CodeGPT на левой боковой панели VS Code.

Шаг 3: Загрузите модель

Откройте терминал в VS Code и выполните следующую команду, чтобы загрузить модель Llama 3:

ollama pull llama3:8b

Это может занять некоторое время, поскольку размер модели превышает 4 ГБ. Наберитесь терпения и дайте процессу завершиться. После завершения вы должны увидеть сообщение об успехе, как показано на рисунке:

Шаг 4: Выберите модель Llama 3

На панели инструментов CodeGPT в левой панели VS Code найдите выпадающее меню Provider и выберите Ollama. Затем в выпадающем списке моделей выберите "Llama3:8b". Если модель не отображается в списке, вы также можете ввести "Llama3:8b" вручную.

Убедитесь, что выбрали правильную модель, чтобы CodeGPT использовал Llama 3 для генерации ответов.

Шаг 5: Запустите Llama 3 на VS Code

Теперь, когда мы загрузили модель и установили CodeGPT на VS Code, давайте проверим, все ли работает правильно, и напишем тестовый промпт.

Потрясающе! Это работает. Теперь давайте используем модель для объяснения исходного кода. Напишите или откройте любой файл исходного кода в VS Code. Щелкните правой кнопкой мыши на файле и выберите "CodeGPT: Explain CodeGPT", чтобы попросить ИИ объяснить исходный код.

Обратите внимание, что код передается в панель CodeGPT в качестве ввода промпта. ИИ анализирует код и дает его подробное объяснение.

Это очень здорово, потому что вам больше не придется копировать и вставлять блоки кода в ChatGPT или другие чат-боты за пределами VS Code. Кроме того, он совершенно бесплатен и работает локально на вашей машине, так что вам не нужно беспокоиться о стоимости API или подключении к интернету.

Вот и все пошаговое руководство о том, как запустить Llama 3 в Visual Studio Code. Надеюсь, это руководство оказалось полезным и простым. Запуск мощных языковых моделей локально на собственном компьютере - не такая уж сложная задача, как может показаться на первый взгляд.

Если вы хотите узнать больше способов запуска языковых моделей с открытым исходным кодом на локальной машине, например, с помощью CLI, LM Studio или других инструментов, сообщите мне об этом в комментариях ниже. Я буду рад поделиться с вами советами и рекомендациями, которые помогут вам получить максимальную пользу от этих невероятных моделей ИИ.

Еще больше полезностей - в моем телеграм-канале про нейросети и канале про генерацию изображений Миджорниум.

*Meta признана экстемистской организацией на территории РФ.

Источник статьи на английском - здесь.

0
12 комментариев
Написать комментарий...
Артём Пешков

Если я уже пользуюсь плагином Codeium в вс коде, то есть смысл ставить ламу? Чем она будет лучше?

Ответить
Развернуть ветку
Neuromarket (Алексей)
Автор

Про Codeium не знаю, не пробовал, но llama - довольно мощная модель.

Ответить
Развернуть ветку
Дмитрий Жучков

Бесплатная отличная штука, пока ей пользуюсь и радуюсь. Есть и диалог автодополнение и т.д. есть и платная версия, там gpt4 вроде тогда используется еще. И главное быстрая и не требует 32гб оперативки, на 16 llama3 тормозит уже (

Ответить
Развернуть ветку
Дмитрий Жучков

Есть еще расширение Continue, оно тоже под VSCode и JetBrains, вроде там тоже уже Llama3 есть

Ответить
Развернуть ветку
Neuromarket (Алексей)
Автор

Спасибо за информацию, Дмитрий!

Ответить
Развернуть ветку
Вадим Чиняев

туда же https://pieces.app

Ответить
Развернуть ветку
Neuromarket (Алексей)
Автор

Но это же не установка на ПК? Или я не прав?

Ответить
Развернуть ветку
Вадим Чиняев

установка - локальный сервер, потом его дергает плагин (ы) от vscode и тп. Можно выбрать модельку - онлайн или офлайн

Ответить
Развернуть ветку
Эфир Монеров

Хоть что-то разумное и полезное на этом wc

Ответить
Развернуть ветку
Neuromarket (Алексей)
Автор

Спасибо, стараюсь )

Ответить
Развернуть ветку
Вадим

А как, локально, на андроид закинуть модель ИИ?)

Ответить
Развернуть ветку
Neuromarket (Алексей)
Автор

Думаю, никак )

Ответить
Развернуть ветку
9 комментариев
Раскрывать всегда