Спросил саму LLama 3 как ее можно обучить, все подробно рассказала и дала пример кода на python.
p.s. Сервис Ollama, в другом сообщении ошибка
Вот как раз закончил такую же штуку для облачной б24 :) поздравляю, решение и правда хорошее
Спасибо за развернутый ответ, потестирую
Как раз планирую S3 сделать там, подскажите, а что за нестабильность? На облачной mysql?
4 постоянных аккаунта, на каждом несколько серверов, облачные rabbitmq, mysql и тд, больше 3 лет ни одной проблемы, даже когда их ддосили в прошлом году, все неплохо работало. Больше 30 аккаунтов клиентов с различными сервисами, проблем нет. В неделю 1-2+ сервера добавляются сейчас для клиентов, тоже без нареканий. ТП отвечает в течении 15 минут, решение каких-то мелких проблем до пары часов.
Видимо вам просто не повезло...думаю такое может быть в любой компании
Спасибо!!!! chatbox это то, чего не хватало. Терминал тоже удобно, но тут как-то даже приятнее
Бесплатная отличная штука, пока ей пользуюсь и радуюсь. Есть и диалог автодополнение и т.д. есть и платная версия, там gpt4 вроде тогда используется еще. И главное быстрая и не требует 32гб оперативки, на 16 llama3 тормозит уже (
Вот самое интересное, можно ли ее обучить например на базе вопросов/ответов компании. Есть вообще такая возможность? И если да, то как
p.s. кому интересно, ее легко можно поставить к себе на комп через olama (введите в поиске, там все просто)
Вот самое интересное, можно ли ее обучить например на базе вопросов/ответов компании. Есть вообще такая возможность? И если да, то как
Дмитрий Жучков
Есть еще расширение Continue, оно тоже под VSCode и JetBrains, вроде там тоже уже Llama3 есть