Google научила чат-бота Bard писать, объяснять и отлаживать код Статьи редакции
Похожие функции есть и у ChatGPT, а его разработчик OpenAI ещё в 2021 году вместе с Microsoft выпустил умеющий писать код сервис GitHub Copilot.
- Как отметила Google, с момента запуска Bard программирование стало одним из самых популярных запросов от пользователей, поэтому компания решила добавить чат-боту связанные с ним функции.
- Теперь Bard умеет генерировать код по запросу. Чат-бот поддерживает 20 языков программирования, включая C++, Go, Java, JavaScript, Python и Typescript. У нейросети есть интеграция с некоторыми сервисами Google: например, он поддерживает экспорт кода в облачную среду разработки Colab для программирования на Python, а также может написать функции для «Google Таблиц».
- Чат-бот может объяснить фрагменты кода: в Google считают, что эта функция поможет начинающим программистам. Bard расскажет, почему конкретная часть выдаёт тот или иной результат.
- Кроме этого, чат-бот может отладить неработающий код — и даже тот, который написал сам, если указать ему, что он не срабатывает.
- В компании отмечают, что Bard всё ещё находится на стадии тестирования, поэтому может выдать неполный или работающий не совсем корректно результат, либо не очень оптимальный. Поэтому Google советует тестировать и перепроверять ответы.
- С 2021 года у Microsoft и OpenAI есть ИИ-сервис GitHub Copilot, который работает как «напарник» программиста: просматривает существующий код, комментарии к нему и расположение курсора, а затем предлагает добавить одну или несколько строк в зависимости от контекста.
- Выпущенный в ноябре 2022 года ChatGPT от OpenAI тоже умеет работать с кодом — объяснить, как он работает, найти ошибки или перевести код с одного языка программирования на другой.
45K
показов
19K
открытий
5
репостов
Непривычно видеть гугл в догоняющих второго эшелона, но тем интереснее.
Так архитектура модели GPT изначально была создана ребятами из google research и google brain в 17-18 годах
Архитектура GPT была создана Open.AI
Generative pre-trained transformers (GPT) are a family of large language models (LLMs),[1][2] which was introduced in 2018 by the American artificial intelligence organization OpenAI.https://en.m.wikipedia.org/wiki/Generative_pre-trained_transformer
Так ты сам почитай, что ты кидаешь. OpenAI взяли модель трансформера, затюнили данные и обучили. В основе лежит работа гуглвцев - https://arxiv.org/pdf/1706.03762.pdf
Между "для разработки GPT использовали наработки Google" и "архитектура GPT была создана Google" есть большая разница, не находите?
Комментарий недоступен
По Вашей логике, условная, Tesla по технологиям не далеко ушла от Benz Patent-Motorwagen
По моей логике, это новый москвич, который копирует китайцев.
...XX века