Форум для программистов Stack Overflow временно запретил публиковать ответы, сгенерированные через ИИ-бота от OpenAI Статьи редакции

Многие из них походили на правдивые, но часто оказывались неправильными и «вредили» тем самым сайту и пользователям, сообщила компания.

  • Количество таких советов исчислялось тысячами. Окончательное решение платформа примет после внутренних обсуждений, а также разговора с сообществом форума.
  • ChatGPT — чат-бот на основе нейросети GPT-3.5 от разработчиков OpenAI. Демоверсию инструмента опубликовали 1 декабря 2022 года: можно попросить ИИ написать песню, предложить идеи для празднования дня рождения, рассказать, как составить HTTP-запрос на Javascript, или найти ошибки в коде.
  • Часть пользователей заметила, что ИИ выдаёт «удовлетворительные, но неверные ответы», пишет The Verge. Да, языковые модели обучают на больших объёмах текстов, тренируют их искать в них статистические закономерности. Но им не дают «жёстких правил» генерации, поэтому, по словам издания, нейросеть нередко и «выдаёт правдоподобную ахинею».
  • Читатели Stack Overflow и новостного агрегатора Hacker News позитивно отреагировали на запрет форума. Но предположили, что в случае отмены запрета модераторам всё равно будет трудно отличать пользовательские советы от тех, что сгенерировала нейросеть. Сама компания не уточняла, как может это делать.
  • В июне 2022 года GitHub открыла доступ к своему ИИ-сервису Copilot — это «напарник программиста»: он просматривает код, комментарии к нему и расположение курсора, а затем предлагает добавить одну или несколько строк в зависимости от контекста. С помощью этого инструмента GitHub написала треть кода своей платформы.
0
58 комментариев
Написать комментарий...
Andrey Tikhonov

По-моему, они просто боятся конкуренции. И не зря - я тоже долго залипал в чатгпт, смотрел и чужие результаты, и инструмент реально мощный. И рабочий код напишет, и историю придумает, и сложные концепции умеет объяснять, я уже молчу о банальной генерации текста для сайтов.

Но, конечно, нет пока 100% точности, где-то он будет ошибаться или выдавать "неправильный" ответ. Я, например, лично "разводил" его на методы борьбы против государства (в том числе насильственные) и легкие анти-ЛГБТ высказывания.

Ответить
Развернуть ветку
Valentin Budaev

Проблема в том что все более-менее нормально работает только на простых вопросах - по сути это то же самое что просто сделать запрос в гугле, сама нейросет ьже на таких результатах и училась. А вот на чем-то более специфичном она часто ошибается.

Ответить
Развернуть ветку
55 комментариев
Раскрывать всегда