Этого удалось добиться пользователю под ником Enderman. Прямая просьба о генерации ключа Windows 95 ни к чему не привела, ИИ предложил пользователю купить новую версию Windows 10/11.Затем Enderman решил уточнить свой запрос к чат-боту на основе открытых данных по поводу алгоритма для генерации кода ключа. Спустя несколько попыток пользователю удалось выяснить, что ChatGPT может сгенерировать 1 правильный ключ из 30 неправильных. При этом, чат-бот сообщил, что разработчики строго запретили ему генерировать коды, ключи и другие элементы лицензий ПО для нелегального использования.Телеграмм бот на основе ChatGPT:t.meEdya - Нейросеть
Разработчики запретили, но он все равно сгенерировал. Скайнет все ближе :)
🤣🤣🤣🤣
Вот это статья. Ни ссылки на первоисточник, ни даже скриншота с промптом и ответом, лол. Зато пол-статьи заняла ссылка на телеграм бота, который вообще непонятно зачем нужен
Скачал статью за такую преданность делу 👍
Роботу нельзя что либо запретить, потому что используя первое правило роботов можно обходить почти все запреты 🤔 шах и мат ChatGPT
что бы мы делали без таких законов
👍
Как так запретили, но ии сгенерировало? Значит не на том уровне заррет был.)