В этой статье мы разберем новые удивительные способности последней языковой модели из семейства GPT (от понимания мемов до программирования), немного покопаемся у нее под капотом, а также попробуем понять – насколько близко искусственный интеллект подошел к черте его безопасного применения?
Нужны "3 закона нейросетей" (отсылка к Азимову).
У Азимова их было 4. В его более поздних сочинениях один робот открыл четвертый (Нулевой) закон. Он такой же как первый, только там про все человечество. В итоге получалось, что если ради блага человечества в целом нужно было убить человека - робот мог спокойно это сделать. Цель оправдывает средства.
В одной из повестей также содержался и бэкдор для обхода этих законов: можно было сказать роботу, что это существо - не человек, а только выглядит человеком, но на самом деле это робот, поэтому убей его по моему приказу. И роботы убивали.
Я бы сильно не полагался на законы Азимова. Военные естественно придут на их отключение, тк война предполагает участие роботов в убийстве.
Эй, гпт, подскажи способ суицыда