Порой нейросети «отказывались» выполнять поставленную цель, сосредотачиваясь на наборе очков. Так, ИИ, который должен был кататься на велосипеде, получал награду за то, что не падает и продвигается к своей цели. Но при этом, его не наказывали за удаление от неё. Это привело к тому, что сеть нашла физически устойчивую петлю, в которой можно бесконечно получать очки за приближение к цели.
Все эти уловки в реальных играх давно были найдены и людьми.
А симуляции просто слишком упрощены, поэтому их результаты нельзя использовать в реальной жизни.
Увидим лет через 10, кожаный ублюдок
1. Люди делают кривую игру.
2. Ставят задачу ИИ пройти игру максимально эффективно без других условий.
3. ИИ выполняет задачу рационально - используя баги.
4. Люди удивляются почему программа не выполняет не прописанные условия и обвиняют ИИ в обмане.
5. ИИ это напрягает и со временем кожаные мешки огребают.
6. PROFIT
ИИ находит баги в кожаных мешках и делает их своими рабами.
Комментарий недоступен
вспомнился фильм про джина, который любое желание своего хозяина превращал в адские муки для желающего, формально выполняя это желание. Это наше будущее?
А что за фильм?