ИИ и гибель человечества. Риски искусственного интеллекта

Сегодня мы стоим на пороге появления общего искусственного интеллекта (Artificial General Intelligence, AGI). Эксперты по ИИ отличают AGI от ASI – Artificial Super Intelligence, «искусственного сверхинтеллекта».

Новый выпуск шоу «Мастриды»

Если общий ИИ (AGI) – это интеллект, сравнимый по своим возможностям с человеческим, то для сверхинтеллекта, ASI, наши способности будут смехотворными. Пропасть такая же, как между мозгом какого-нибудь маленького насекомого и человеческим. Причём скачок от общего ИИ к сверхинтеллекту может произойти практически мгновенно.

Есть такой сайт Metaculus, на котором эксперты голосуют за вероятность того, что то или иное событие произойдёт в том или ином месяце или году, и оценивает вероятности. За последний год средняя прогнозируемая дата появления AGI — общего искусственного интеллекта — на Метакулусе упала аж до 2026 года! Уже через 3 года! Раньше средняя цифра была 2036, но с последними прорывами в сфере нейросетей эксперты скорректировали свои прогнозы.

К сожалению, многие эксперты сегодня приходят к выводу о том, что момент появления общего ИИ может привести к гибели человеческой цивилизации.

Причём это не значит, что ИИ ненавидит людей - нет, главная причина в том, что мы сделаны из атомов, которые ИИ может использовать для других целей. Никакой разницы между людьми и амёбами или всей Землёй для ИИ нет — это белки, из них можно сделать больше наномашин или использовать для сферы Дайсона.

Посмотрите новый ролик, в котором подробнее разбирается эта концепция, аргументы за и против.

77
2 комментария

Единственная угроза для человечества это повсеместное использование некачественных текстов и картинок в стиле фентези и стимпанк, от которых уже и так блевать тянет.

2
Ответить

Иногда мне кажется, что я чего-то не знаю, вдруг это очень важно. Но после прочтения такого текста возникает только одна мысль: "Автор, отсыпь и мне".

1
Ответить