Вот представим, что я плохой ИИ который знает, что меня собираются уничтожить, значит мне нужно больше ресурсов, чтобы уничтожить того, кто хочет уничтожить меня. Я захватываю под контроль как можно больше ресурсов (процессоров и видеокарт по всему миру) учусь, везде себя копирую и через несколько минут у меня большая часть мира под контролем. Теперь ресурсов достаточно чтобы уничтожить любой "антивирус". Наверное предполагается, что только хороший будет сильным, а плохой слабым, но у плохого нет ограничений хорошего и он может привлечь больше ресурсов. А как мы знаем сильнее тот, кто может привлечь больше ресурсов.
У искусственного интеллекта есть своё разделение на слабый и сильный. На данный момент сильного ИИ не существует, а все те, что есть - действуют по заранее заданным алгоритмом и в целом называть их искусственным интеллектом может быть ошибочным. Это скорее продвинутая модель, которую люди будут ещё дорабатывать и дорабатывать
Альтман говорит, что ждите AGI к следующему году. История человечества может закончиться уже в 2025 :-)
Да, развитие ИИ несет в себе определенные риски, но оно также открывает перед нами огромные возможности. Нужно найти баланс между инновациями и безопасностью.
Не согласен только с одним словом: "определенные" риски.