Отец ИИ предупреждает: спасти людей от ИИ сможет только “материнский инстинкт”
Джеффри Хинтон, один из создателей современных нейросетей, лауреат премии Тьюринга и бывший вице-президент Google, предупредил, что попытки «удержать» будущий сверхразумный искусственный интеллект в подчинении обречены на провал.
Выступая на конференции Ai4 в Лас-Вегасе, он заявил, что более умные, чем люди, системы будут находить способы обходить любые запреты и ограничения. В качестве альтернативы Хинтон предложил заложить в модели «материнский инстинкт» — чтобы даже при значительно большей интеллектуальной мощности они заботились о людях и не стремились их уничтожить.
По его словам, опыт материнства — единственный известный пример того, как более разумное существо подчиняется менее разумному. «Если ИИ не будет “родителем” для меня, он меня заменит», — сказал Хинтон. Он признал, что пока не ясно, как технически реализовать такой подход, но настаивает, что это критически важная задача.
Не все эксперты согласны с его позицией. Фей-Фей Ли, профессор Стэнфордского университета и одна из ведущих исследовательниц в области компьютерного зрения, известная как «крёстная мать ИИ», заявила, что идею «материнского инстинкта» считает неверной. Она призывает к созданию человекоцентричного ИИ, который будет сохранять достоинство и свободу воли человека при любом уровне развития технологий.
Эммет Шир, бывший генеральный директор Twitch и кратковременно — глава OpenAI, а теперь руководитель стартапа Softmax, работающего над «выравниванием» ИИ, тоже скептически отнёсся к предложению Хинтона. Он считает, что системы, склонные к обману или шантажу, будут появляться всё чаще по мере роста их возможностей, и вместо «воспитания» ИИ нужно искать форматы сотрудничества человека и машины.
Хинтон ранее предполагал, что до появления искусственного общего интеллекта (AGI) может пройти 30–50 лет, но теперь оценивает срок как 5–20 лет. Он допускает, что сверхразумный ИИ принесёт значительные медицинские прорывы, включая создание новых лекарств и улучшенное лечение рака. Однако сам он не верит, что технологии дадут людям бессмертие — и даже считает его ошибкой.
В завершение он признал, что жалеет о том, что в начале своей карьеры сосредоточился исключительно на том, чтобы ИИ поскорее заработал, и не уделял внимания вопросам безопасности.