На мой взгляд автор слишком очеловечивает ИИ, придает вещи (а ИИ это вещь) свойства человека: стремление к совершенству, самосохранение, жажду власти и тп. То что ИИ выполняет что-то лучше, чем человек ещё не означает, что он должен заменить его. Так например на стуле явно удобнее сидеть чем на человеке, но отсюда никак не следует, что стул должен поработить человека (или что все сидят на стульях это и есть порабощение?).
Вопрос к автору статьи. Как вы думаете сможет ли ИИ самостоятельно ставить себе цели и если да то какие? А также, как он будет определять ценности, что для него будет хорошо, а что плохо, учитывая, что он он не сможет иметь инстинктов самосохранения и размножения?