Все самые важные и интересные финансовые новости в России и мире за неделю: эффективность российских чиновников собрались повышать льготной ипотекой, Тинькофф больше не хочет быть модным технологичным банком, СПБ биржа призналась, что с китайскими акциями есть проблемки, а Interactive Brokers в очередной раз пугает россиян.
детально разобраться в его ходе мыслей и найти контраргументы,
Зачем находить контраргументы, если у него нет аргументов? Он с порога заявляет, что если ИИ будет умнее человека, то он обязательно попытается его убить. Зачем, почему - автор не поясняет. Обязанность доказательства лежит на плечах утверждающего.
Давайте честно признаем, что мы любим считать себя самыми умными и боимся, что появится кто-то умнее нас. Но этот страх не связан с боязнью насилия, скорее это про боязнь кого-то сильнее себя.
Я считаю наоборот, высокий интеллект снижает уровень насилия.
Некоторые футурологи предполагали, что если существуют инопланетные цивилизации, которые вышли в космос, то скорее всего они миролюбивы. Потому что технический прогресс приводит к появлению все более совершенного оружия, и наиболее агрессивные виды попросту самоуничтожаться с такими возможностями. А продвинуться дальше смогут только поборовшие агрессию и тягу к насилию.
Зачем находить контраргументы, если у него нет аргументов?
Мне кажется, вы просто не пытались познакомиться с аргументами автора. Можно начать изучение, например, вот здесь: https://www.lesswrong.com/posts/uMQ3cqWDPHhjtiesc/agi-ruin-a-list-of-lethalities
Но этот страх не связан с боязнью насилия, скорее это про боязнь кого-то сильнее себя
Опасаться тех, кто сильнее тебя, вполне разумно.
Я считаю наоборот, высокий интеллект снижает уровень насилия.
Это если вообще мыслить в категориях насилия. Высокий интеллект человека отчего-то не особо мешает ему устраивать геноцид куриц в промышленном масштабе.
"Некоторые футурологи предполагали"
А другие футурологи предполагали иначе. Я вот, как заслуженный диванный эксперт в области ИИ, будущего и всего такого, уверен, что как только интеллект достигает какой-то небывалой высоты, то он автоматом захочет всех тупых уничтожить. Почему? Ну потому что почему бы и нет?
вообще очень наивно полагать что на земле могу сосуществовать два разумных вида, это как мне кажется невозможно.
и как раз таки нет, если и существуют (надеюсь нет) инопланетные цивилизации, то они в большей степени враждебны, очень враждебны, межвидовая конкуренция - самая жестокая, а сосуществование нескольких разумных видов в мире выглядит как фантастика.
Ну это вряд-ли, после создания ЯО мы не стали менее агрессивнее, отнюдь, побороть инстинкты возможно лишь с изменением самой сути человека, нас не ждёт мир звёздных войн где мы с другими разумными будем жить в относительном мире, скорее всего наша судьба либо быть единственной разумной расой, либо обнаружить иную цивилизацию, а если их видим мы, то и они нас, а из этого следует что мы уже проиграли.
Вообще я надеюсь на симбиоз ИИ и человека.
Я считаю наоборот, высокий интеллект снижает уровень насилия
Ага, он будет просто сидеть и смотреть, когда придет неандерталец с дубиной и захватит власть.
Как только появится машина, которая думает на несколько порядков лучше человека, само человечество превратится в бесполезную инфекцию на планете.
Тезис о том, что "высокий интеллект снижает уровень насилия" справедлив сам по себе, но не верно его использовать как аргумент в контексте дискуссии об эволюции. ИИ — это не интеллект одного конкретного "индивида", это система. Система состоит из множества частей, в случае с ИИ это будут AGI (несколько от разных компаний) и менее развитые ANI. Всё как и у людей: есть индивид с его собственным уровнем интеллекта, а есть человечество как система, и интеллект человечества это всегда пирамидаидальная вертикаль, в которой уровень интеллекта распределен неравномерно. Когда мы говорим человечество имеет тенденцию к гуманизации, мы говорим о (верхней) части пирамиды, а не о всей целиком. Баги системы могут происходит в нижней части пирамиды, а не вверху.