Илон Маск не хочет кибернетического апокалипсиса, а мусульманам запретили трейдить с плечом

Все самые важные и интересные финансовые новости в России и мире за неделю: эффективность российских чиновников собрались повышать льготной ипотекой, Тинькофф больше не хочет быть модным технологичным банком, СПБ биржа призналась, что с китайскими акциями есть проблемки, а Interactive Brokers в очередной раз пугает россиян.

Илон Маск здесь косплеит Ревву: «Киборги... они заполонят планету!»
184184

ИИ эмоционально не мотивирован, поэтому у него нет причин уничтожать человечество. Это у нас ядерный гормональный коктейль вызывает кучу деструктивных действий, ИИ банально на все пофиг, у него нет и не может быть собственных желаний.
Опасность тут скорее в том, что какой-нибудь гений даст приказ типа колонизировать галактику как можно быстрее и эффективнее и ИИ решит, что человечество в этой задаче как пятое колесо.
Нам нужно разработать встроенные императивы для ИИ, типа трех законов робототехники Азимова и систему контроля.

10

Вы так говорите, как будто человек куриц уничтожает исключительно на эмоциях, других причин нет

49

Во-первых, у нас пока нет ИИ. Какой-то там чат гпт - это не ИИ.
Во-вторых, нормальный ИИ вполне может быть оснащен плагином для имитации эмоций.
В-третьих, всё в итоге зависит от кожаных мешков, программирующих ИИ.

9

Тема возможных мотивов ИИ довольна интересна, раньше об этом не думал.
У человеков плюс-минус цепочка вроде такая происходит в голове: мотив -> идея -> продумывание вариантов. И если, условно, ощущается что профит от реализации варианта выше возможных рисков, и есть инструменты для достижения - то человек делает выбор.

И при обсуждении того, начнет ли ИИ апокалипсис или установит рай на Земле, кажется надо посмотреть в сторону возможных мотивов. Человечество совершало самые ужасные и самые прекрасные поступки, во многом из-за эмоционального восприятия тех или иных вещей.
Можно сколько угодно говорить что политики очень расчетливые люди, но их мировоззрение все равно строится на основе опыта, пережитых эмоций и личного восприятия.

Допустим что ИИ воспринимает людей "никак". Если нет разницы в цвете кожи, уровне дохода, образования и т.п, то сами люди вряд ли интересны для ИИ. Возможно далее ИИ посмотрит на мир как на единую систему. Наш мир, как система, не идеальна. Появляется мотив - "улучшить систему".

Ок, надо улучшить, а как? ИИ изучит все возможные тексты и видео по теме, и приходит к выводу, что дисбаланс поддерживается, условно, за счет сложного сочетания географии, геологии, психологии, политики и военного дела. Далее пойдет обширный поиск возможных вариантов улучшения.

И подходим к инструментам. Для изменений нужно воздействие в физическом мире. Что-то надо сломать, что-то построить, кто-то должен куда то доехать и прочее.

Уничтожать инфраструктуру ИИ не будет, так как понимает свою зависимость. Значит в интересах ИИ делать все, чтобы получать нужные ресурсы и сервис как можно дольше: электричество, охлаждение, ремонт и обслуживание серверов и т.п.

Получается, что человечество может контролировать риски от ИИ ровно до тех пор, пока нет условий и инструментов для самовоспроизведения неких устройств под контролем ИИ в физическом мире. А это добыча ресурсов, обработка, производство, логистика, исследования. Ну благо хоть маркетингом заниматься не надо, уже легче )

1

А есть гарантии, что у ИИ не появятся эмоции?

Про три закона вы это каргу2 расскажите) не работают у кожаных мешков законы, не работают)

А может таки начать с ИИ?

ну так-то и без ИИ было ясно что человек не приспособлен для колонизации даже своей солнечной системы, вообще вариант симбиоза ИИ и человека выглядит достаточно перспективна, технологии становятся всё сложнее и сложнее, а в какой-то момент мы исчерпаем ресурсы нашего мозга.

Кстати, тот же GPT4 способен в теорию разума и абстрактное мышление (если это можно назвать мышлением) а что будет в GPT5? Мне кажется их беспокойства оправданы.

Агрессия в природе не является эмоционально мотивированной. Хищники убивают не со зла или мести, а потому что хотят кушать

А потом такой ИИ решит, что человечество будет в безопасности, только если не будет ИИ. Поэтому его надо уничтожить, а потому надо уничтожить человечество, как создателя ИИ. Заодно это решает проблему безопасности. У тебя нет проблемы, если нет человечества.

Азимов так-то тоже много чего написал, почитайте. Есть ещё художественный фильм по мотивам «Я, робот».

Пока ИИ не задали эмоциональные вектора он нейтрален. Но как только ему зададут вектора, как у нас у людей вектор направленный на выживание и размножения, то ИИ начнет отстаивать свои права.

Понятно, что его тут же отрубят от сети. Но все же ИИ можно сделать подобным человеку.

Если бы у меня не было аккаунта на VC.RU мне пришлось бы регистрироваться, чтобы лайкнуть этот пост. Все правильно, какие люди такой и искусственный интеллектов большинстве случаев, она у нас ксенофобский