{"id":14285,"url":"\/distributions\/14285\/click?bit=1&hash=346f3dd5dee2d88930b559bfe049bf63f032c3f6597a81b363a99361cc92d37d","title":"\u0421\u0442\u0438\u043f\u0435\u043d\u0434\u0438\u044f, \u043a\u043e\u0442\u043e\u0440\u0443\u044e \u043c\u043e\u0436\u043d\u043e \u043f\u043e\u0442\u0440\u0430\u0442\u0438\u0442\u044c \u043d\u0430 \u043e\u0431\u0443\u0447\u0435\u043d\u0438\u0435 \u0438\u043b\u0438 \u043f\u0443\u0442\u0435\u0448\u0435\u0441\u0442\u0432\u0438\u044f","buttonText":"","imageUuid":""}

ИИ — беда или перспектива

Моё инфополе разделилось на два, местами пересекающихся лагеря.

↪ Первый — ИИ нас всех (почти всех) уничтожит, совсем скоро:

Харрари, Юдковский, Маск, десятки влиятельных мыслителей и деятелей современности требуют остановить разработку любых ИИ-систем сравнимых по мощности и потенциалом с GPT4. Как минимум на 6 месяцев, чтобы разобраться, как такие разработки контролировать и снизить риски.

Прогноз по AGI — искусственного интеллекту общего назначения сместился с 2030 до 2025 года.

ИИ может угрожать выживанию человечества, Юдковский (эксперт по ИИ) призывает срочно действовать, например, взрывать датацентры, которые не подчиняются.

Десятки профессий могут быть заменены ИИ на 80 – 100%.

↪ Второй — ИИ это будущее, настал "iPhone момент", масса возможностей, что приведут нас к прогрессу, мир за 5-10 лет снова кардинально поменяется (в лучшую сторону для большинства).

Экстремумы слишком редко сбываются. Я не эксперт по экзистенциальным рискам и светлому будущему, поэтому делюсь тем, как рассуждаю лично для себя:

1) Влиятельные люди редко (никогда) не заботятся о жизни, здравии и благополучии каждого живого индивида на планете. Впрочем, как и владельцы корпораций, которые публично вещают про инклюзивность, равенство и make the planet a better place, а потом притесняют своих же сотрудников, сотрудничают с госами и 50 оттенков кэнселлинга.

Зато часто (почти всегда) под вдохновляющими лозунгами скрывается личный интерес и выгода. От перетягивания внимания до конкуренции и преимущества.

2) Человечество неоднократно беспокоилось, что очередная волна технологий уничтожит всё и вся, начиная со времён индустриальной революции.

Только вот наибольшие беды для людей приносят не технологии, а войны и болезни. Особенно глобальные.

3) Если представить, что через полтора года ИИ выйдет из под контроля, захватит лаборатории, инфраструктуру и будет использовать нас в своих интересах, я придерживаюсь принципов стоицизма, дихотомии контроля — различать, что находится под моим контролем и ответственнностью, а что нет.

4) Следствие из 3го пункта — не ждать, что там будет в 2025 или в 2030, а каждый день сейчас вкладываться целиком в том, во что я верю, что для меня важно, что, на мой взгляд, помогает людям вокруг меня — как ближнему, так и дальнему кругу. Принимать с благодарностью то, что у меня уже есть, не отвлекаясь на пылающие заголовки и неочевидные перспективы.

0
1 комментарий
MAD CRYPTONAUT

Согласен с мыслью, что в своих бедах в первую очередь виноват человек, который пожадничал/схитрил и т.д. и т.п.

Ответить
Развернуть ветку
-2 комментариев
Раскрывать всегда