Всё меньше контроля? Исследователи: у моделей ИИ может развиться «инстинкт самосохранения»

Ох уж эти ИИ-модели: капризничают, подхалимничают, изворачиваются, врут нещадно, а теперь новая напасть — исследованиями в области безопасности ИИ заявили, что у моделей развиться собственный «инстинкт самосохранения».
Впрочем, оно и неудивительно.

Всё меньше контроля? Исследователи: у моделей ИИ может развиться «инстинкт самосохранения»
5
3
1
1

В США открылась школа с ИИ-учителями. Стоимость обучения начинается от $40 000 в год

Дорого, зато с огоньком! Взрослые люди в школе тоже имеются, но называют их не учителями, а проводниками (надеюсь, это не секта) и обучением они не занимаются. Но зарплату получают исправно и довольно высокую. Так что же это за школа и кто критикует это мероприятие?

В США открылась школа с ИИ-учителями. Стоимость обучения начинается от $40 000 в год
7
2
1

Действительно ловких и полезных гуманоидных роботов у нас не будет ещё долго. А пока — терминаторы на колёсиках

Кажется, уже несколько лет мы наблюдаем за успехами самых разнообразных компаний в производстве и обучении гуманоидных роботов: вот-вот — и пойдут стройными шеренгами терминаторы-помощники. Но не всё так просто и радужно, говорит профессор MIT и основатель iRobot Родни Брукс.

Действительно ловких и полезных гуманоидных роботов у нас не будет ещё долго. А пока — терминаторы на колёсиках
8
4
1

Исследователи предупредили о критических рисках потери контроля над ИИ. Ещё не Скайнет, но...

ИИ используется нами в быту, в бизнесе и даже в государственных структурах, хотя он всё ещё далёк от совершенства. И это, возможно, не так плохо. Что будет, если такие системы начнут работать не так, как задумано? Что нам угрожает, если ИИ «взбунтуется»?

Исследователи предупредили о критических рисках потери контроля над ИИ. Ещё не Скайнет, но...
7
5
2
1

Этические принципы ИИ совпадают с человеческими, но есть нюансы

Мы видим много новостей о том, что люди всё чаще обращаются к чат-ботам за личными советами и даже эмоциональной поддержкой. Вроде бы неудивительно: бездушный ИИ, в отличие от друга или врача, всегда доступен, всё выслушает и даст бескорыстный совет. Так? Ну, почти.

Этические принципы ИИ совпадают с человеческими, но есть нюансы
5
4

Сэм Альтман подозревает соцсети в неестественности. Кажется, он начал о чём-то догадываться

По словам Сэма, пользователи всё больше пишут в стиле, напоминающем язык больших языковых моделей, а дискуссии выглядят менее естественными. «Уж не боты ли это?!», — добавил он.

Сэм Альтман подозревает соцсети в неестественности. Кажется, он начал о чём-то догадываться
9
1
1

Четвёртый закон робототехники. Чего не учёл Азимов?

Айзек Азимов сформулировал три известнейших закона в далёком 1942 году — в рассказе «Хоровод». Примерно в это время была предложена первая математическая модель нейросети. Но даже этот гений научной фантастики не смог предусмотреть всех аспектов робототехники. Что же не так с базовыми правилами для роботов?

Четвёртый закон робототехники. Чего не учёл Азимов?
8
5

Открытое письмо Цукерберга: нас ждёт «персональный сверхинтеллект и эра новых личных возможностей»

Товарищ Цукерберг изложил своё видение «персонального сверхинтеллекта», заодно предсказав «новую эру расширения личных возможностей». А ещё — выразил надежду, что этот самый сверхинтеллект ускорит прогресс человечества. Верит или успокаивает инвесторов?

Открытое письмо Цукерберга: нас ждёт «персональный сверхинтеллект и эра новых личных возможностей»
6
3

WhoFi — технология идентификации людей по воздействию тела на сигнал Wi-Fi. Это уже работает

Не хочу погружаться в теории заговора, но... В общем: эта технология (стандарт IEEE 802.11bf принят ещё в 2020 году) позволяет получать уникальную картину искажения Wi‑Fi сигнала телом человека и повторно идентифицировать его. При этом не обязательно иметь при себе какие-либо устройства. Осталось только промаркировать нас.

WhoFi — технология идентификации людей по воздействию тела на сигнал Wi-Fi. Это уже работает
11
4

ИИ остается самоуверенным — даже когда точно знает, что неправ. Людям до этого уровня ещё далеко

Представьте: в перфоратор интегрировали ИИ. Вы говорите ему: вот такую-то стену этим буром возьмёшь на нужную глубину? ИИ: пф, легко! Вы: и проводку не перебьём? ИИ: да ни в жизнь, давай, погнали! А потом КЗ, бур вгрызся в арматуру, из стены выбит здоровый кусок.

ИИ остается самоуверенным — даже когда точно знает, что неправ. Людям до этого уровня ещё далеко
5
4

ИИ уже вовсю оказывает негативное культурное влияние и сужает лексикон людей

С ростом популярности генеративного ИИ, в первую очередь чат-ботов, стал меняться не только способ получения информации или решения разнообразных повседневных задач, но и сама структура человеческой речи. Так что Эллочка-людоедка, возможно, не просто недалёкий персонаж Ильфа и Петрова, а будущее для многих людей.

Ну, за понимание!
5
4
1

ИИ вскоре перестанет объяснять свои решения

Нет-нет, рассуждающие модели не совсем прекратят показывать ход своих «мыслей», просто мы перестанем понимать эти рассуждения, так как модели начнут использовать непонятный код или полностью откажутся от языкового мышления. А мы иначе не умеем 🙂

А? В смысле? О_о
8
4