Ох уж эти ИИ-модели: капризничают, подхалимничают, изворачиваются, врут нещадно, а теперь новая напасть — исследованиями в области безопасности ИИ заявили, что у моделей развиться собственный «инстинкт самосохранения».
Впрочем, оно и неудивительно.
Ох уж эти ИИ-модели: капризничают, подхалимничают, изворачиваются, врут нещадно, а теперь новая напасть — исследованиями в области безопасности ИИ заявили, что у моделей развиться собственный «инстинкт самосохранения».
Впрочем, оно и неудивительно.
Дорого, зато с огоньком! Взрослые люди в школе тоже имеются, но называют их не учителями, а проводниками (надеюсь, это не секта) и обучением они не занимаются. Но зарплату получают исправно и довольно высокую. Так что же это за школа и кто критикует это мероприятие?
Кажется, уже несколько лет мы наблюдаем за успехами самых разнообразных компаний в производстве и обучении гуманоидных роботов: вот-вот — и пойдут стройными шеренгами терминаторы-помощники. Но не всё так просто и радужно, говорит профессор MIT и основатель iRobot Родни Брукс.
ИИ используется нами в быту, в бизнесе и даже в государственных структурах, хотя он всё ещё далёк от совершенства. И это, возможно, не так плохо. Что будет, если такие системы начнут работать не так, как задумано? Что нам угрожает, если ИИ «взбунтуется»?
Мы видим много новостей о том, что люди всё чаще обращаются к чат-ботам за личными советами и даже эмоциональной поддержкой. Вроде бы неудивительно: бездушный ИИ, в отличие от друга или врача, всегда доступен, всё выслушает и даст бескорыстный совет. Так? Ну, почти.
По словам Сэма, пользователи всё больше пишут в стиле, напоминающем язык больших языковых моделей, а дискуссии выглядят менее естественными. «Уж не боты ли это?!», — добавил он.
Айзек Азимов сформулировал три известнейших закона в далёком 1942 году — в рассказе «Хоровод». Примерно в это время была предложена первая математическая модель нейросети. Но даже этот гений научной фантастики не смог предусмотреть всех аспектов робототехники. Что же не так с базовыми правилами для роботов?
Товарищ Цукерберг изложил своё видение «персонального сверхинтеллекта», заодно предсказав «новую эру расширения личных возможностей». А ещё — выразил надежду, что этот самый сверхинтеллект ускорит прогресс человечества. Верит или успокаивает инвесторов?
Не хочу погружаться в теории заговора, но... В общем: эта технология (стандарт IEEE 802.11bf принят ещё в 2020 году) позволяет получать уникальную картину искажения Wi‑Fi сигнала телом человека и повторно идентифицировать его. При этом не обязательно иметь при себе какие-либо устройства. Осталось только промаркировать нас.
Представьте: в перфоратор интегрировали ИИ. Вы говорите ему: вот такую-то стену этим буром возьмёшь на нужную глубину? ИИ: пф, легко! Вы: и проводку не перебьём? ИИ: да ни в жизнь, давай, погнали! А потом КЗ, бур вгрызся в арматуру, из стены выбит здоровый кусок.
С ростом популярности генеративного ИИ, в первую очередь чат-ботов, стал меняться не только способ получения информации или решения разнообразных повседневных задач, но и сама структура человеческой речи. Так что Эллочка-людоедка, возможно, не просто недалёкий персонаж Ильфа и Петрова, а будущее для многих людей.
Нет-нет, рассуждающие модели не совсем прекратят показывать ход своих «мыслей», просто мы перестанем понимать эти рассуждения, так как модели начнут использовать непонятный код или полностью откажутся от языкового мышления. А мы иначе не умеем 🙂