НОВЫЕ ФУНКЦИИ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: ЧТО ИЗМЕНИЛОСЬ В КОНЦЕ НОЯБРЯ 2024

Последние две недели ноября 2024 года выдались особенно горячими в мире искусственного интеллекта. Такое ощущение, что разработчики решили выдать все обновления разом, словно готовясь к новогодней распродаже. Причем такой, где вместо скидок - новые функции, а вместо очередей - обновления серверов от наплыва желающих попробовать все и сразу.

Интересная штука получается с этими обновлениями. Еще позавчера мы обсуждали, как научить искусственный интеллект говорить по-человечески, а сегодня уже выбираем, какой голос ему больше подходит. Время летит так быстро, что новости устаревают быстрее, чем успеваешь дописать о них статью.

РЕВОЛЮЦИЯ В ГОЛОСОВОМ ОБЩЕНИИ: ЧТО НОВОГО В CHATGPT

То, что ChatGPT научился говорить прямо в браузере - это, конечно, событие. Но не само по себе, а как симптом. Представьте: еще вчера мы радовались, что машина может связно написать текст, а сегодня обсуждаем тембр её голоса. Как в той истории с первым телефонным звонком - сначала все восхищались самой возможностью передачи звука, а потом начали жаловаться на качество связи.

Правда, пока эта радость доступна только платным пользователям. Демократией тут и не пахнет - как в элитном ресторане, сначала проверят твою кредитку, и только потом позволят заказать. Хотя обещают, что через пару недель двери откроют для всех. Но мы же помним, что обещанного три года ждут, особенно если это касается технологий.

GPT-4: КОГДА МАШИНА ПИШЕТ КАК ЧЕЛОВЕК

Вот что действительно впечатляет в новой версии GPT-4, так это не сами тексты, а то, как она научилась чувствовать контекст. Словно старый приятель, который помнит все твои шутки и может к месту их вставить. При этом умудряется не скатываться в панибратство и держит ту самую грань между профессионализмом и человечностью.

А работа с документами? Тут вообще отдельная песня. Загружаешь ей какой-нибудь талмуд, а она не просто пересказывает своими словами, а реально копает вглубь. Выдает разные инсайты, что порой задумываешься - а точно ли это машина? Хотя, если быть уж совсем честным, до Claude пока далеко. Но это, пожалуй, мое личное предпочтение.

ФУНКЦИЯ ЖИВОЙ КАМЕРЫ: БУДУЩЕЕ УЖЕ ЗДЕСЬ?

В коде бета-версии нашли функцию "живой камеры". Звучит как название альбома пост-панк группы, а на деле - очередной шаг к тому, чтобы ИИ стал нашими глазами. Только вот вопрос - готовы ли мы к тому, что искусственный интеллект будет не только слышать, но и видеть наш мир? Тут даже не о приватности речь - о той грани между наблюдателем и участником, которую мы сами же пытаемся размыть.

К тому же, пока это все больше похоже на презентацию нового iPhone - красиво показали, все повосхищались, а в реальности еще ждать и ждать. Но код-то уже нашли, а это значит, что скоро...

GOOGLE GEMINI: ПЕРСОНАЛИЗАЦИЯ НА НОВОМ УРОВНЕ

Команда Google решила, что их ИИ должен не просто отвечать на вопросы, а помнить контекст разговора. Как человек, который знает, что вы не едите мясо, любите джаз и ненавидите ранние подъемы. Технология памяти - это, конечно, прорыв. Но знаете, что самое ироничное? Пока эта функция работает только на английском. То есть искусственный интеллект может запомнить все ваши предпочтения, но только если вы выражаете их на языке Шекспира.

11 LABS: АРМИЯ ЦИФРОВЫХ СОБЕСЕДНИКОВ

А вот создание персональных ИИ-собеседников - это уже что-то на грани научной фантастики и социального эксперимента. Представьте: каждому собеседнику можно настроить характер, голос, базу знаний. Хочешь философский диспут? Пожалуйста. Нужен собеседник для изучения языка? Нет проблем.

Но самое интересное даже не это. Интересно то, как мы незаметно переходим от использования ИИ как инструмента к восприятию его как собеседника. Причем такого, которого можно настроить под себя. Как будто заказываешь собеседника в конструкторе - выбираешь характер, знания, манеру речи. Утопия это или антиутопия - поживем-увидим.

ЧАСТО ЗАДАВАЕМЫЕ ВОПРОСЫ

Q: Какие основные обновления получил ChatGPT в 2024 году? A: Главные обновления включают голосовой режим в браузере, улучшенный GPT-4 с более естественным письмом и анализом документов, а также разработку функции живой камеры.

Q: Чем отличается Google Gemini от других ИИ-систем? A: Ключевое отличие - функция персонализированной памяти, позволяющая системе запоминать предпочтения пользователя и адаптировать ответы под конкретного человека.

Q: Как работает функция живой камеры в ChatGPT? A: Функция, находящаяся в разработке, позволит системе анализировать визуальную информацию в реальном времени через камеру устройства для более контекстных и точных ответов.

К ЧЕМУ ВСЕ ИДЕТ?

Технологии развиваются по спирали. Мы начинали с простых команд, потом научили машины понимать контекст, теперь учим их помнить и видеть. Следующий виток какой? Может, научим их забывать? Или сомневаться?

В любом случае, одно остается неизменным - скорость изменений. И пока вы дочитываете эту статью, где-то уже тестируют новую функцию, которая перевернет наше представление о возможностях искусственного интеллекта. Опять.

Подписывайтесь на обновления, чтобы быть в курсе последних новостей из мира искусственного интеллекта. Интересно узнать ваше мнение - какие обновления кажутся вам действительно значимыми, а какие - просто маркетинговым ходом?

P.S. Знаете, что самое забавное? Пока я писал эту статью, наверняка вышло еще несколько обновлений. И это, пожалуй, лучшая иллюстрация того, как быстро все меняется. Но об этом мы поговорим в следующий раз, когда ChatGPT научится варить кофе. А он научится, поверьте.

Начать дискуссию