Презентация Apple: Айфон я дам. AI я не дам.

Презентация Apple: Айфон я дам. AI я не дам.

Нейросетевые фишки появятся в новых Айфонах и призваны улучшить "яблочный" опыт. Но появятся не сегодня. Потом. И не все. И не везде.

Этим вечером Apple показала новые версии iPhone и других гаджетов. "Железные" улучшения все стандартные - еще чуть тоньше, еще чуть мощнее, на 15% лучше, чем предыдущее <вставить название эпл-гаджета>, в общем, стандартное. Не особо интересно.

Чуть более любопытно то, как Apple капитализирует свою дружбу (ака инвестиции) в Open AI. Напомню, AI у Эппл не может именоваться как у всех нормальных людей, а потому это Apple Intelligence. И нейронка будет доступна в октябре, а в следующем году получит поддержку китайского, французского, японского и испанского языков.

Для работы всей этой нейросетевой истории в гаджеты завезли отдельный нейропроцессор, но даже его одного не хватит, поэтому ИИ будет работать и на устройстве пользователя и через софт в облаке самой Apple.

Эппл щепотками раскидала ИИ-фичи по гаджетам так, что, если рассматривать каждую в отдельности, то кажется, что и не очень прорывное это всё. Как оно в целом - ну поглядим. Тут есть одна важная мысль.

Шеймить Аппл за отсутствие прорывных инноваций уже долгое время модно. И в этой критике есть доля правды и в этот раз - все, кто пользовался нейросетевыми сервисами, уже знакомы с большинством ИИ-фиченек и пользуются соответствующими сервисами. А взрослые мальчики (и девочки!) уже давно установили на свои компы Питон, Виспер, Stable Diffusion с Flux и балуются инпейнтом с контролнетом.

Что, какие-то страшные слова были? Вот в этом то и сила текущих нововведений Эппл - она выводит нейрофичи из зоопарка разрозненных сервисов и собирает в одну экосистему в одном устройстве, с которым у нас связь почти интимная - в смартфоне.

Бесшовный нейроэкспириенс по всей операционке и во всех приложениях с унифицированным способом взаимодействия - вот то, чего пытается добиться яблочная компания. И если реализация не подкачает, то даже с учетом отсутствия прорывных идей, для рядового юзера все новые функции будут значимым улучшением пользовательского опыта.

Итак, изначально, на WWDC еще было анонсировано, что яблочный ИИ (под капотом которого работают шестеренки ChatGPT) будет работать как обработчик текстового контента - проверять почту, делать саммари, разребать задачки. В общем, апгрейд для Сири. В целом, вся движуха с ИИ была направлена на то, чтобы сделать Сири наконец юзабельной, а не куском...софта.

Сегодня рассказали про визуальный поиск - когда ИИ помогает искать в инете инфу по сделанной фотке (привет, Яндекс) и считывает надписи с фото.

Ранее анонсированная функция Writing Tools доступна как сквозной функционал в ряде приложений - Почте, Календаре, Страницах, Уведомлениях и т.д. Задача простая - текст обрабатывать, а также писать за вас - та самая ситуация, когда надо конвертировать в деловой тон текст, написанный матом.

"Картиночные" функции также присутствуют - ИИ позволяет генерить кастомные эмоджи, удалять объекты и людей с фотографий.

Кстати, Сири будет работать также как "сквозная" функция в разных приложениях - к примеру, можно попросить отредактировать определенным образом фотку, а затем вставить её в текстовое сообщение.

Обещают, что голосовой помощник понимает, в каком приложении находится юзер и чего сейчас там происходит, то есть, умеет хорошо в контекст.

И еще - обещают, что наконец с Сири можно будет поговорить нормально! А не как обычно...

Часть ИИ-функционала припрятано в камере. В основном, это различные "улучшайзеры" картинки и еще новая функция - "кинематографический звук", когда аудио как-то хитро от шумов очищается.

На часах в watchOS 11 искусственный интеллект призван улучшить распознавание речи и перевод. Еще в Smart Stack нейронка помогает виджеты показывать более релевантные.

Важная вещь - не до конца понятно, смогут ли сторонние разработчики получить доступ к каким-то ИИ фичам Эппла или пусть покупают свой GPT сами.Вроде как, разрабы получат доступ к SiriKit, что как минимум, обещает возможность интеграции Сири в сторонние приложения.

В общем, "на бумаге" все ИИ-интеграции в софтверную инфраструктуру яблочных усройств выглядят нплохо. Как это будет работать на практике - надо ждать. И это самая большая проблема - ждать разворачивания всех нейрофич даже забугорным юзерам придется довольно долго. То есть, да - при покупке iPhone 16-й серии не будут поддерживать новейшие ИИ-возможности. Такие дела.

Мой канал ждёт именно тебя, подпишись

11
Начать дискуссию