{"id":14284,"url":"\/distributions\/14284\/click?bit=1&hash=82a231c769d1e10ea56c30ae286f090fbb4a445600cfa9e05037db7a74b1dda9","title":"\u041f\u043e\u043b\u0443\u0447\u0438\u0442\u044c \u0444\u0438\u043d\u0430\u043d\u0441\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u0435 \u043d\u0430 \u0442\u0430\u043d\u0446\u044b \u0441 \u0441\u043e\u0431\u0430\u043a\u0430\u043c\u0438","buttonText":"","imageUuid":""}

"Multisearch" от Google с поддержкой ИИ, который объединяет текст и изображения в одном запросе станет глобальным

Среди других сегодняшних анонсов Google (рассказали столько всего интересного, что акции компании в моменте упали аж на 7%) на пресс-конференции в Париже, ориентированных на ИИ, компания сообщила, что ее новая функция "multisearch" теперь будет доступна пользователям по всему миру на мобильных устройствах, везде, где уже доступен Google Lens.

Например, пользователь может найти фотографию понравившейся ему рубашки в поиске Google, а затем спросить Lens, где они могут найти тот же рисунок, но на другом типе одежды, например, на юбке или носках. Или они могут направить свой телефон на сломанную деталь на своем велосипеде и ввести в поиск Google запрос типа “как исправить”. Эта комбинация слов и изображений может помочь Google обрабатывать и понимать поисковые запросы, которые он не мог обработать ранее, или которые было бы сложнее ввести с помощью только текста.

Этот метод наиболее полезен при поиске по магазинам, где вы можете найти одежду, которая вам понравилась, но в разных цветах или стилях. Или вы можете сфотографировать предмет мебели, например, обеденный сервиз, чтобы найти подходящие предметы, например, журнальный столик. В multisearch пользователи также могут сузить и уточнить свои результаты по бренду, цвету и визуальным атрибутам, говорится в сообщении Google.

Эта функция была доступна для пользователей в США в октябре прошлого года, а затем в декабре была расширена до Индии. На сегодняшний день Google заявляет, что multisearch доступен для всех пользователей по всему миру на мобильных устройствах, на всех языках и в странах, где доступен Lens.

Вариация “multisearch near me” также скоро расширится, сообщила сегодня Google.

В мае прошлого года Google объявила, что пользователь сможет несколько поисковых запросов местным предприятиям (он же «multisearch near me"), которые будут возвращать результаты поиска товаров, которые пользователи искали, которые соответствовали инвентарю в местных магазинах розничной торговли или других компаниях. Например, в случае велосипеда со сломанной деталью вы можете добавить текст »рядом со мной” к поисковому запросу с фотографией, чтобы найти местный магазин велосипедов или скобяных товаров, в котором была нужная вам запчасть.

Что касается новых поисковых продуктов, гигант рассказал о предстоящей функции Google Lens, отметив, что пользователи Android скоро смогут искать то, что они видят на фотографиях и видео, в приложениях и на веб-сайтах на своем телефоне, оставаясь при этом в приложении или на веб-сайте. Google называет это “поиском по экрану” и говорит, что он также будет доступен везде, где предлагается Lens.

Google также поделился новой вехой для Google Lens, отметив, что теперь люди используют эту технологию более 10 миллиардов раз в месяц.

Надо будет протестировать фичу. Ведь у меня же Pixel.

Если статья показалась вам интересной, буду признателен за подписку на мой телеграм-канал, если хотите больше материалов на тему IT, AI, технологий и трендов.

0
Комментарии
-3 комментариев
Раскрывать всегда