{"id":14293,"url":"\/distributions\/14293\/click?bit=1&hash=05c87a3ce0b7c4063dd46190317b7d4a16bc23b8ced3bfac605d44f253650a0f","hash":"05c87a3ce0b7c4063dd46190317b7d4a16bc23b8ced3bfac605d44f253650a0f","title":"\u0421\u043e\u0437\u0434\u0430\u0442\u044c \u043d\u043e\u0432\u044b\u0439 \u0441\u0435\u0440\u0432\u0438\u0441 \u043d\u0435 \u043f\u043e\u0442\u0440\u0430\u0442\u0438\u0432 \u043d\u0438 \u043a\u043e\u043f\u0435\u0439\u043a\u0438","buttonText":"","imageUuid":""}

Google представила сервис ImageFX для генерации ИИ-изображений на основе новейшей модели компании Imagen 2 Статьи редакции

Сервис бесплатный, но пока доступ через лист ожидания.

  • Чтобы воспользоваться ImageFX, надо ввести на сайте адрес электронной почты Google, он попадёт в список ожидания.
  • Все созданные через сервис картинки помечены водяным знаком SynthID, он невидим для человеческого глаза, но заметен для проверки в поисковике Google или браузере Chrome. Его нельзя обрезать или стереть.
  • Google утверждает, что ограничил генерацию жестоких, оскорбительных и откровенных картинок. Также у сервиса есть встроенный фильтр на создание изображений известных людей.
Здесь и далее примеры изображений, сгенерированных ImageFX, Google
  • Google представила обновлённую модель для генерации изображений Image 2 в декабре 2023 года. Она может создавать более фотореалистичные картинки, лучше справляется с генерацией лиц, рук, точнее понимает запросы пользователя, утверждает компания.
0
95 комментариев
Написать комментарий...
Доктор Шкутко

Кароче дорвейщики и сеошники этот сервис использовать не будут

Ответить
Развернуть ветку
Владислав

Почему?

Ответить
Развернуть ветку
Доктор Шкутко

В изображение будет защита метка Гугла, то есть он изначально будет знать, что трудозатраты на это изображение минимальны и ранжировать по картинкам он такое не будет.

Ответить
Развернуть ветку
О. Чайкина

Почему вы так уверенно говорите? Есть основания?

Ответить
Развернуть ветку
Доктор Шкутко

В новости написано

Ответить
Развернуть ветку
О. Чайкина

Речь же не о трудозатратах. Смысл (в принципе) не в том, чтобы маркировать созданное ИИ чисто для отделения такого контента от "людского", а в том, чтобы исключить/минимизировать ранжирование фейков и К:
"Изображения, созданные с помощью инструментов искусственного интеллекта, становится все труднее отличить от изображений, созданных людьми. Изображения, созданные ИИ, могут распространять дезинформацию в огромных масштабах, что приводит к безответственному использованию ИИ. С этой целью Google представила новый инструмент SynthID, который может отличать изображения, созданные искусственным интеллектом, от изображений, созданных человеком."
https://www.zdnet.com/article/googles-new-tool-can-detect-ai-generated-images-but-its-not-that-simple/

Ответить
Развернуть ветку
Доктор Шкутко

Но Гугл это делает не из альтруистичнвх побуждений. Задача поисковиков на данном этапе научится фильтровать нагенеренный фастфуд от экспертного контента. То есть в условных не YMYL тематиках сойдёт и генеренка от ИИ, а вот в чувствительных тематиках, где чаты пока лажают и галлюцинируют такой контент неприемлем и выиграет в гонке тот поисковик, который научится его находить, маркировать и штрафовать в выдаче

Ответить
Развернуть ветку
О. Чайкина

Да, по тематикам подход может быть разным. Посмотрим, как они реализуют. Самое простое, маркировать такой контент при его производстве. Поэтому, возможно, сервисы так и будут делать.

Ответить
Развернуть ветку
Доктор Шкутко

Нет, сервисы не будут такое делать, поэтому Гугл и хочет застолбить рынок ИИ, чтобы обезопасить свой поисковый бизнес, чтобы условные маркетологи генерили свой потребконтегт в Гугле, а он его фильтровал потом по своей базе. Он и сам неплохо с генережкой контента на нулевой выдаче справляется, правда в YMYL тематиках тоже топорно и тоже с опаской.

Ответить
Развернуть ветку
О. Чайкина
сервисы не будут такое делать

Пару (или больше) раз притянут за что-нить, так и будут.

Ответить
Развернуть ветку
Доктор Шкутко

Ну да, за дипфейки натягивали, теперь или маркировка или в список стоп-слов

Ответить
Развернуть ветку
92 комментария
Раскрывать всегда