Google разрешила владельцам сайтов отказываться от использования их данных для обучения ИИ Статьи редакции
До этого так же поступила OpenAI.
- Компания представила инструмент Google-Extended. Его можно настроить через документ robots.txt, который сообщает веб-сканерам о том, к какой информации они могут получить доступ.
- Издатели смогут скрыть свои ресурсы от роботов, которые собирают данные для обучения моделей Bard и VertexAI. При этом сайты продолжат индексироваться поиском Google.
- По мере расширения технологий ИИ компания также намерена предлагать владельцам сайтов новые возможности по контролю за доступом к данным. О каких возможностях идёт речь — не уточняется.
- В июле 2023 года Google обновила политику конфиденциальности, включив свои модели ИИ в список сервисов, которые могут обучаться на общедоступных данных из интернета.
- В августе OpenAI разрешила владельцам сайтов блокировать доступ к данным для своего сканера GPTBot через robots.txt.
17K
показов
2.9K
открытий
Быть умным это вовремя прикинуться тупым
В духе "Страховщика" (2014) и "Иску́сственного ра́зума" (2001)
отличный маркер для роботов что как раз на скрываемых данных и надо обучаться
А как заставить нейронки обучаться на свих сайтах? Куда заявление писать? В Госуслугах пока раздела нет.
Пока что нужно подать письменное заявление в МФЦ, берёте талончик и ждёте своей очереди. При себе важно иметь паспорт и СНИЛС
Скоро будет. Повсюду будет ещё одна кнопка/галка о согласии использовать свои сведения для машинного обучения.
Это помимо "я согласен на обработку персональных данных", "согласен на получение рассылок", "на обработку cookie..."
Пока только приворот. Тут, на виси, мастер приворотов обитает.
Дорогой VC.ru!
Добавьте пожалуйста в robots.txt запись, что вы даёте 100% разрешение на обучение ИИ на комментариях и постах Невероятного Блондина.
Этот мир заслуживает стать лучше.
Дорогой VC! Ни в коем случае не пускайте комментарии Блондина в ИИ, это будет катастрофа и Скайнет.
Стоит расставить точки над i, вы этими правилами не скрываете, а даёте знать, что именно хотите скрыть. Это тоже самое, что в веб-браузерах фича "Do Not Track", которую не стоит включать, т.к. этим вы уникализируете свой отпечаток браузера не более, а на сам ваш запрос разработчикам веб-сайтов до лампочки. Так и парсеры данных для ИИ будут плевать на ваш robots.txt, более того вы даже не узнаете что это парсер, у него user-agent будет естественно невинный. А Google не нужно парсить ваш вебсайт для ИИ, у них есть ваш кэш, который даже можно преобразовать с помощью ИИ, так что юридически не подкопаттся, что это именно ваши данные.
и как проверить обучался ИИ или нет?
Задай вопрос ему чей Крым и ты узнаешь
полагаю,что проверить можно , но не нам обычным обывателям
Наконец появилось право выбора
не было выбора , это хорошее решение для ИИ
Фича ради фичи, как и сквозное шифрование в разных сервисах
Пока ИИ не станет настолько умным, что обойдёт это
ИИ лишь инструмент
А какую информацию собираются скрывать? Я понимаю, когда секретные данные, но зачем просто инфу прятать? Пусть ИИ учится
чтобы траф сохранить на сайты, но конечно это помешает развитию ИИ
и чем это поможет?
будет + 1 итерация.
• Интересная статья, спасибо.
• Но что об этом думают ридакторы в ридакции с точки зрения ритейла?
" разрешила владельцам сайтов отказываться от использования их данных для обучения ИИ"-ну хоть так , это обезопасит ИИ от неприятностей
Надеюсь, Пикабу уже запретил. Иначе...
Яндекс сделает проще: не хочешь чтобы его нейросеть воровала твой контент? Ну значит запрети Яндексу индексировать твой сайт в принципе 😁
Если бы не надвигающийся железный занавес, Яндекс ждала бы судьба майл ру
Правильное решение. В Интернете пишут все. Вне зависимости от уровня образования и психического здоровья.
Хорошая новость
Идиотизм, а на кой тогда ИИ нужен без полных актуальных данных? давайте пойдем дальше и ограничим знания чат жпт школьной программой
Интересно они это придумали. Все сайты нейросети уже просканировали, а теперь решили дать возможность владельцам сайтов отказываться от использования их данных для обучения ИИ.
Встаёт резонный вопрос, а что будет со старым данными, если владелец сайта воспользовался данным отказом? Его данные будут удалены, а ИИ-модель переучена или это касается только новых данных на сайте?
Но при этом никто же не читает пользовательские соглашения от гугла, может там как раз один из пунктов это сбор данных для ИИ