Ситуация с распознаванием признаков текстов нейросетей, будет похожа на соревнование вирусов и антивирусов. Причем распознаватель будет в роли антивируса, а значит всегда будет догоняющим, на шаг позади. Для распознавания так же нужен будет какой-то объем текста, по двум предложениям его не распознать, поэтому признак скорее всего будет накладываться сразу на сайт, который грешит этим. Но будет ли это влиять на выдачу? Поисковику нужно выдавать качественный контент и если по проведению пользователя он качественный, то зачем его понижать в выдаче, даже если он от нейросетей. Поэтому в основе выдачи будет поведенческие факторы.
Если у Вас сайт пессимизируют в выдаче, пусть и нагенеренный иишкой, то Вы уже будете задумываться о том, что делать дальше. Причем выходить из пессимизации всегда очень сложно и не факт, что вообще реально. То есть Вы потратили деньги, а в итоге сайта нет в выдаче. А это будет, не сомневайтесь. ПС не выгодно, чтобы сайты плодились в геометрической прогрессии, тем более, что есть своя реклама, которую тоже надо продавать как-то:) Сейчас за сайты многие не берутся, а сразу делают рекламки-визитки с последующей покупкой рекламных мест у ПС. А если сайт можно будет сгенерить на 1,000+ страниц за пару дней, то это уже проблема, ведь так можно будет не платить за рекламу, а приводить трафик из поиска.
Что касается топика, ну да, процентов 90 контента сегодняшнего в инете вполне сможет генерить машина. Но остается 10%, которые вполне распределяется между хорошими райтерами. Я работаю в англ. сегменте, причем и райтером и редактором и я вижу прекрасно вот эти 90%.
да, могут появиться другие поисковики на базе нейросеток. Но на самом деле, самим же маркетологам это не очень. Потому что проще ловить покупателя, когда он в одном пруду, чем бегать по болотам:)))
Ситуация с распознаванием признаков текстов нейросетей, будет похожа на соревнование вирусов и антивирусов. Причем распознаватель будет в роли антивируса, а значит всегда будет догоняющим, на шаг позади. Для распознавания так же нужен будет какой-то объем текста, по двум предложениям его не распознать, поэтому признак скорее всего будет накладываться сразу на сайт, который грешит этим. Но будет ли это влиять на выдачу? Поисковику нужно выдавать качественный контент и если по проведению пользователя он качественный, то зачем его понижать в выдаче, даже если он от нейросетей. Поэтому в основе выдачи будет поведенческие факторы.
Комментарий недоступен
Если у Вас сайт пессимизируют в выдаче, пусть и нагенеренный иишкой, то Вы уже будете задумываться о том, что делать дальше. Причем выходить из пессимизации всегда очень сложно и не факт, что вообще реально. То есть Вы потратили деньги, а в итоге сайта нет в выдаче. А это будет, не сомневайтесь. ПС не выгодно, чтобы сайты плодились в геометрической прогрессии, тем более, что есть своя реклама, которую тоже надо продавать как-то:) Сейчас за сайты многие не берутся, а сразу делают рекламки-визитки с последующей покупкой рекламных мест у ПС. А если сайт можно будет сгенерить на 1,000+ страниц за пару дней, то это уже проблема, ведь так можно будет не платить за рекламу, а приводить трафик из поиска.
Что касается топика, ну да, процентов 90 контента сегодняшнего в инете вполне сможет генерить машина. Но остается 10%, которые вполне распределяется между хорошими райтерами. Я работаю в англ. сегменте, причем и райтером и редактором и я вижу прекрасно вот эти 90%.
Ну и рекомендую ознакомиться с тем, как на такой контент иишный смотрит крупнейший поисковик
https://www.searchenginejournal.com/google-says-ai-generated-content-is-against-guidelines/444916/#close
да, могут появиться другие поисковики на базе нейросеток. Но на самом деле, самим же маркетологам это не очень. Потому что проще ловить покупателя, когда он в одном пруду, чем бегать по болотам:)))