Идея то не плохая. Но я бы всё равно парсил отдельно всё чтобы сделать наиболее полный список минус-слов. А чтобы ускорить процесс нужно закупиться 10-20 проксями и аккаунтами директа.
Павел, суть нашего метода как раз в том, что список минусов получается более полным, чем при классическом подходе.
Прокси и аккаунты если и ускорят процесс, то незначительно.
Плюс важный момент. Если очень глубоко парсить весь базис, может получится грязная семантика из многих сотен тысяч запросов, чистить их крайне муторно. В нашем случае даже в "жирных" нишах достаточно обработать несколько тысяч (может 10-15 максимум). Иначе говоря, объем парсинга и чистки уменьшается в десятки раз, а качество от этого не просто не страдает, а во многих случаях только улучшается.
Идея то не плохая. Но я бы всё равно парсил отдельно всё чтобы сделать наиболее полный список минус-слов. А чтобы ускорить процесс нужно закупиться 10-20 проксями и аккаунтами директа.
Павел, суть нашего метода как раз в том, что список минусов получается более полным, чем при классическом подходе.
Прокси и аккаунты если и ускорят процесс, то незначительно.
Плюс важный момент. Если очень глубоко парсить весь базис, может получится грязная семантика из многих сотен тысяч запросов, чистить их крайне муторно. В нашем случае даже в "жирных" нишах достаточно обработать несколько тысяч (может 10-15 максимум). Иначе говоря, объем парсинга и чистки уменьшается в десятки раз, а качество от этого не просто не страдает, а во многих случаях только улучшается.
Это не просто утверждение, мы проверяли.