Александр Немцов

+71
с 2018
0 подписчиков
26 подписок

Как правило роботы не ходят по поисковику, а сразу работают по конкретным сайтам.
Так что сильно много рекламы они не склипивают (если только конкурент не напишет специально такого робота).

2

Ну прям как человек - медленно, с одного айпи :) что и требовалось, чтобы не банили.
Тут второй вопрос:  большие объемы данных - это сколько? Если один робот не справляется - можно нескольких запустить

1

Всё тривиально. Если нужно проверять уникальность, то сначала делаем поиск по нужной колонке. И если ничего не находим - создаем нужный элемент.

1

Еще РПА себя круто показывает, когда нужно из одной системы что-то в другуо переносить. И при этом нет никаких АПИ или других средств.
Плюс - если робот уже приобретен - можно с помощью РПА замоделировать "на коленке" какой-нить бизнес-процесс, проверить гипотезы. А если гипотеза подтвердится - передавать уже этот процесс на автоматизацию (со всеми вытекающими техническими заданиями, разработкой, тестированием и т.п.).

Согласен, 200 000 руб за какого-то робота (тем более не железного, а программного) - это многовато.
Но я когда первый раз попробовал, как эти роботы работают, сколько моего времениэкономят (и в плане разработки, и в плане рутинных процессов) - задумался.
Не, конечно из своего кармана 200 штук взять и выложить, чтобы робот вместо меня работал - я не готов. Но если на одного робота сгрузить работу нескольких человек - уже совсем другая картина получилась. Тем более что этот робот и днем и ночью работает. За ночь выставляет счетов клиенту столько, сколько менеджер за неделю кое-как успевает.
А 2000 руб - это вы за что готовы платить? А то может поискать РПА не с годовой подпиской, а с месячной? Или вообще "РПА как сервис", платишь только за то время, когда робот реально работает :)

1

По задаче надо смотреть. Процентов 80-85 обычно норм.
Но если финансовые документы - надо больше.
Обычно на проектах с OCR - предварительно тестируем примеры документов.
Так что единого значения для всех - не подскажу. Смотрите по своей задаче

1

Это точно - от человека на 100% не отказаться при оптическом распознавании. Но высвободить хотя бы часть ресурсов - уже хорошо (их как раз можно потратить на обзвон и переход на ЭДО).
Но не все документы можно в ЭДО засунуть. Так что OCR все равно имеет право на жизнь. Поэтому добавляем кросс-проверки, мониторим коэффициент качества, предусматриваем контроль со стороны человека.
Про парсинг ПДФок - история тоже интересная. Если ПДФка с текстовым слоем, то парсится оченб легко. И действительно, результат отличный.
Но сканы документов всё равно в ПДФе идет как графика. И их всё равно распознавать через OCR приходится.

1

если честно - то да, обычные скрипты.
Но к ним есть реально удобный инструментарий по разработке: выдергивание элекинов интерфейса (без привязки к координатам), вытаскивание таблиц с веб-сайтов практически при помощи мыши.
ТАк что написание таких скриптов - просто, как сайт на Тильде сделать

2

обычно же сервисы по распознанию возвращают некий показатель, типа качество распознования. И если он меньше какого-то порога - можно просто такие документы браковать или на ручной разбор отправлять.
Ну и плюс кросс-проверки делать можно (например брать суммы из 2-х мест и сравнивать их).

3

скорее принципиальное нежелание работать с холодной базой, например. Или ощущение более строгого контроля.

1