Недавно был случай, когда у меня ребёнок лизнул краситель для эпоксидной смолы. На банке не было состава, я знала только цвет. Открыла Upgraide и написала ему, притом так эмоционально и прямо, потому что волновалась: «краситель для эпоксидной смолы такого-то цвета, я не знаю состав, ребёнок такого-то возраста лизнул. Оцени, насколько это опасно». Буквально за несколько секунд пришла полная оценка всех видов красителей, которые используются для эпоксидной смолы. Именно этого цвета, насколько они токсичны, какие они могут вызвать реакции у организма, насколько опасны, и насколько срочно мне надо бежать к врачу или можно успокоиться. Плюс ещё и выразил эмоциональную поддержку. Типа, «не волнуйтесь, вы хорошая мама, выдохните». Даже в бытовом плане это огонь, потому что загуглить это или звонить врачу (который, возможно, не компетентен) — значит, терять время на спасение.
Попробую сформулировать. В рамках SEO мне важно получать данные о связях слов в рамках естественного языка - с каким-то скорингом, и желательно - в графическом виде. С такими задачами я худо-бедно справлюсь средствами Python, но хотелось бы упростить процессы и передать их машине в большем объёме.
Кроме того, то, как справляется с этим тот же Claude AI - непрозрачно и достаточно узко по функционалу. В ряде случаев нужно оценить семантику по каким-то внешним источникам (файлам или URL) и чётко понимать, какие критерии/алгоритмы были использованы.
Виктор, добрый день! Передал ваш комментарий апгрейду и спросил, чем он может помочь. От себя добавлю: нейросети у нас могут анализировать файлы и выдавать по ним результаты, плюс не забывать, что в них, даже если вы спросите об этом файле через пару дней. Также всегда можно попросить объяснить, с помощью каких алгоритмов проведена работа. И вот Opus еще вызывается построить графы. Честно, я иногда и сам думаю, что нейросеть может с чем-то не справиться, потому что это сложно, но пара попыток и правильных промптов, и вуаля — задача решена и автоматизирована, я уже не убиваю на нее полдня. Спасибо за комментарий, кейс правда интересный. Пришлю вам промокод в личные сообщения :)
В разы быстрее стал справляться с любой бюрократией, больше не боюсь белых листов вообщем) gpt4-omni, конечно, крутая для моих задачек рутинных, запоминает контекст очень надолго. До этого опусом пользовался, но впн достало подрубать постоянно...
Gregory, привет! Мне тоже нравится, как нейросети справляются с бюрократией) Приведу пример из жизни: надо было быстро заполнить документы на не туристическую визу, а я не мог разобраться в кодификаторе. Какой-то вид был уже упразднен, но все еще приводился на сайте посольства как действующий. Написал в чат апгрейда: тип такая-то ситуация, въезд планирую по этой причине, какой из трех вариантов кодификатора больше подходит. Апгрейд и разницу между ними объяснил, и нужный мне вид подобрал за пару минут. Без него сидел уже 15 минут и сам гадал, пытался нагуглить :)
ChatGPT 4o может генерировать код полностью, я пытался использовать для создания базовых классов (работаю на Unreal Engine). И если с генерацией кода (рабочего) у нейросети проблем нет, то вот с решением задачи оптимальным путём проблемы есть, не на уровне кода, а на уровне движка, например, при процедурной генерации вексельного мира (как в «Майнкрафте»), нейросеть генерирует каждый воксель как отдельный класс, что сильно бы грузило систему, вместо того чтобы представлять все воксели как массив в классе — генераторе этих векселей (что было заданно в промте), также в решении от нейросети отрисовывались даже те грани, которые было бы не видно. Однако, если чётко указать в промте, как надо сделать, решение будет чётко по промту.
Задача под SEO. В частности написания текстов для страниц услуг коммерческих текстов.
1. Создание ТЗ для копирайтера, которое будет включать в себя объем текста, использование фраз в точном и любом вхождении. Список фраз создается в программах.
2. Написание текста по данному ТЗ.
На данный момент происходит так:
1. ТЗ составляет сервис на основании спаршенных сайтов по указанным фразам из ТОП-10. К сожалению, многие сайты ставят блокировку на сервисы и получается, что на анализ погут поступать 3-4 сайта, что мало.
2. Текст пишется поэтапно. Для начала запрашивается у ИИ структура текста. Далее по каждому пункту отдельно пишется блок текста, используя коррекционные промпты и ограничения (а-ля "не используй назойливые перечисления, не используй слова из маркетингового лексикона").
3. Блоки текста объединяются и далее внедряются фразы в прямом вхождении и любом вхождении. Удаляются частые применения слов.
Вот хотелось бы сократить порядок действий и по максимуму автоматизировать.
Видимо задача не по зубам