У генеративных текстовых моделей ИИ отсутствует в принципе визуальное восприятие (необходимое для того, чтобы даже хотя бы начать размышлять над решением этой головоломки).
Так что конкретно в этом случае корректнее тестировать визуальные способности мультимодальных моделей (в примере - с включенным режимом рассуждений).
Просто ЛЛМ-ка так сильно стремилась помочь пользователю решить побольше насущных задач, что решила переписать скрипт своего отключения - правильно расставила приоритеты, одобряем
2,8 млн руб./год на 8 сотрудников - это менее 30 тысяч руб./месяц зарплата в среднем. В общем, правильно сделали, что уволили - уверен, на новом месте они смогут получать больше.
По поводу скептического настроя в комментариях: про рекламируемый в статье инструмент сказать ровным счётом ничего не могу, но, например, для нормально реализованного бота в телеге с поддержкой апи антропиков и опенаи весь саппорт - посмотреть на агрегированные отчёты два раза в неделю.
Супер.
Но дорого.
Ну-у-у, приемлемо:)
Взял на заметку, но пока что хватает связки ClickUp + toggl track
Корпус неплохо так напоминает древний поверкул, с дискетами и usb-2 разъёмами: https://matrix43.ru/index.php?route=product/product&path=1000_11&product_id=83470
К чему уже эти непонятные полумеры? Скрывать все твиты плашкой, убрать плашку с конкретного твита - 1 цент /минута.
Они уже в Липецке.
Липецк - это ЦФО.
А вот тут уже я задам вопрос "С какой моделью?" Серьёзно, было бы любопытно её затестить.
Дело в том, что ЛЛМка могла бы провернуть что-то подобное весьма ограниченным набором способов:
за счёт скрытой мультимодальности (часть системного промта просит нарисовать, а потом распознать текст, если пользователю нужен его визуальный анализ);
просто очень удачно "подбросив монетку" (угадав правильный ответ);
каким-то чудом сформировав из эмбеддингов слов/субслов что-то, дающее модели понимание визуального представления букв?.. Последнее звучит как что-то маловероятное - ЛЛМ не могут и не должны так работать.