Сейчас расскажу вам про одну штуку, которая здорово улучшила качество работы ИИ. Это обучение с подкреплением на основе обратной связи от человека (Reinforcement Learning from Human Feedback). То есть, вы поправляете ИИ, и он запоминает, где и как вы его поправили, чтобы реже делать такие ошибки в будущем. Или вы хвалите ИИ, и он запоминает, что ва…
В продолжение темы об агентах, поговорим сегодня о том, как ИИ можно использовать в науке. В августе этого года вышла статья «The AI Scientist: Towards Fully Automated Open-Ended Scientific Discovery» («ИИ-ученый: на пути к полностью автоматизированным и неограниченным научным открытиям»). Авторы выложили свой код в открытый доступ, к нему тоже мож…
Сегодня будет пост на тему, которая уже некоторое время занимает мои мысли. Я исследую ИИ-агентов, экспериментирую с созданием агентных систем и пишу про них у себя в телеграме. Вот подборка постов, которые помогут вам получить больше контекста:
А давайте поговорим о современных рекомендательных алгоритмах. SEO было, разведочный поиск был. Рекомендательные алгоритмы уже сам Бог велел.Важное замечание: у компаний, которые зарабатывают на рекомендательных алгоритмах, нет особенно мотивации все о них рассказывать. Кое о чем можно судить по косвенным признакам, кое-что есть в открытых данных,…
У меня в телеграме недавно вышел важный пост про сохранность данных при работе с большими языковыми моделями. Предлагаю заглянуть.А сегодня поговорим об использовании ИИ в оптимизации для поисковых систем (Search engine optimization, SEO). Эта тема может быть полезна маркетологам, SMM-специалистам и вообще всем, кто взаимодействует с соцсетями, пои…
Модели пост.Сегодня хочу рассказать про первую языковую модель, с которой мне довелось познакомиться – BERT. Семья у этой модели большая, и используют ее много где, хотя по ряду параметров она уступает современным лидерам (GPT, Llama, Claude, PaLM и другим).Некоторые специалисты даже не относят BERT к большим языковым моделям. Во-первых, она значит…
Некоторое время назад был у меня пост про обработку изображений сверточными нейронными сетями. Там я писала, что сверточные нейросети постепенно вытесняются трансформерами (но пока не сдаются).Сегодня поговорим о том, как именно устроены трансформеры для работы с изображениями.
Сегодня сделаем перерыв в обсуждении нейросетей, наконец, и поговорим о нас, о людях. Если точнее – о том, как работает (или не работает) наша память.Вы сидите в кофейне. Или дома на диване, или у друга на даче – не важно. Вы сидите с другом где-нибудь и вспоминаете старые добрые времена, когда трава была зеленее, солнце ярче, колени не болели и вс…
Я веду блог (а вы и не заметили, не правда ли?) и, конечно, мне хочется, чтобы мои посты прочитало побольше людей (иначе я бы читала статьи сама себе и не лезла бы в Интернет, очевидно). По статистике просмотров я вижу, что посты про отдельные модели, кажется, вызывают не так уж много интереса, однако это ровно то, что мне больше всего хочется иссл…
Мне хотелось к этому посту придумать кликбейтный заголовок в духе «Оно живое!», но что есть, то есть. Зато содержание в самом деле интересное: сегодня поговорим о том, как модели учатся использовать инструменты. В основе поста статья «Toolformer: Language Models Can Teach Themselves to Use Tools» («Toolformer: Модели могут научиться использовать ин…
Сегодня снова будет пост про обучение ИИ. Похожую тему мы обсуждали в посте про GPT, там речь шла о том, что модель, обученную на большом массиве данных, можно дообучить на меньшем массиве для решения конкретной задачи (например, натренировать на большом массиве разных изображений, а потом учить находить на изображении кошку). Теперь мы будем обсуж…
Мета выпустила новую версию своей большой языковой модели – Llama. Отличный повод ее обсудить, я считаю. Полную и подробную информацию можно найти здесь, из первых рук, так сказать. Статья с подробным описанием процесса обучения, тестирования и других технических подробностей доступна здесь.Очень хороший обзор также сделал автор подкаста Super Data…