Исследователи создают нейросеть, которая позволит понимать язык животных

Расскажу, о чем речь, почему это непросто и главное — зачем это вообще нужно.

<a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.axios.com%2F2024%2F12%2F28%2Fusing-ai-to-talk-to-animals&postId=1737542" rel="nofollow noreferrer noopener" target="_blank">Источник</a>
33

Google делает ставку на мощный рывок Gemini в 2025 году

Такое заявление было сделано на недавнем внутреннем стратегическом совещании, с праздничными свитерами. Расскажу, почему на это стоит обратить внимание.

<a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.androidauthority.com%2Fgoogle2025-gemini-plans-3511805%2F&postId=1736411" rel="nofollow noreferrer noopener" target="_blank">Источник</a>
1111
11

GraphRAG: Повышение точности и полноты GenAI

GraphRAG предоставляет «граф знаний» LLM. В отличие от текстовых документов, эти структуры данных четко отображают взаимосвязи между объектами.

GraphRAG: Повышение точности и полноты GenAI
11

Законы масштабирования – архитектура O1 Pro // Инфраструктура синтетических данных, RLAIF, токеномика вычислений

Законы масштабирования – архитектура O1 Pro // Инфраструктура синтетических данных, RLAIF, токеномика вычислений

С каждым днем растут страхи и сомнения относительно законов масштабирования ИИ. Большинство предсказателей отрасли ИИ утверждают об окончании законов масштабирования, которые за последние несколько лет привели к мгновенному улучшению возможностей крупных языковых моделей (LLM). К ним присоединились журналисты, вооружившись неопределенной информацие…

11

Будущее LLM: 7 прогнозов на 2025 год

Будущее LLM: 7 прогнозов на 2025 год

Языковые модели, или LLM, продолжают впечатлять своим развитием. Технологии становятся умнее, их возможности шире, а применение в бизнесе и жизни — еще полезнее. В 2024 году LLM обрели зрение и память, получили доступ к актуальной информации и подтянули знания в кодинге. Чего ожидать от 2025 года? Собрал наиболее правдоподобные прогнозы и добавил с…

Конец больших данных или как будут обучаться нейромодели

Вы наверняка слышали, что для нейроне нужны большие данные, и этих данных постоянно нет: или недоступны по причине авторского права, или их тяжело добыть и обработать. А развиваться нужно. Так как быть? Лучше умы думают об этом, и И.Суцкевер (один из ведущих разработчиков искусственного интеллекта и со-основатель OpenAI) предлагает свой любопытный…

Илья Суцкевер сравнивает масштабирование систем ИИ и эволюционную биологию. <a href="https://api.vc.ru/v2.8/redirect?to=https%3A%2F%2Fwww.theverge.com%2F2024%2F12%2F13%2F24320811%2Fwhat-ilya-sutskever-sees-openai-model-data-training&postId=1720318" rel="nofollow noreferrer noopener" target="_blank">Источник</a><br />
22
11

Лучшие большие языковые модели в ноябре 2024 г

Лучшие большие языковые модели в ноябре 2024 г

В ноябре в ТОП-10 в «LLM Benchmark» произошло много изменений. Также произошли некоторые изменения в том, как мы создаем продукты на основе LLM. Давайте приступим.

11
11

Оценка RAG: Полное руководство по модульному тестированию RAG в CI/CD

Оценка RAG: Полное руководство по модульному тестированию RAG в CI/CD

Генерация дополненного извлечения (RAG) стала самым популярным способом предоставления LLM дополнительного контекста для создания адаптированных выходных данных. Это отлично подходит для приложений LLM, таких как чат-боты или агенты ИИ, поскольку RAG предоставляет пользователям гораздо более контекстуальный опыт, выходящий за рамки данных, на котор…

22

Любопытное пополнение в языковых моделях. Phi-4 с очень приличными характеристиками.

Любопытное пополнение в языковых моделях. Phi-4 с очень приличными характеристиками.

Главная особенность Phi-4 заключается в том, что она создана с использованием высококачественных, синтетических данных, сформированных с помощью многоагентных рабочих процессов и механизмов саморедактирования. Это позволяет модели глубже понимать задачи и более точно отвечать на сложные вопросы.

Сможет ли ИИ принять правильное решение? Ответы нейросетей на моральные вызовы

Сможет ли ИИ принять правильное решение? Ответы нейросетей на моральные вызовы

Нейросети научились писать симфонию и превращать холсты в шедевры. Они умеют даже чувствовать и сопереживать. Если попросить ChatGPT написать грустный стих или весело описать процесс теплообмена — справится быстро не хуже профессионального поэта. А вот умение искусственного интеллекта решать моральные дилеммы и логические задачи пока под вопросом.…

33

DeepSeek-V2.5-1210: файнтюн базовой DeepSeek-V2.5.

Файнтюн модели DeepSeek-V2.5 с 236 млрд. параметров с улучшенными показателями в математических вычислениях, программировании, генерации текста и рассуждении. В модели также оптимизированы функции загрузки файлов и обобщения веб-страниц.

DeepSeek-V2.5-1210: файнтюн базовой DeepSeek-V2.5.

5 лучших фреймворков с открытым исходным кодом для оценки больших языковых моделей (LLM) в 2024 году

5 лучших фреймворков с открытым исходным кодом для оценки больших языковых моделей (LLM) в 2024 году

«У меня такое чувство, что решений для оценки LLM больше, чем проблем, связанных с их оценкой», — сказал Дилан, руководитель отдела ИИ в компании из списка Fortune 500.

11

Руководство для начинающих по оценке конвейеров RAG с использованием RAGAS

В постоянно развивающемся мире машинного обучения и искусственного интеллекта разработка приложений языковых моделей, в частности систем генерации дополненного извлечения (RAG), становится все более сложной. Однако настоящая проблема возникает не во время первоначального создания, а при постоянном обслуживании и улучшении этих приложений. Именно зд…

Руководство для начинающих по оценке конвейеров RAG с использованием RAGAS

Оценка приложений RAG с помощью RAGA

Фреймворк с метриками и данными, сгенерированными LLM, для оценки производительности конвейера с дополненной генерацией данных.

Стилизованная панель мониторинга производительности для расширенной генерации данных.

Генерация дополненного извлечения (RAG): от теории к реализации LangChain

От теории из оригинальной академической статьи до ее реализации на Python с OpenAI, Weaviate и LangChain

Рабочий процесс генерации дополненного извлечения

Полное руководство по оценке компонентов системы RAG: что необходимо знать

Системы дополненной генерации (RAG) были разработаны для улучшения качества ответа крупной языковой модели (LLM). Когда пользователь отправляет запрос, система RAG извлекает релевантную информацию из векторной базы данных и передает ее в LLM в качестве контекста. Затем LLM использует этот контекст для генерации ответа для пользователя. Этот процесс…

Полное руководство по оценке компонентов системы RAG: что необходимо знать

Сравнение бенчмарков LLM для разработки программного обеспечения

Сравнение бенчмарков LLM для разработки программного обеспечения

В этой статье мы сравним различные бенчмарки, которые помогают ранжировать крупные языковые модели для задач разработки программного обеспечения.

11

Оценка LLM: комплексные оценщики и фреймворки оценки

Оценка LLM: комплексные оценщики и фреймворки оценки

В этой статье подробно описываются сложные статистические и предметно-ориентированные оценщики, которые можно использовать для оценки производительности крупных языковых моделей. В ней также рассматриваются наиболее широко используемые фреймворки оценки LLM, которые помогут вам начать оценивать производительность модели.

Как оценивается поэзия, созданная искусственным интеллектом?

Могут ли люди отличить созданные ИИ стихи от "человеческих"? Чьи словесные произведения оцениваются выше - "людские" или нейронные? Есть ли предвзятость в оценках? Уверяю, ответы вас удивят.



Рисунок 4. Оценки по четырем факторам для стихотворений, созданных искусственным интеллектом и написанных человеком.
22

Как оценить LLM модель

Как оценить LLM модель

В одном из прошлых блогов я представил концепцию тестирования крупных языковых моделей (LLM). Однако тестирование крупных языковых моделей (LLM) - достаточно сложная тема, которая требует дальнейшего изучения. Существует несколько соображений относительно тестирования моделей машинного обучения и, в частности, LLM, которые необходимо учитывать при…

Оценка LLM: метрики, фреймворки и лучшие практики

Оценка LLM: метрики, фреймворки и лучшие практики

Дженсен Хуанг в своем выступлении на саммите «Data+AI» сказал: «Генеративный ИИ есть везде, в любой отрасли. Если в вашей отрасли еще нет генеративных ИИ, значит вы просто не обращали внимания на это».

Краткий обзор LLM бенчмарков

Краткий обзор LLM бенчмарков

Когда мы говорим о бенчмаркинге LLM в какой-то предметной области, то имеем в виду две разные концепции: бенчмарки моделей LLM и бенчмарки систем LLM. Бенчмаркинг моделей LLM заключается в сравнении базовых моделей общего назначения (например, GPT, Mistral, Llama, Gemini, Claude и так далее). Нам не следует вкладывать ресурсы в их сравнение, потому…

Как оценить качество LLM модели

Как оценить качество LLM модели

В этой статье мы представим общий обзор текущего состояния исследований оценок LLM, а также расскажем о некоторых опенсорсных реализациях в этой области. Из этого поста вы узнаете:

11

Полный гид по бенчмаркам LLM

Полный гид по бенчмаркам LLM

В этом посте мы представим подробный каталог бенчмарков, разбитый на категории по сложности, динамике, целям оценки, спецификациям конечных задач и типам рисков. Понимание их различий поможет вам разобраться в бенчмарках LLM в условиях их стремительного развития.

Fine-tuning больших языковых моделей в 2024 году

Fine-tuning больших языковых моделей в 2024 году

Не секрет, что большие языковые модели (LLM) эволюционируют с безумной скоростью и привлекают внимание всей отрасли генеративного ИИ. Корпорации не просто заинтригованы, они одержимы LLM, и в частности, потенциалом fine-tuning LLM. В исследования и разработку LLM сейчас вкладываются миллиарды долларов. Лидеры отрасли и энтузиасты технологий всё сил…

Supervised Fine-Tuning: как настроить LLM под конкретную задачу?

Supervised Fine-Tuning: как настроить LLM под конкретную задачу?

Пожалуй, для адаптации больших языковых моделей (large language model, LLM) под чётко очерченные задачи обработки естественного языка (natural language processing, NLP) нет технологии лучше, чем SFT (supervised fine-tuning). Для дообучения модели её необходимо предварительно обучить, а это означает, что она уже многому научилась из широкого спектра…

Как с помощью supervised fine-tuning кастомизировать LLM

Как с помощью supervised fine-tuning кастомизировать LLM

В быстро развивающейся сфере Natural Language Processing (NLP) fine-tuning стал мощным и эффективным инструментом адаптации предварительно обученных больших языковых моделей (Large Language Model, LLM) под конкретные задачи. Предварительно обученные LLM (например, семейство GPT) продемонстрировали существенный прогресс в понимании и генерации языка…

Что такое supervised fine-tuning?

Supervised fine-tuning (SFT) — это методика, применяемая для адаптации предварительно обученных Large Language Model (LLM) под конкретную задачу при помощи размеченных данных.

Что такое supervised fine-tuning?

Самые популярные LLM бенчмарки

Самые популярные LLM бенчмарки

Бенчмарки LLM помогают оценивать точность больших языковых моделей, обеспечивая стандартизированную процедуру измерения метрик выполнения различных задач.

ChatGPT хорошо умеет обманывать

ChatGPT хорошо умеет обманывать

OpenAI разработала новый бенчмарк SimpleQA для оценки достоверности ответов больших языковых моделей (LLM). Результаты, мягко говоря, неутешительные. Даже самые продвинутые модели демонстрируют удручающе низкую точность.

11

⚡️ Mistral AI представила новые модели 3B и 8B.

⚡️ Mistral AI представила новые модели 3B и 8B.

INTELLECT-1: первая коллективная децентрализованная тренировка модели с 10 млрд. параметров.

INTELLECT-1: первая коллективная децентрализованная тренировка модели с 10 млрд. параметров.

Qwen 2.5 и DeepSeek 2.5: новые лидеры среди локальных моделей

Qwen 2.5 и DeepSeek 2.5: новые лидеры среди локальных моделей

Sony и AI Singapore объединились для создании новой LLM “Морской котик” (SEA-LION LLM)

“Пионеры” изобретений будущего Sony Research объявили о коллаборации с AISG для разработки модели с улучшенным пониманием языков.

Sony и AI Singapore объединились для создании новой LLM “Морской котик” (SEA-LION LLM)
11

Новая LLM от OpenAI: Прорыв или разочарование?

Новая LLM от OpenAI: Прорыв или разочарование?
11

Преимущества Tesla H100 в ML

Меня зовут Руслан, я инженер-программист, автор YouTube канала Ruslan Dev, специализируюсь на облачных вычислениях и машинном обучении. В этом кейсе я расскажу о своем опыте разработки больших языковых моделей (LLM). Так как один из самых передовых графических процессоров Н100 стоит как крыло самолета, я арендовал ее через облачный сервис immers.cl…

22

Как дообучать LLM с помощью Supervised Fine-Tuning

Как дообучать LLM с помощью Supervised Fine-Tuning
11

Вышла новая опенсорс модель Llama 3 Reflection 70 превосходит, Claude 3.5 Sonnet и GPT-4o.

Вышла новая опенсорс модель Llama 3 Reflection 70 превосходит, Claude 3.5 Sonnet и GPT-4o.

Почему Llama 3.1 - лучшая открытая нейросеть

В последние месяцы выходит большое количество нейросетей, но только небольшое количество из них заслуживает внимания. Сегодня поговорим о нейросети *Meta Lama 3.1 (признана в РФ экстремистской организацией и запрещена).

22

Command R+ обгоняет Qwen2: чем хороша LLM от Cohere?

Сегодня рассмотрим, на что способна LLM Command R+ и чем она может быть вам полезна (спойлер: Command R+ очень и очень перспективна).

Command R+ обгоняет Qwen2: чем хороша LLM от Cohere?

Llama 3.1 и Mistral Large 2

В прошлом месяце вышли две интересных модели - Llama 3.1, улучшенная версия Llama 3, и Mistral Large 2.

Новая LLM Suite меняет финансовую сферу

“Думайте о LLM Suite как об аналитике-исследователе, который может предложить информацию, решения и советы по определенной теме”.

Новая LLM Suite меняет финансовую сферу