Интеллект в ИИ: как Interhuman AI учит машины понимать человеческие эмоции
Иногда кажется, что самые большие пробелы в ИИ сегодня не про вычислительные мощности, а про отсутствие понимания мелочей человеческой коммуникации. Жесты, паузы, тональность голоса - всё то, что мы считываем автоматически.
Interhuman AI как раз работает над этим слоем социальной чувствительности для LLMs. Их идея проста: научить модели реагировать не только на текст, но и на невербальный фон вокруг - от выражения лица до смены интонации. На языке технологий это выглядит как комбинация computer vision, аудиоанализа и поведенческих паттернов, упакованных в API, который можно подключить к любому ИИ‑решению.
• Компания из Копенгагена закрыла раунд на €2 млн.
• Инвесторы - PSV Tech, EIFO, Antler, The Yope Foundation и ангельская сеть Ada Ventures.
• Фокус исследований - real‑time адаптация: система должна «читать пространство» и адаптировать ответ мгновенно.
• Потенциальные применения - digital health, обучение, продажи, клиентский сервис.
Большинство LLM до сих пор остаются "плоскими" - они реагируют только на текстовый поток. Добавление social intelligence может превратить эти системы из ответчиков по скрипту в настоящих собеседников, учитывающих контекст.
Подписывайтесь на Telegram Сергей Булаев AI 🤖.