Робохроники ИИ: нейросеть узнаёт, что чувствуют свинки, а нейроинтерфейсы (без Маска) успешно помогают людям

Ежемесячно команда RDL by red_mad_robot рассказывает про новости, кейсы и подходы в ИИ, которые можно переложить на нашу действительность и реально использовать. Главное за май уже здесь.

ИИ поможет узнать, что чувствуют животные

Исследователь из Вагенингенского университета (Нидерланды) разработал систему, способную распознавать эмоции сельскохозяйственных животных. Нейросеть понимает, когда, например, корова довольна, а когда её что-то беспокоит.

Робохроники ИИ: нейросеть узнаёт, что чувствуют свинки, а нейроинтерфейсы (без Маска) успешно помогают людям

Конечно, сейчас сложно говорить о безоговорочном распознавании. Даже человек может только предполагать, что чувствуют другие люди. А подобные ИИ-системы работают на основании данных, размеченных людьми, так что точность их распознавания сравнима с человеческой. То есть она весьма субъективна.

Каждый испытывает и интерпретирует эмоции по-разному, и то, как мы их выражаем, может разительно различаться в зависимости от культурных и уникальных биологических особенностей.

Как работает распознавание? Если вкратце, то за распознаванием эмоций как людей, так и животных стоит та же самая система, которая определяет, радостный или агрессивный персонаж на фотографии. Новая система обучена на наборе изображений сельскохозяйственных животных. По этим данным в режиме реального времени «считывается» эмоциональное состояние животных. По «лицу» животного программа определяет до 13 действий и 9 эмоций, в том числе агрессию и спокойствие.

Зачем это понадобилось? Основная причина — это то, что домашний скот, который живет в относительном комфорте, производит больше.

С помощью алгоритмов фермеры в режиме реального времени смогут измерить «уровень комфорта» животных. Вместо инвазивных процедур, например, отбора проб гормонов — умные камеры.

Точно узнать, что чувствуют коровы или свиньи, не получится. Но нейросеть достаточно хорошо может распознать признаки стресса, дискомфорта или боли.

Не Маском единым: ученые Стэнфорда протестировали новый нейроинтерфейс

Ученые из Стэнфордского университета с помощью нейросетей помогли парализованному мужчине написать текст.

Как это работает? Человек представляет, как он ручкой пишет слова, а нейросеть в это время интерпретирует сигналы мозга и переводит их в текст.

Для участия в эксперименте исследователи выбрали 65-летнего жителя США, чья рука была парализована из-за травмы спинного мозга. В его головной мозг были имплантировали две сенсорные матрицы, каждая из которых получала сигналы от 100 нейронов (всего в мозге около 86 миллиардов нейронов). Когда исследуемый представлял, как пишет текст на бумаге, а нейросеть анализировала его и выдавала результат.

Робохроники ИИ: нейросеть узнаёт, что чувствуют свинки, а нейроинтерфейсы (без Маска) успешно помогают людям

Исследователи отметили, что 200 нейронов хватает для достаточно точного понимания того, что именно хочет написать испытуемый.

Ноложность заключается в том, что в этом случае нет массивов данных для обучения — людям нужно было бы мысленно «написать» невероятное количество текстов. Поэтому нейросеть учат на сигналах мозга конкретного человека, поступающих во время написания букв.

Этот способ гораздо проще и быстрее ныне существующих, которые основаны на отслеживании движений глаз или головы. Он позволяет набирать до 90 символов в минуту с точностью до 94,1%. А если подключить автокорректор, то точность увеличится до 99%.

Конференция Google I/O и Microsoft Build: важное

18 мая прошла ежегодная конференция Google I/O. Отобрали главные новости, изменения и продукты.

Спросите у MUM’ы

На конференции Google показал языковую модель Multitask Unified Model (MUM). Компания утверждает, что MUM в 1000 раз мощнее BERT. Она понимает контекст запроса и может искать информацию сразу в нескольких источниках.

В качестве примера компания приводит ряд поисковых запросов, связанных с подъёмом на Фудзияму. Суть вкратце: если вы уже поднимались на какую-то гору, а теперь хотите попытать свои силы на другой, то готовиться к новому подъему, скорее всего, нужно иначе. Для того чтобы понять, что именно нужно делать, можно загуглить несколько вопросов: насколько высокая гора? что с температурой? насколько сложны пешеходные тропы? какое нужно снаряжение? И так далее.

А вот если бы вы общались с человеком, который уже бывал на Фудзи, вам достаточно было бы задать ему вопрос: «Что мне сделать, чтобы подготовиться?», — и получили бы вдумчивый ответ, учитывающий нюансы задачи, стоящей перед вами.

MUM, обученная на 75 разных языках, способна одновременно выполнить множество различных задач. Возвращаясь к примеру с Фудзи: модель понимает, что вы сравниваете горы, поэтому информация о высоте и тропинках точно имеет значение. MUM также понимает, что в контексте пеших прогулок «подготовка» может включать такие вещи, как фитнес-тренировки, а также поиск подходящего снаряжения.

Разговор с LaMDA

Языковая модель Language Model for Dialogue Applications (LaMDA) понимает контекст диалога и самостоятельно его ведет.

Как BERT (и MUM), LaMDA построена на архитектуре Transformer. Она создаёт модель, которую обучают читать много слов (например, предложение или параграф), обращать внимание на то, как эти слова соотносятся друг с другом, а затем предсказывать, какие слова, по ее мнению, будут следующими.

LaMDA пытается имитировать реального собеседника. Она способна свободно обсуждать большое количество тем, и Google считает, что эта её способность поможет открыть более естественные способы взаимодействия с технологиями.

Компания озабочена вопросами этики: уже бывали случаи, когда языковые модели «выходили из-под контроля» и отпускали расистские шутки, поддерживали геноцид, ненавидели феминисток и занимались прочими недопустимыми делами.

Поэтому, даже когда язык, на котором модель обучается, тщательно проверен, сама система всё равно может быть использована не по назначению. В случае с LaMDA исследователи пытаются минимизировать подобные риски.

Ожившие фотографии с Google Photos

С помощью нового обновления Google Photos можно будет анимировать фотографии. Для этого компания использует машинное обучение. Система предсказывает глубину изображения, даже если в нем не заложено подобной информации, и создает трёхмерное представление сцены. Затем анимирует виртуальную камеру для создания эффекта плавного панорамирования, как в кинофильмах.

Узнайте, что с вашей кожей

Google представил ИИ-инструмент для оценки состояния кожи, волос и ногтей на основе изображений, предоставленных пользователем. Алгоритм может распознать до 288 кожных заболеваний.

Чтобы проверить себя, пользователю достаточно сделать три снимка кожи, волос или ногтей с разных ракурсов. Затем ответить на несколько вопросов о своем типе кожи и о симптомах — это помогает сузить круг возможных вариантов. Модель анализирует полученную информацию, сравнивает с известными ей вариантами и выдает наиболее подходящие.

Каждый вариант сопровождается проверенной дерматологами информацией, ответами на часто задаваемые вопросы и похожими изображениями.

Инструмент использует те же методы, которые выявляют диабетическую ретинопатию или рак легких на снимках КТ. Модель учитывает возраст, пол, расу и тип кожи, что дает ей возможность помогать разным демографическим группам.

Что интересного показали на Microsoft Build 2021? В двух словах.

На конференции представили набор из шести готовых ИИ-сервисов Azure Applied AI:

  • Azure Form Recognizer распознает символы, благодаря чему ускоряет анализ документов;
  • Azure Bot позволяет командам тестировать ботов с минимальными изменениями в коде;
  • Azure Metrics Advisor определяет аномалии в продуктах и бизнес-метриках;
  • Azure Video Analyzer использует CV и автоматические субтитры для создания видеоаналитики;
  • Azure Cognitive Search упрощает поиск по документам, на сайтах, а еще анализирует собранные данные;
  • Azure Immersive Reader позволяет сделать текст легче и доступнее;

Компания планирует внедрить GPT-3 в low-code платформу для разработки Power Apps. Инструмент сможет переводить естественный язык в готовый код. И пусть пока эта функция ограничена по объёму и способна создавать формулы только в Microsoft Power Fx (это простой язык программирования, созданный на основе формул Microsoft Excel, который используется для запросов к базе данных), но потенциал ее огромен.

Microsoft расширяет инструменты для Teams: теперь в сервисе доступен мгновенный перевод и расшифровка аудио в режиме реального времени, а еще можно делиться приложениями Power Apps и ботами Power Virtual Agents.

Чтиво выходного дня

Если вдруг вы еще не видели, то в конце мая мы выпустили большой материал о трендах в сфере искусственного интеллекта в 2021 году. Если коротко, то это NLP, компьютерное зрение, «эмоциональный ИИ», беспилотники, медтех и дипфейки. А ещё в этом году много говорят о регулировании искусственного интеллекта. Свои комментарии дали эксперты «Тинькофф», «Полиметалл», red_mad_robot, «Яндекс», Lisa Device, «Сбер» и BestDoctor.

Одной строкой

Робохроники ИИ: нейросеть узнаёт, что чувствуют свинки, а нейроинтерфейсы (без Маска) успешно помогают людям
  • «Яндекс» вместе с учеными биофака МГУ, Федерального научного центра (ФНЦ) им. Мичурина, Тамбовского госуниверситета, Агроинженерного центра ВИМ создали ИИ-систему мониторинга сельхозрастений;
  • Veritone запустил ИИ-платформу, которая позволяет знаменитостям и инфлюенсерам клонировать свой голос.
  • «Сбер» показал прототип электробеспилотника «ФЛИП»;
Робохроники ИИ: нейросеть узнаёт, что чувствуют свинки, а нейроинтерфейсы (без Маска) успешно помогают людям
  • НТС («Национальные телематические системы») и «Автодор» представили интеллектуальную дорожную инфраструктуру;
  • «Яндекс» предоставил бизнесу свои беспилотники: гости отеля Cosmos Collection Izumrudny Les смогут бесплатно воспользоваться автономным такси и роботом-курьером для перемещения и доставки еды на всей территории;
Робохроники ИИ: нейросеть узнаёт, что чувствуют свинки, а нейроинтерфейсы (без Маска) успешно помогают людям
  • Германия планирует пустить беспилотники с 4-м уровнем автономности на дороги общего пользования со следующего года;
  • Стартап TuSimple осуществил тестовую беспилотную доставку арбузов из Аризоны в Техас. Грузовик преодолел 900 миль (1450 км);
  • Китайский стартап Pony.ai получил разрешение на тестовые испытания беспилотников в трех городах Калифорнии;
  • Трасса М11 «Нева» получит статус беспилотного транспортного коридора — тестовая эксплуатация грузовых беспилотников может быть запущена в следующем году.

Пара слов о регулировании

  • Росстандарт утвердил первые стандарты по искусственному интеллекту, в основном в сфере транспорта и безопасности.
  • Правозащитные организации из Франции, Австрии, Греции, Италии и Великобритании подали в суд на стартап в области распознавания лиц Clearview AI: они заявляют, что компания нарушает европейские законы конфиденциальности.

Fun AI

Российский ответ Boston Dynamics — «Ижевск Дайнемикс» от birchpunk.

1414
реклама
разместить
Начать дискуссию