Исследование: человечество неправильно обучает ИИ — большинство моделей не работают в реальном мире

К такому выводу пришли 40 исследователей из Google. Почему за границами лабораторий модели машинного обучения не оправдывают себя — в конспекте материала MIT Technology Review.

Результаты стресс-теста 50 различных моделей машинного обучения при одинаковых условиях
1212

В чем проблема объединить все "обученные" модели в одном "коллективом ИИ", либо перенаправить их персональные выводы на анализ "головному ИИ" задача которого собирать, анализировать и выдавать требуемые результаты? 

дело не во внутренних моделях, а во соответствии с проверкой к внешнему реальному условию.
Ты думаешь что надо лишь больше данных напихать - а это принципиально не так.

Тут смысл в самом принципе и методе оцифровки информации, и желательно применение векторной логики.
Новая плоскость анализа... а не впихивание в текущую плоскость чего-то дополнительного.