Приложение Wysa для психологической помощи на основе искусственного интеллекта привлекло $5,5 млн Статьи редакции

Чат-бот Wysa может оказать оперативную поддержку или провести одну из 150 терапевтических практик.

В мае приложение для ментального здоровья Wysa привлекло $5,5 млн от бостонской W Health Ventures, инвестиционной программы Google Assistant, фондов pi Ventures и Kae Capital, сообщает Techcrunch.

В компании 60 штатных сотрудников, у приложения — около трёх млн пользователей. Приложение работает на Android и iOS, есть платная и бесплатная версии.

По словам гендиректора Джо Аггарвал, люди чаще всего заходят в Wysa, чтобы улучшить сон, снизить тревогу или исправить что-то в отношениях. «Из трёх млн человек, только 10% действительно нуждаются в медицинском диагнозе», — рассказывает Аггарвал.

Искусственный интеллект в приложении может оценить, насколько диалог соответствует признакам депрессии или тревожным расстройствам, и если обнаружит — порекомендует обратиться к врачу. Если в сообщениях есть признаки членовредительства, жестокого обращения, суицидальных мыслей, то предложит позвонить в экстренную службу.

Во время разговора Wysa сначала классифицирует утверждения пользователя, после выбирает технику и начинает разговор. Технология подбора постоянно совершенствуется, ИИ проанализировал более 100 млн разговоров.

В разработке помогают и учёные: педиатры из университета Цинциннати помогли разработать модуль для лечения тревоги из-за Covid-19. А в Вашингтонском университете продолжают исследовать, как Wysa помогает справляться с психологическими проблемами из-за хронических болей, артрита и диабета.

В 2020 году правительство Сингапура бесплатно представляло жителям страны доступ к Wysa, чтобы помочь справится с эмоциональными последствиями пандемии.

0
116 комментариев
Написать комментарий...
Sergey Furtaev

Интересно, если искуственный интеллект так "поможет" пациенту с суицидальными мыслями, что это приведёт к роскомнадзору - дело на кого заводить?

Ответить
Развернуть ветку
SGG

Вчера смотрела передачу про медбрата из США, который людям с суицидальными мыслями в чатах помогал дойти до дела, обещал вместе с ними убиться, рассказывал, как лучше сделать, просил на камеру все делать итп, представлялся молодой медсестрой, а на деле оказался жирным старым мужиком. Двоих довёл до суицида. По итогу дали всего полгода, свобода слова, имел право 🤷🏻‍♀️

Ответить
Развернуть ветку
Vasiliy Gorin
 По итогу дали всего полгода, свобода слова, имел право 🤷🏻‍♀️

Какую-то хуйню несёте, чесслово. Если бы на самом деле имели место "свобода слова" и "имел право", то и полгода не дали бы. Тупейшее противоречие. Выглядит как ваша фантазия, а не реальная история. Нужны пруфы.

Ответить
Развернуть ветку
SGG

«Свобода слова, имел право» - тактика адвоката подсудимого, суд на неё не провелся, но и приговор имхо был излишне мягкий. 

Если интересно, вот про это дело, тут оказывается было продолжение и по итогу приговор сперва отменили, а потом дали условное. Я смотрела расследование, которое заканчивалось на первом приговоре.
https://ru.m.wikipedia.org/wiki/Мелкерт-Динкель,_Уильям_Фрэнсис

Ответить
Развернуть ветку
SGG

Вот тут гораздо больше информации:
https://en.m.wikipedia.org/wiki/William_Francis_Melchert-Dinkel

Про свободу слова:
The high court held that the Minnesota statute under which Melchert-Dinkel had been convicted was unconstitutional in part. The court held that merely advising or encouraging suicide was speech protected by the First Amendment of the U.S. Constitution, and that those prohibitions were unconstitutional. It went on to hold, however, that speech which actually assisted a suicide was not protected.

П. С. Первый ответ не стала удалять и изменять, пусть тоже остаётся. Как по мне, интересное и нестандартное дело и наказание должно было быть строже для таких подстрекателей

Ответить
Развернуть ветку
113 комментариев
Раскрывать всегда