{"id":14268,"url":"\/distributions\/14268\/click?bit=1&hash=1e3309842e8b07895e75261917827295839cd5d4d57d48f0ca524f3f535a7946","title":"\u0420\u0430\u0437\u0440\u0435\u0448\u0430\u0442\u044c \u0441\u043e\u0442\u0440\u0443\u0434\u043d\u0438\u043a\u0430\u043c \u0438\u0433\u0440\u0430\u0442\u044c \u043d\u0430 \u0440\u0430\u0431\u043e\u0447\u0435\u043c \u043c\u0435\u0441\u0442\u0435 \u044d\u0444\u0444\u0435\u043a\u0442\u0438\u0432\u043d\u043e?","buttonText":"\u0423\u0437\u043d\u0430\u0442\u044c","imageUuid":"f71e1caf-7964-5525-98be-104bb436cb54"}

Грядущие перемены в Facebook, часть вторая

Aitarget, официальный маркетинговый партнёр Facebook, разбирает ключевые объявления второго дня конференции F8 2019.

Эксперты Aitarget присоединились к разработчикам, создателям и предпринимателям со всего мира в Сан-Хосе 30 апреля и 1 мая в рамках F8, ежегодной двухдневной конференции Facebook. Более 5000 человек исследовали будущее технологий и новейших инструментов для создания и развития бизнеса.

Мы рассказали об общих комментариях основателя и генерального директора Facebook Марка Цукерберга о будущем социальной сети, ориентированном на конфиденциальность, в первой части.

Во второй день F8 2019 акцент сместился на технологии, особенно долгосрочные инвестиции, которые Facebook делает в искусственный интеллект (AI), дополненную и виртуальную реальности (AR и VR).

Спикеры говорили об итогах быстрого прогресса, достигнутого в последние годы, и о будущем, которое строится на высокотехнологичных разработках.

Ответственные инновации

Майк Шрёпфер, технический директор Facebook, начал выступление с простой истины о неправомерном использовании социальных сетей.

Я всё так же оптимистично смотрю в будущее, как и раньше... Это правда, что мы — и я — извлекли много действительно сложных уроков за последние несколько лет, и эти уроки коренным образом изменили то, как мы разрабатываем и создаём новые технологии.

Они заставили нас осознать не только удивительные блага, которые стоят за нашими технологиями, но и зло, непредвиденные последствия, и то, как люди могут злоупотреблять этими новыми технологиями.

Майк Шрёпфер, технический директор Facebook

Майк Шрёпфер признал: несмотря на то что проблема ясна, есть комплексные трудности, связанные с вмешательством на выборах, дезинформацией и разжиганием ненависти, и решения непросты. Ему, как и всем, хотелось бы получить ясную инструкцию из трёх шагов, как решить эту проблему разом, но так не бывает.

Вместо этого Facebook посвятил себя постоянному решению подобных проблем на ежедневной основе. В каждой команде разработчиков конкретного продукта есть специальная группа, которая занимается конкретными проблемами именно этого продукта. Разработчики новых функций работают бок о бок с теми, кто исследует потенциальные недостатки.

По словам Шрёпфера, Facebook стремится сотрудничать с признанными экспертами на каждом этапе создания новых продуктов и функций, привлекая «целый ряд организаций по каждому ключевому вопросу». Например, для предотвращения самоубийств они работают вместе с известной в Америке организацией SAVE.

Технический директор продемонстрировал трудности, с которыми сталкивается команда по борьбе с проблемным контентом. Он показал аудитории F8 2019 две фотографии. На одной были жареные в кляре брокколи, а на другой — марихуана. Шрёпфер предложил выбрать, что было изображено на каждом снимке.

Пять лет назад Facebook был способен находить контент, связанный с наркотиками, только по ключевым словам в тексте. Развитие компьютерного зрения дало возможность определять его на изображениях — задание, с которым едва ли справилась аудитория. Теперь AI может обнаруживать даже упакованные наркотики, подобные тем, что изображены на фото справа.

Это подтверждает прогресс, достигнутый AI в последние годы, по выявлению подобных проблем проактивно (то есть до того, как пользователи пожалуются на недобросовестные посты и комментарии).

Найти и уничтожить

Сейчас Facebook продолжает работать над технологией искусственного интеллекта, которая при минимальном контроле со стороны человека выявляет контент, нарушающий политику платформы.

Разработка подобных инструментов — это сложная задача, особенно когда приходится работать против тех, кто активно пытается обойти защиту. По словам Майка Шрёпфера, общая цель может быть обозначена так: «Уменьшать распространение, проактивно принимая меры против нарушающего контента, совершая минимум ошибок».

Манохар Палури из группы искусственного интеллекта Facebook рассказал о том, как на основе технологий по обработке естественного языка (NLP) был создан общий цифровой язык, чтобы отсеивать вредоносный контент на разных языках.

Благодаря новой системе распознавания объектов Panoptic FPN, сеть научилась понимать контекст на фоне фотографий. Всё это помогает активно отфильтровывать проблемный контент в любом медийном формате в социальных сетях, будь то текст, изображение или видео.

Палури начал свою речь, заявив, что сегодня «Facebook не может существовать без искусственного интеллекта», а закончил тем, что сам AI должен научиться понимать контент при минимальном вмешательстве человека.

Справедливость и инклюзивность

Хоакин Квинонеро Кандела из группы искусственного интеллекта Facebook отметил: наряду с тем, что AI — важное средство обеспечения безопасности Facebook, он также несёт риски проецирования и роста предвзятости.

Чтобы бороться с предвзятостью и быть уверенным, что AI защищает и не дискриминирует пользователей, Facebook внедряет новые методы на каждом этапе разработки продукта.

Новый инклюзивный процесс искусственного интеллекта используется командами разработчиков во всём Facebook, чтобы гарантировать обучение AI на данных людей любого возраста, пола и внешнего вида.

Кандела рассказал о том, что справедливость — это процесс, и представил свою коллегу Маргарет Стюарт, вице-президента по дизайну продуктов Facebook. Она рассказала о решении сложных этических вопросов в дизайне, человеческой стороне ответственных инноваций и о том, как дизайн интерфейсов социальных сетей может влиять на общество — в хорошую и в плохую сторону.

Дизайн не нейтрален, им нужно управлять с особой осторожностью.

Маргарет Стюарт, вице-президент по дизайну продуктов Facebook

Facebook использует дизайн, чтобы снизить вред от дезинформации, оставаясь на стороне свободы самовыражения. Однако это не всегда работает напрямую. Например, когда команда Стюарт сотрудничала со специалистами по фактчекингу, чтобы маркировать сомнительный контент, они обнаружили, что добились противоположного эффекта: такой материал стал привлекать больше внимания.

Исследования показали, что люди во всём мире хотят сами для себя решать, какая информация заслуживает доверия, поэтому Facebook создал новые инструменты для определения надёжности источника. У каждой статьи, которая появляется в новостных лентах пользователей, теперь есть кнопка контекста (она показывает, кто опубликовал эту статью, сколько времени она была в Facebook, связанные статьи по источнику и теме, и даже статистику того, кто ей поделился).

Вопрос достоверности информации настолько важен для Facebook, что они сделали анимацию новой кнопки, хотя с точки зрения дизайна это создаёт ненужный визуальный шум. «Это отображение наших ценностей в дизайне», — говорит Стюарт.

Стюарт также рассказала о том, как изменился подход Facebook к работе с аккаунтами пользователей после их смерти. Учитывая различия в культурах разных народов, компания до сих пор пытается сбалансировать безопасность и желание семьи, близких и друзей всё ещё хранить память о любимом человеке.

Так была добавлена новая вкладка Tributes, отдельная от оригинальной новостной ленты, чтобы друзья и близкие умершего могли собираться вместе и делиться воспоминаниями.

Безопасные и уважительные AR и VR

Ладе Обамехинти из команды разработчиков AR/VR в Facebook рассказала, как инклюзивный процесс искусственного интеллекта используется инженерами Spark AR, чтобы обеспечить качество AR-эффектов для всех людей. Например, он может распознавать разные оттенки кожи рук при различном освещении.

Facebook стремится к тому, чтобы их технология не только не исключала, но и объединяла людей. VR позволяет пользователям взаимодействовать независимо от физического расстояния, но важнее обеспечить им полное присутствие.

Прежде чем мы начнём доставку продукта, нам необходимо убедиться, что мы ответили на ключевые вопросы конфиденциальности и безопасности. Один из таких вопросов — мы должны быть уверены в аутентичности аватара.

Рональд Маллетт, менеджер по исследованиям команды AR/VR Facebook

Facebook работает над аватарами, которые помогали бы идентифицировать персональные особенности личности с присущими только ей жестами, мимикой и тоном голоса, поскольку именно они обеспечивают уникальность коммуникации между людьми.

AR и VR должны быть инклюзивными и безопасными, поэтому Facebook создал превентивные системы. Например, кодекс поведения как для пользователей, так и для создателей VR-продуктов. Он способствует росту уважения и взаимодействия. Также были созданы инструменты реагирования на сообщения о нарушениях.

Линдсей Янг, менеджер по продукции Oculus VR, подытожила выступление команды VR.

Мы верим, что VR — это следующий инновационный рубеж человеческого взаимодействия. Поэтому это та область, в которой мы должны быть невероятно внимательны при разработке. В VR есть огромный потенциал, но он также может быть пугающим... Поскольку мы объединяем людей в VR, у них должен быть доступ к инструментам, позволяющим им чувствовать себя в безопасности.

Линдсей Янг, менеджер по продукции Oculus VR

Отчасти обеспечение безопасности в VR заключается в том, чтобы дать само определение безопасности в VR. «VR настолько нов, что в нём пока отсутствуют некоторые социальные нормы,» — объяснила Янг.

В компании создали инструменты, чтобы люди могли контролировать личную виртуальную безопасность. Например, бабл безопасности служит границей личного пространства. Если другой аватар пересекает границу бабла, то оба аватара становятся друг для друга невидимыми.

Другие инструменты — пауза (когда можно сделать перерыв в своём виртуальном пространстве, вернувшись впоследствии) или отключение звука (если в виртуальном пространстве пользователю становится некомфортно, он может отключить аудио другого аватара). Дополнительное чувство защищённости обеспечивают живые модераторы.

Заключение

В целом настроение F8 2019 было позитивным и дружелюбным. Facebook показал много новых инструментов и функций, которые позволят людям безопасно использовать продукты платформ для личного общения, развлечения и бизнеса.

Корпорация «прислушивается к обратной связи, обучается и адаптируется». При «ответственной разработке» и по мере внедрения новых технологий виртуальной реальности самые популярные социальные сети, похоже, готовы открывать для себя и нас новые футуристические технологические горизонты.

P.S. Подборка видео в оригинале с других интересных сессий обоих дней конференции

0
2 комментария
Даниил Кукушкин

Спасибо за материал.

Ответить
Развернуть ветку
Todd

"Они заставили нас осознать не только удивительные блага, которые стоят за нашими технологиями, но и зло, непредвиденные последствия, и то, как люди могут злоупотреблять этими новыми технологиями. - Майк Шрёпфер \ технический директор Facebook"

В своем глазу бревна не замечает типа :)

Ответить
Развернуть ветку
-1 комментариев
Раскрывать всегда