Директор прикладного машинного обучения Facebook Хоакин Кандела (Joaquin Candela) рассказал Reuters о том, что компания работает над инструментом для автоматического обнаружения в прямых трансляциях наготы, насилия и любого другого контента, нарушающего условия использования социальной сети. В данный момент функция тестируется в Facebook Live.
Вместо того, чтобы полагаться на жалобы пользователей и силами работников их проверять, компания ввела систему, которая самостоятельно находит оскорбительные материалы. Согласно июньскому сообщению Reuters, компания уже работает над технологией поиска экстремистского контента — например, жестоких фотографий и видеороликов. Тем не менее, для того, чтобы начать автоматически находить такой контент в прямых трансляциях, понадобится гораздо больше усилий.
Споры касательно трансляций в Facebook начались после того, как в прямом эфире чикагский полицейский застрелил ни в чём не повинного Антонио Перкинса (Antonio Perkins). Запись трансляции не удалили из социальной сети, а всего лишь пометили предупреждающим сообщением, поскольку видео было признано примером реальных последствий насилия. В то же время компания заявила, что будет удалять с сайта ролики, делающие из насильственных действий сенсацию.
Как объяснил Кандела, на данный момент существует две значительные проблемы с поиском оскорбительного контента в прямых трансляциях. «Ваш алгоритм компьютерного зрения должен быть быстрым, и с этим, я думаю, мы можем разобраться, — заявил Кандела. — Но ещё нужно расставлять приоритеты таким образом, чтобы человек, понимающий наши правила, смотрел на вещи и избавлялся от них».
Источник: