Facebook начнет тестировать новую систему для снижения токсичности в комментариях сообществ, сообщается в блоге социальной сети.
Система, которая именуется «Возвещение о конфликтах», будет использовать искусственный интеллект для анализа комментариев, которые пользователи оставляют в обществах Facebook.
В случае обнаружения споров или потенциально конфликтных ситуаций в комментариях система будет их маркировать и отправлять администратору сообщества уведомление. Кроме того, известия с нецензурной лексикой или неприемлемыми высказываниями будут помечаться плашкой moderation alert. Информация о таких комментариях также будет уходить целиком модераторам группы.
Самим администраторам обществ дадут новые инструменты, которые, если верить словам разработчиков, позволят снизить уровень токсичности или свести конфликт на нет. В частности, теперь можно будет ограничить частоту комментариев от конкретного пользователя, а также частоту комментирования определенных постов.
Вместе с новой системой анализа комментариев администраторам групп в Facebook дадут приборы по «формированию и повышению культуры сообществ». Теперь им будет доступна статистика по участникам групп, в какой будут отображаться количество их публикаций и комментариев, число удаленных известий, статистика блокировок.