YouTube анонсировал четыре новых шага в борьбе с террористическим контентом. Работа будет вестись в следующих направлениях:
- Расширение использования алгоритмов машинного обучения для определения экстремистских видео и роликов, имеющих отношение к терроризму.
- Увеличение числа независимых экспертов в программе Trusted Flagger. В проекте уже принимает участие 63 организации, к ним будет добавлено ещё 50. В YouTube отмечают, что сообщения участников программы в 90% случаев говорят о наличии реальных проблем. Что касается жалоб пользователей, то по ним этот показатель значительно ниже.
- Более жёсткая позиция по отношению к тем видео, которые явно не нарушают правила сервиса. Например, видеоролики религиозного характера в скором времени будут сопровождаться предупреждением для пользователей. Кроме того, их нельзя будет монетизировать, они не будут попадать в блок рекомендуемых видео, под ними нельзя будет оставлять комментарии.
- Более широкое использование в Европе онлайн-рекламы, перенаправляющей потенциальных приверженцев ИГИЛ на антитеррористические ресурсы.
В Google подчёркивают, что задача IT-компаний – это не только выявление и удаление контента, нарушающего правила, но и пресечение попыток загрузки таких видео пользователями.
«Терроризм – это нападение на открытые общества. Устранение угрозы, создаваемой насилием и ненавистью, это критически важная задача для всех нас. Google и YouTube стремятся найти решение этой проблемы. Мы работаем с правительством, правоохранительными органами и общественными организациями над решением проблемы экстремизма в интернете. Мы должны убрать террористический контент из наших сервисов», - подчеркнул главный юрисконсульт Google Кент Уокер.
Google также начал сотрудничать по этому вопросу с другими технологическими компаниями, такими как Facebook, Microsoft и Twitter. Целью является создание международного форума для обмена и развития технологий, поддержки более мелких компаний и совместной борьбы с терроризмом в интернете.