Видео недоступно
Sep. 12th, 2020 09:45 pm![[identity profile]](https://www.dreamwidth.org/img/silk/identity/openid.png)
![[community profile]](https://www.dreamwidth.org/img/silk/identity/community.png)
В последние годы соцсети, включая Facebook, YouTube и Twitter, заметно нарастили активность в том, что касается удаления постов, которые в компании-операторе платформы сочтут нарушающими корпоративную политику или внешние рекомендации и стандарты в регионе осуществления деятельности. Это включает контент, в котором усматриваются признаки терроризма или насильственного экстремизма, ненавистнических высказываний, организованной преступности, проявлений на почве ненависти и угроз насилием.
Компании удаляют посты по сигналам пользователей и по решению модераторов, однако сегодня для выявления и удаления недопустимого контента все чаще используются алгоритмы. Иногда это происходит настолько быстро, что пост не успевает набрать ни одного просмотра. Правительства в целом благожелательно относятся к таком тренду, призывая компании удалять опасный контент как можно быстрее.
Пока не существует механизма, который позволял бы сохранять и архивировать удаленный соцсетями контент, содержащий важные доказательства нарушений прав человека, не говоря уже о том, чтобы обеспечивать к нему доступ тем, кто занимается расследованием международных преступлений.
Независимым организациям и журналистам принадлежит важная роль в документировании грубых нарушений по всему миру, причем нередко в таких ситуациях официального расследования по соответствующим фактам не проводится. В некоторых случаях эта работа приводила к инициированию судебных процедур. Однако у них нет доступа к удаленному контенту, а в случае с алгоритмическим удалением они, как, кстати, и официальные следственные органы, даже никогда не узнают о его существовании.
Как заметил в интервью Human Rights Watch расследующий военные преступления сотрудник европейских правоохранительных органов, «я ежедневно сталкиваюсь по работе с проблемой удаленного контента. Постоянно натыкаешься на потенциально важные доказательства, а доступа к ним у меня уже нет».
Источник
Компании удаляют посты по сигналам пользователей и по решению модераторов, однако сегодня для выявления и удаления недопустимого контента все чаще используются алгоритмы. Иногда это происходит настолько быстро, что пост не успевает набрать ни одного просмотра. Правительства в целом благожелательно относятся к таком тренду, призывая компании удалять опасный контент как можно быстрее.
Пока не существует механизма, который позволял бы сохранять и архивировать удаленный соцсетями контент, содержащий важные доказательства нарушений прав человека, не говоря уже о том, чтобы обеспечивать к нему доступ тем, кто занимается расследованием международных преступлений.
Независимым организациям и журналистам принадлежит важная роль в документировании грубых нарушений по всему миру, причем нередко в таких ситуациях официального расследования по соответствующим фактам не проводится. В некоторых случаях эта работа приводила к инициированию судебных процедур. Однако у них нет доступа к удаленному контенту, а в случае с алгоритмическим удалением они, как, кстати, и официальные следственные органы, даже никогда не узнают о его существовании.
Как заметил в интервью Human Rights Watch расследующий военные преступления сотрудник европейских правоохранительных органов, «я ежедневно сталкиваюсь по работе с проблемой удаленного контента. Постоянно натыкаешься на потенциально важные доказательства, а доступа к ним у меня уже нет».
Источник