Модераторы Microsoft подали в суд из-за принуждения к просмотру порнографии

Специальный корреспондент
Собака

Собака

Пресс-служба
Команда форума
Private Club
Регистрация
13/10/15
Сообщения
55.132
Репутация
63.040
Реакции
277.453
RUB
0

Два бывших сотрудника Microsoft, которые работали в качестве модераторов и отслеживали отчеты о детской порнографии или другого криминального контента, подали в суд на Microsoft из-за того, что компания не предоставляла им должного внимания и физической поддержки для лечения посттравматических синдромов.



Генри Сото и Грег Блюерт были членами команды Microsoft Online Safety Team, где отвечали за модерацию контента, отмеченного пользователями, как нелегальный. Согласно информации в иске, работа Сото заключалась в просмотре «ужасно брутальных сцен, убийств, неописуемого сексуального насилия», а также другого материала, «созданного для развлечения самых извращенных и больных людей в мире». Блюерт также имел дело с подобным – он пересматривал отчеты о тысячах изображений детской порнографии, взрослой порнографии и остальных абсолютно дико извращенных картинок.



Оба работника страдали от посттравматических синдромов, которые проявились в виде ночных кошмаров, постоянной тревоги и галлюцинаций. Когда они пожаловались в Microsoft на состояние своего здоровья, компания предложила им программу по улучшению, но адвокаты утверждают, будто предоставленные специалисты не были достаточно квалифицированными для подобных случаев. Руководители программы также посоветовали им бросить курить и больше проводить времени на свежем воздухе. Кроме того, им предложили проводить время за видеоиграми.



В сообщении изданию The Guardian, представитель Microsoft отметил, что компания не согласна с обвинениями (ну еще бы) и очень серьезно относится к ответственности удалять и сообщать об изображениях, которые нарушают закон, а также не менее серьезно заботится здоровьем и спокойствием своих сотрудников, которые делают эту крайне сложную работу.



Компания добавила, что использует специальные технологии, которые снижают реалистичность изображения, попадающего на глаза модераторов, а также ограничивает время, проведенное за этим процессом. Команда Online Safety Team должна пересматривать материалы, помеченные алгоритмами или пользователями, как незаконные, после чего сообщать об этом властям, согласно законодательству, если в этом есть необходимость.



Стоит отметить, что Microsoft не единственная, кто сталкивается с подобной проблемой. Ранее было известно о таких же историях в Facebook и YouTube, где обширность аудитории и объемы контента приводят к тому, что модераторы сталкиваются с материалами, созданными абсолютно дикими людьми, позорящими человеческий род.



Источник:
 
Сверху Снизу