В США корпорацию Apple обвинили в отказе от сканирования фотографий пользователей на предмет обнаружения жестокого обращения с детьми. Согласно информации, опубликованной в газете The New York Times, в конце 2022 года Apple отменила планы по внедрению функции сканирования CSAM, которая была анонсирована еще в 2021 году. Это решение было принято под давлением активистов, выступающих против вмешательства в личную жизнь пользователей.
В конце 2024 года против Apple был подан иск, в котором компания обвиняется в нежелании защищать жертв сексуального насилия. Истцом выступила 27-летняя женщина, которая утверждает, что в детстве подвергалась насилию. Она обнаружила свои приватные фотографии в сервисе iCloud и считает, что отсутствие функции CSAM позволяет хранить на устройствах Apple запрещенные материалы.
К иску присоединились еще 2680 человек, которые также требуют от Apple внедрения CSAM и выплаты компенсации в размере не менее 150 тысяч долларов каждому. В документе утверждается, что Apple не препятствует распространению приватных фотографий, что заставляет жертв детского сексуального насилия переживать травму заново.
Представитель Apple Фред Сайнс заявил, что компания считает материалы, содержащие сцены жестокого обращения с детьми, отвратительными и готова к непримиримой борьбе с насилием. Ранее, в декабре, бывший сотрудник Apple также подал на компанию в суд, обвинив ее во вмешательстве в личную жизнь и слежке за сотрудниками.
Ссылка на источник: https://lenta.ru