Починаємо чистити Інтернет

У січні Мета займе місце голови правління міжгалузевої антитерористичної організації Global Internet Forum to Counter Terrorism (GIFCT). Майбутнє призначення підштовхнуло політику модерації метаконтенту до зайвого ладу, оскільки компанія прагне бути гідною своєї позиції.

Один із членів-засновників GIFCT, Meta буде ділитися даними з іншими компаніями, щоб захистити Інтернет від насильницьких зображень, тероризму та торгівлі людьми.

Meta співпрацює з іншими компаніями, щоб контролювати контент, пов’язаний з тероризмом, в Інтернеті. (жінка шукає модерацію вмісту на робочому столі; автор зображення – Freepik)

Модерація вмісту Meta для боротьби з тероризмом

Останнім часом зростання Meta постраждало від інфляції та судових позовів, оскільки уряди ставлять під сумнів її політику щодо модерації вмісту та даних.

У рамках зобов’язань Meta захистити людей від шкідливого контенту компанія запускає новий безкоштовний інструмент, який допоможе платформам виявляти та видаляти насильницький контент.

Meta Hasher-Matcher-Actioner (HMA) буде безкоштовним програмним інструментом модерації вмісту з відкритим кодом, «який допоможе платформам ідентифікувати копії зображень або відео та вживати заходів проти них у масовому порядку», — заявив президент Meta з глобальних питань Нік Клегг у випуск.

HMA буде прийнято різними компаніями, щоб зупинити поширення терористичного контенту на своїх платформах. Це буде особливо корисно для невеликих організацій, які не мають доступу до кращих ресурсів, як великі компанії.

Це цінний інструмент для компаній, які не мають власних можливостей модерувати вміст у великих обсягах. Компанії-члени GIFCT будуть ретельно контролювати свої мережі за допомогою HMA та утримувати свої платформи від шкідливого та експлуатаційного контенту.

За оцінками, у 2021 році Meta витратила понад 5 мільярдів доларів у всьому світі на безпеку. Понад 40 000 людей працюють над покращенням її функцій.

Модерація метаконтенту сподівається боротися з терористичним контентом у рамках більшого плану захисту користувачів від шкідливого контенту. Технічний гігант зі штаб-квартирою в Каліфорнії також використовує штучний інтелект, щоб допомогти модерувати контент і видаляти шкідливий контент.

Компанія також повідомила, що її інструменти модерації вмісту значно зменшили видимість ненависті, і вона регулярно блокує підроблені облікові записи, щоб стримувати поширення дезінформації.

Метью Шмідт, доцент кафедри національної безпеки, міжнародних відносин і політології в Університеті Нью-Хейвена, сказав ABC News більшість організацій терористичних подій або торгівлі людьми відбувається в темній мережі.

Шмідт визнав, що програмне забезпечення з відкритим вихідним кодом має ключове значення для обмеження цих злих сил від сіття хаосу в суспільстві, оскільки воно обмежує їх охоплення. Він також зазначив, що більшість зусиль модерації контенту надходять від приватних компаній, а не від уряду.

Правила модерування вмісту

13 вересня 2022 року Каліфорнія прийняла широкий закон про прозорість соціальних медіа (AB 587), який вимагає від компаній соціальних медіа публікувати свої умови обслуговування в офісі генерального прокурора Каліфорнії та подавати до неї піврічні звіти.

Законодавство поширюється на компанії соціальних медіа з прибутком понад 100 мільйонів доларів США станом на попередній рік. Закон не визначає, чи повинні соціальні компанії модерувати контент і як саме.

Наразі очікується, що компанії соціальних медіа нададуть свої поточні умови обслуговування та піврічні звіти про модерацію вмісту в офіс AG.

Модерація вмісту та питання конфіденційності даних були темою гарячих дискусій протягом останніх кількох років. Як федеральні, так і державні органи намагалися запровадити політику, яка б захищала користувачів, одночасно стримуючи мову ненависті.

Раніше Флорида і Техас прийняли закони про модерацію контенту, сподіваючись навести певний порядок у тому, що публікується в Інтернеті. Закон Флориди обмежив можливість інтернет-сервісів модерувати вміст і вимагав обов’язкового розкриття інформації.

Закон Техасу, з іншого боку, забороняє платформам соціальних мереж «цензурувати[ing]»користувачі або вміст на основі точки зору або географічного розташування користувача в державі. Це не заважає компаніям модерувати вміст, присвячений незаконним висловлюванням чи конкретним дискримінаційним погрозам насильства.

У міру того, як країни починають розуміти силу онлайн-платформ, соціальні медіа-компанії поступово вимушені впроваджувати суворіші закони, щоб вони опосередковано не заохочували до незаконної діяльності.

Leave a Comment