Як Фейсбук використовує машинне навчання проти тероризму
Скажіть «Ні тероризму»
Протягом багатьох років контент, який пропагує тероризм, процвітав на платформах соціальних мереж, таких як Facebook і Twitter.
Боротьба - це важка битва, яка змусила технологічні компанії відкрити військові кімнати і найняти нових фахівців. Одне з рішень, в якому компанії, включаючи Facebook, тепер роблять ставку на: машинне навчання. У недавньому повідомленні в блозі соціальний гігант докладно описав спосіб використання цієї технології для ідентифікації контенту, який «може сигналізувати підтримку ISIS або «Аль-Каїди».
Модератори ботів
Facebook розробив алгоритм, який присвоює кожному повідомленням оцінку, засновану на ймовірності того, що він порушить антитерористичну політику компанії. Якщо цей рахунок перетинає певний поріг, пост буде негайно видалений без людської поміркованості.
Повідомлення в блозі тонко про конкретні деталі про те, як працює система підрахунку очок алгоритму. Це не зовсім дивно: це гра з високими ставками на біт-моль, а Facebook навряд чи розкриває всі свої секрети світу.
Неприйнятна істина
Facebook швидко визнає, що немає досконалої системи - або, принаймні, вона ще не знайшла її. На щастя, в квітні він оновив свій апеляційний процес, в разі, якщо алгоритми відображають помилкові спрацьовування.
Це крок у правильному напрямку - ми знаємо, що одну людину або модераторів машинного навчання не буде достатньо, щоб видалити весь контент тероризму з соціальних мереж.
Джерела: Огляд технологій MIT