美國當地時間 12 月 5 日,Facebook、微軟、Twitter 和 YouTube 宣布將合作推出一項計劃,旨在限制線上恐怖主義內容的傳播。這四家公司表示,他們會一起開發(fā)一個共享行業(yè)數據庫,可以用來識別出和恐怖主義相關的內容,同時也會在各自服務上刪除一些“極端恐怖的圖片和視頻”。
Facebook 公司發(fā)布了一份聲明,其中描述了這個數據庫的工作原理情況,他們將使用獨特的數字指紋技術,將那些和恐怖主義相關的內容標出,之后再利用強大的計算機系統(tǒng)和算法進行識別,并更簡單、高效地刪除。
在處理圖片內容上,Facebook 公司透露也會使用類似的“打標簽”的技術,而且除了打擊恐怖主義之外,一些兒童色情圖片也會被刪除。簡單的說,Facebook 平臺會給一些特殊內容配上一個獨特的“識別器”,如果有人復制、傳播了這些內容文件,就會被分析、監(jiān)測,他們也會生成相同的哈希值。類似的系統(tǒng)同樣被用于識別一些受版權保護的文件內容。
不過,本次新項目的不同之處在于,當恐怖主義圖像和視頻被識別出來之后,并不會立刻被自動刪除,而是要先和數據庫內的相關內容進行匹配、比對。事實上,個別公司也會按照自己的內容政策,以及他們如何選擇定義恐怖內容的標準,來決定在什么時間、以什么方式刪除這些內容。
Facebook 公司之前推出了內容審查工具,也因此受到了不少用戶的抨擊,而這回推出刪除“恐怖主義內容”的服務,多少緩解了部分用戶的激進情緒。但是,由于他們并不能對相關內容迅速做出處理反應,也意味著可能有部分恐怖主義的圖像和視頻會在刪除之前,已經被廣泛傳播了。
Facebook 公司特別指出,個人信息不會被共享,但他們并沒有說這些信息不會被收集。換句話說,和其他信息一樣,政府部門依然可以通過法律手段向 Facebook 獲得內容來源的賬戶信息。當然,Facebook 公司也有自己的判斷來處理政府部門的數據請求,也有權選擇在什么時間披露政府部門的相關請求。
一旦這四家公司發(fā)現了恐怖主義圖像和視頻,他們就會給相關內容打上標簽,同時加入到共享資源內,新設立的數據庫也將會被不斷更新。Facebook 公司表示,目前四家公司的合作只是一個開始,如果這個數據庫內容足夠龐大,未來也會提供給其他公司使用。在 Facebook 公司發(fā)布的一份聲明中,他們表示:
我們希望利用這種合作帶來更大的效率,也將繼續(xù)履行公司的內容政策,幫助遏制日益緊迫的全球線上恐怖主義內容。
最近,Facebook 公司一直受困于美國總統(tǒng)大選的社交媒體假新聞風波之中。現在,通過與其他社交網絡公司合作,也讓他們朝內容安全方向邁進了一步,至少為今后解決內容正確性的問題上鋪平了道路。