丹·塞克斯頓寫道,歐盟委員會提出了一項大膽的提案,旨在控制兒童性虐待材料(CSAM)在互聯網上的傳播,這可能是迄今為止保護網絡兒童的斗爭中最激進的措施之一。
丹·塞克斯頓(Dan Sexton)是英國兒童安全非營利組織互聯網觀察基金會(IWF)的首席技術官。
新立法將要求科技行業檢測已知和未知的兒童遭受性虐待、強奸和性折磨的圖像和視頻。
它還將要求他們檢測和防止修飾材料,并向一個新的歐盟中心報告冒犯性內容,以解決兒童性虐待和性剝削問題。
對這種材料的強制檢測從根本上來說是一件好事。我們的最新數據顯示,這個問題并沒有消失,犯罪分子仍在轉向歐盟國家的服務器,以存儲一些最令人發指和有害的材料。在2021年,我們發現所有已知的兒童性虐待材料(CSAM)中有62%被追蹤到一個歐盟成員國的服務器上。
新提案有可能對此類犯罪內容采取強硬立場,并表明兒童和虐待受害者將受到保護。
檢測已知的有限公司Ntent是成功的,完善的,有效的,準確的
這項新立法將要求平臺檢測已知的兒童性侵材料,而訓練有素的分析師已經確認了這些材料。
已知的內容檢測已經由業界進行了十多年。它是成功的,公認的,有效的,準確的。
它不會侵犯用戶的隱私,它正在全世界被使用,每天數百萬次,數十億次。這不是什么新鮮事。
這里使用的技術不會讀取信息,也不會掃描手機或照片。這項技術將內容轉換成數字,并與另一組數字進行比較。如果數字匹配,就會被屏蔽。
如果你把它部署在受監管的互聯網上,你可以對一個通過我們的“報告刪除”工具向我們提交圖像的孩子說,該圖像將在受監管的互聯網上的所有地方被屏蔽,因為所有地方都必須屏蔽它。我認為,這是一件非常強大的事情。
尋找新的公司Ntent幫助尋找和保護新的受害者
新規定還要求檢測以前不為人知的兒童性侵圖像和視頻。
在這些情況下,人工智能(AI)將是必要的——機器學習工具正在尋找未知的圖像,它認為有很大可能與虐待有關。
這些工具有巨大的潛力,但任何處理過程都必須有人工審查的支持。人工審查是受過訓練的專家,他們了解兒童性虐待材料,并具有豐富的經驗,比如我們在IWF的分析師。這是關鍵。
這項技術仍處于發展階段,但我們已經看到了相當準確和有效的工具在工業中使用的例子。
關鍵是人的節制,因為我認為機器不應該做決定。我認為機器應該幫助分析人員,這樣他們就可以做出這些決定。
要想正確處理,難度更大,但優點是不可否認的。在這里投資是值得的,因為一旦你發現了新的內容并將其轉化為已知的內容,你就可以在任何地方可靠地阻止它。
這非常重要,也意味著有更大的機會找到并保護新的受害者。
新內容可以是剛剛生成的內容。在這些情況下,我們有機會找到受害者,拯救他們,并在他們的形象一次又一次被分享之前保護他們。
在生命周期中,你越早發現并阻止這些內容,你就有更大的機會阻止孩子在一生中再次成為受害者。
什么是次我的隱私嗎?
隱私對每個人都很重要,包括孩子。如果沒有對私人數據的保護,整個互聯網將無法正常工作。
然而,隱私權并不凌駕于其他權利之上。它不應該超過兒童的安全權利。必須對新提議采取適當的措施,確保兒童的權利得到尊重。
新提案并不是說互聯網上的所有地方都需要掃描這些內容——它實際上非常集中。
事實上,只有那些正在被使用或極有可能被用來傳播兒童性侵材料的平臺,才會被要求采取措施來降低這種風險。
這并不是說每個人的隱私都會受到侵犯,或者互聯網上的每條信息都會被掃描。如果你有一個平臺用來分享兒童被性侵的圖片,你就必須努力阻止這種事情發生。
如果我們知道一個平臺產生了數百萬份報告,并被用來傳播兒童性侵事件,他們應該采取一些行動。
這與沒有兒童性虐待證據的平臺需要采取措施來檢測是完全不同的。它是有針對性的,你只把它部署在有兒童性虐待危險的地方。這是一些評論家所不能理解的本質。