iPhone擬偵測兒童色情圖像,向「兒童網路性剝削」宣戰:必須受到最高度的重視!
震驚全球的韓國「N號房事件」一爆出,嫌犯操弄、利誘、脅迫孩子幼小的心靈,使他們在鏡頭前面,向無數的陌生人,展露自己的身體,其惡劣行徑令人髮指。不僅在韓國,世界各國也都有類似的「兒童網路性剝削」社會案件,而台灣也曾被警方查獲,有多個網站提供私密影片,千名受害者包含未成年學生的個資被揭露,其中一個網站使用者甚至高達4萬人!
企業社會責任,守護孩子需要大人齊心
台灣的兒少團體認為,兒少私密照的來源和一般成人A片不同,因此必須嚴格到「持有」就是一種犯罪。很多人以為兒少私密影像和看普通A片一樣沒什麼,但別忘記「有需求就會有供給」!網路上的兒童性剝削內容全都是犯罪的證據,這些孩子在身心皆未成熟的情況下,被威脅、利誘,造成日後身心發展上重大創傷,觀賞者間接扼殺了一個孩子的無限未來。
蘋果在全球手機市佔率一直穩坐龍頭寶座,他們最近計劃讓iPhone具備偵測兒童色情圖像的功能。預計在iPhone導入一個新軟體,此軟體可辦識及通報兒童色情圖像,這套監控系統一開始只會在美國應用,預定納入下個月要發表的iOS 15新增功能。
努力讓「隱私」與「兒童保護」並存
該系統運用新的密碼技術與人工智慧,在用戶使用iCloud Photos儲存功能時,辨別出兒童色情材料,一旦偵測到這類圖像被上傳到iCloud Photos,就會啟動圖像檢視機制,檢查其是否違法,然後通報給私人非營利組織「國家失蹤及被剝削兒童中心」。
雖然不少人認為這樣的系統將侵犯自己的隱私,但「國家失蹤及被剝削兒童中心」總裁兼執行長John Clark站出來大力讚揚蘋果這項新功能,他非常感激蘋果願意為兒童挺身而出,他也同時認為,隱私和兒童保護是可以並存的。
此外,蘋果強調,iPhone的加密系統不會受到這項偵查功能的影響,在iPhone裝置內的資料完全保持私密。用戶只要不把圖像上傳到iCloud Photos,就不會啟動偵查系統。在我們看不到的地方,仍有許多孩子正在被迫害,我們要做得除了不當加害者,也絕對不能是旁觀者,一起努力守護孩子,給他們一個最純淨的成長環境!
(延伸閱讀:「N號房」事件人神共憤,南韓性剝削聊天室,最小的受害者是名國小女童,主謀平時在育幼園幫忙,27萬名觀看者全都是加害人!)
(延伸閱讀:台灣爆發童版N號房事件,男嫌假扮大姊姊以手遊點數當誘餌,誘騙孩童直播裸體!)