蘋果高管:外界對兒童保護功能理解混亂 此功能被誤解
這三條保護政策在十天之前宣布,包括:機器篩查Messages信息,當孩子收到色情圖片時,圖片會變得模糊,并且Messages應用程序會顯示一條警告;兒童性虐待內(nèi)容(簡稱CSAM)檢測,該功能讓蘋果檢測存儲在iCloud云端照片中的這類圖像特征信息,如果確定有此類圖像,蘋果會向執(zhí)法部門報告;Siri和搜索功能改進,人們可詢問Siri如何報告兒童性虐待內(nèi)容或性剝削,Siri將告訴用戶在哪可以匯報給有關部門。
其中引發(fā)爭議的主要是第一二條,費德里吉在接受《華爾街日報》采訪時說:“我們希望每個人都能更清楚地了解這一點,因為我們對自己正在做的事情感到非常積極,而我們看到它被廣泛誤解了。”
“事后看來,我承認,同時引入這兩個功能是造成這種混亂的一個緣由,”他繼續(xù)道。 “很明顯,很多信息都被嚴重地混淆了。我相信肯定有人說,天哪,蘋果正在掃描我的手機以獲取圖像。——但這不是事實。”
費德里吉隨后沒事了iCloud掃描上傳的CSAM圖像所涉及的過程,以及當通過消息向孩子發(fā)送此類圖像時會發(fā)生什么。
對這些功能的批評集中在蘋果正在分析用戶iPhone照片的看法上。 “這是一個常見但非常深刻的誤解,”費德里吉說。
“這個過程作為將某些內(nèi)容存儲在云中的過程的一部分來應用,而不是對您存儲在Messages信息的圖像進行某些處理……或者您正在通過網(wǎng)絡瀏覽的內(nèi)容。這實際上是在iCloud中存儲圖像的管道的一部分。”
他想說的是,蘋果公司是在分析圖像是否與國家失蹤和受虐兒童中心提供的已知CSAM圖像數(shù)據(jù)庫匹配,而不是分析圖片本身。他們將國家失蹤和受虐兒童中心的數(shù)據(jù)庫轉換為一組不可讀的哈希函數(shù)(將一段較長的數(shù)據(jù)映射為較短的數(shù)據(jù)),之后進行對比。一旦匹配程度達到某個閾值,蘋果公司將手動審查確認匹配,然后禁用用戶的帳戶,并向國家失蹤和受虐兒童中心發(fā)送報告。
當被問及現(xiàn)在是否有發(fā)布此功能的壓力時,費德里吉說沒有。
“不,我們想通了,”他說。 “我們本來就想做點什么,但此前一直不愿意部署涉及掃描所有客戶數(shù)據(jù)的解決方案。”
網(wǎng)友評論
高端訪談排行
延伸閱讀
最新高端訪談
- 李衛(wèi)澤:水電雙調(diào)全恒溫已經(jīng)成為行業(yè)高端新品標配
- 余承東:我們做產(chǎn)品就覺得己所不欲勿施于人
- 周鴻祎:電商作為原生互聯(lián)網(wǎng)行業(yè) 天然適合大模型
- 天工鉸鏈系統(tǒng)攻克三折疊行業(yè)難題 李小龍揭秘華為
- 李彥宏:智能體是我最看好的AI應用方向
- 院士談虛擬現(xiàn)實:虛實融合貫通技術需多方面支持
- 楊元慶:制造企業(yè)要充分把握AI2.0變革機遇
- 阿里CEO吳泳銘談生成式AI:將創(chuàng)造10倍于互聯(lián)網(wǎng)的
- 月之暗面楊植麟:AI時代超級應用是助理,未來5到
- 英偉達CEO黃仁勛:AI時代摩爾定律已失效 加速計