2021.08.17 13:00

以隱私保護者自居的蘋果,用一個出人意料的方式背叛了使用者

ADVERTISEMENT

2016 年 2 月 16 日,蘋果收到了法官傳來的長達 42 頁的政府請求。FBI 試圖解鎖槍擊殺人案嫌疑人的 iPhone,未果,於是要求蘋果馬上開發一個特殊的 iOS 版本:可以無限次輸入密碼,直至成功解鎖嫌犯手機。 

讓人意外的是,提姆·庫克拒絕了執法者,「構建一個能夠繞過安全保護的 iOS 版本無疑就是開了一個『後門』。雖然政府可能會爭辯說它僅限於這種情況使用,但事實上,這樣的控制是根本無法保證的。」蘋果看似站到了恐怖分子那一邊,但卻在很多人心裡樹立起了捍衛使用者隱私的形象。 

然而,令人沒有想到的是,蘋果對「隱私」的態度,轉變得如此之快。

ADVERTISEMENT

最近,蘋果針對兒童性虐待保護推出了三項新政策,其中最讓人不安的一條是:使用者照片在上傳到 iCloud 之前,將會先在設備端進行雜湊值比對。如果和現存的兒童性虐待資料庫有一定程度的匹配,那麼,會有人工查驗問題照片是否涉及兒童性虐待,之後採取封鎖帳號、報告相關單位等措施。 

這些還未執行的政策,引發了強烈的輿論地震。6000 餘個組織和個人在 GitHub 上發起聯名信,「儘管打擊兒童虐待的出發點是絕對善意的,但該系統以及背後的智慧演算法實際上為蘋果系統加裝了一個『後門』,而這可能侵犯所有蘋果使用者的個人隱私。」曾經曝光美國稜鏡門的「吹哨者」愛德華·史諾登也簽署了這份聯名信,他警示道:「今天能掃描兒童虐待照片,明天就能掃描任何東西。」 

ADVERTISEMENT

在這些安全專家和一般使用者看來,蘋果自己打破了「捍衛使用者隱私」的金身。

「我幫孩子洗澡時拍了些照片,會被抓嗎?」

蘋果主動披露,他們開發了一個用於「掃描」使用者相冊以揪出 CSAM(兒童性虐待內容)的加密演算法。這個演算法被稱為「NeuralHash」,是一種利用雜湊值來進行匹配的演算法。雜湊值通常是一長串的數位,可以簡單理解成是一段資料(某個檔案,或者是字串)的 DNA,或者身份證。之所以比作 DNA,是每個檔案的雜湊值都是唯一的,基於這個特性,雜湊值常常被用來判斷兩個檔案是否相同。 

ADVERTISEMENT

這個演算法目前在 NCMEC(全國失蹤和受剝削兒童保護中心,是美國國會成立的兒童保護組織,下文簡稱為「兒童保護中心」)提供的「20 萬張圖像」上進行訓練,再過幾個月,會隨著 iOS 15 和 macOS Monterey 等新系統的上線正式推出。蘋果表示,這項「掃描」使用者照片的特性會率先在美國推行。 

據蘋果的說法,「掃描」照片的過程是這樣的: 

蘋果事先獲得了兒童保護中心提供的已在網上傳播的兒童性虐待資料庫,這個資料庫並非直接提供給蘋果,而是被「分解」成了無陣列雜湊值,然後加密儲存在蘋果使用者的裝置上。

ADVERTISEMENT

使用者裝置上的照片也能被計算出一組雜湊值,在上傳到 iCloud 之前就在裝置端與兒童保護中心的資料庫匹配,原理類似指紋比對。為了防止誤判,只有當匹配達到一定程度的時候才能交由人工審核,審核人員能看到的也是低解析度的圖像,如果涉事使用者最終被判定為違規,會被封鎖帳號和通報 NCMEC。 

有網友提出了疑問:「我幫孩子洗澡時拍了些照片,會被抓嗎?」蘋果解釋稱,他們並不能直接看到使用者的照片,比對依靠的是圖像雜湊值。假如使用者的相冊裡沒有那些特定的、在網上廣泛流傳的違規照片,便不會被上報。 

針對那些特定的違規照片,蘋果表示他們的雜湊值匹配技術也能「對抗」歹徒對圖片的二次處理。即便原片經過裁剪或者其他顏色處理,蘋果也能確保視覺上相近的圖片會有一樣的雜湊值。 

蘋果強調,如果使用者禁用 iCloud,那存放在本地的照片就不會被掃描。同時,使用者已經上傳在 iCloud 裡的照片也會被拿來比對。 

掃描這類違規內容並非蘋果「首創」,Facebook、Twitter、Reddit 等公司也會根據雜湊資料庫掃描使用者的檔案,他們一般使用的是微軟開發的工具 PhotoDNA,通常是掃描使用者儲存在他們伺服器上的檔案。按照美國法律,這些公司一旦發現了兒童性虐待內容,就有義務向兒童保護中心報告。蘋果新政和這些公司的不同之處,在於蘋果在使用者裝置端進行掃描、比對。 

另外,蘋果針對兒童性虐待保護還將推出兩項更新。一項是在 Siri 和搜尋功能中提供求助資源和提示資訊,另一項是在資訊 app 裡加入本地機器學習圖像識別,主動向未成年人及其家長發出「黃色」預警。後者同樣惹來不少非議。

如果未成年人使用者在 iMessage 中發送和接收色情照片,蘋果系統也會在本地掃描後進行判定,然後一般會先做模糊處理,如果未成年人繼續操作,蘋果會先警告,然後通知其家長。但蘋果表示,家長並不能直接看到孩子瀏覽的內容,這個過程並沒有違背他們對 iMessage 端到端加密的承諾。 

聯名抗議還在繼續

史諾登在 Twitter 上控訴蘋果:「蘋果 2015 年:我們不讓 FBI 查看死掉的恐怖分子的手機,只為保護你的隱私;蘋果 2021 年:我們會用官方黑名單檢測你的相冊和 iCloud 照片,除了報警之外,還會告訴你家長。」 

科技巨頭也站出來指責蘋果。WhatsApp 主管 Will Cathcart 表示,Facebook 旗下的平臺不會採用蘋果的方法,他們依靠使用者報告兒童性虐待內容。WhatsApp 也會掃描使用者未加密的資訊,比如使用者檔案和群組描述,然後尋找違規內容。 

「這是一個由蘋果建立和營運的監視系統,可以非常容易地用於掃描私人內容,以獲取他們或政府決定要控制的任何東西。銷售 iPhone 的國家會對什麼是可接受的內容有不同的定義。」Cathcart 說。在配合管理單位方面,儘管我們看到蘋果曾經拒絕了 FBI 的傳令,但整體而言蘋果支持監管,支持在各地的法律框架下經營。

約翰霍普金斯大學學者 Matthew Green 提出質疑,目前 iCloud 照片儲存沒有採用端到端加密,為何還要煞費苦心設計如此複雜的機制?畢竟這一機制顯然是為了核驗端到端加密內容而準備的。 

一個好的假設是,蘋果會在照片上傳中也應用端到端加密技術;然而壞的假設也有一定可能——蘋果在試圖拓寬監管邊界。 

Green 還指出,無論是蘋果設計的雜湊值比對演算法,還是兒童保護中心提供的資料庫,都是不透明的。若蘋果公開演算法,則可能會被利用於釣魚。另外,被當作是判定依據的違規照片庫,更是任何普通使用者甚至蘋果都無法查驗的。 

EFF(電子前哨基金會)撰文指出,蘋果在使用者裝置上做本地掃描的做法完全顛覆了「端到端加密」存在的意義,因為使用者難以驗證蘋果究竟「掃描」和「攔截」了什麼,而伺服器端也有可能透過這個方法,獲取大量傳輸內容的雜湊值,並進行資料分析。「再小的後門也是後門,」EFF 寫道。 

行業分析師 Ben Thompson 在自己的部落格上寫道,「問題不在於蘋果是否只向父母發送通知或將其搜尋限制在特定內容。問題在於,蘋果在資料離開你的手機之前就開始掃描了。」Thompson 還說,「沒錯,你可以關閉 iCloud 同步,但關鍵是蘋果使用者很難擺脫雲端同步。」蘋果生態下的產品協同,就是靠 iCloud 才能互通互聯的。「真正令人失望的是,蘋果公司如此執著於他們對隱私的特殊看法,最終呢,使用者根本沒法相信,他們買來的裝置真正屬於自己。」 

蘋果的自我辯解

上周,蘋果軟體副總裁 Sebastien Marineau-Mes 寫了一份內部備忘錄,「有些人對這些功能運作方式有誤解」,公司將在未來做出更多的解釋。在內部看來,蘋果的三項新政策既提供了保護兒童的工具,但也保持了蘋果對使用者隱私的堅定承諾。「我們知道,未來將會充斥著少數人的刺耳聲音,但我們的聲音會蓋過他們的。」 

「這項技術僅限於檢測儲存在 iCloud 中的違規內容,我們不會答應任何政府的要求,擴大它的範圍。」蘋果還在另一檔案中說,「我們將拒絕任何此類要求。」 

Matthew Green 在 Twitter 上爆料稱,「有人告訴我蘋果表示對人們的反應很『震驚』,原本以為上週五就可以平息,週末(蘋果發布了相關問題答疑)大家就都會接受。」 

但事件還在繼續發酵,聯名抗議的組織和個人的數量仍在上漲。使用者對技術被濫用的擔憂,蘋果用一句「相信我們」顯然無法服眾。

沒有人不支持兒童保護。據美國國家兒童協會報告,平均 5 個兒童中就有 1 個在網路遭遇過性騷擾,另一兒童性侵害保護中心資料顯示,有 30% 的侵害從來未曾被報告過。兒童性侵害範圍很廣,但更多潛伏在水面之下不為人知。 

但隱私掃描太容易引起公眾恐慌,即便是加了密的隱私掃描,即便是由每次發表會都長篇大論強調隱私保護的蘋果發出的。有使用者表達了自己的擔憂,「這就好比為了預防我犯錯,在我家裡加裝了個監視器。」在他們看來,商業公司沒有「審查」使用者資料的權利。 

顯然,即便一個可以用科技去解決的真問題,一個哪怕確實源于正義的出發點,也一樣要對面對信任和授權的巨大挑戰。

 

ADVERTISEMENT