Apple打擊兒童色情,欲推《neuralMatch》分析工具,引爆iCloud, iOS隱私權爭議!

圖片1

圖片來自:https://www.news18.com

原汁原味的內容在這裡

身為一線的智慧型裝置領導品牌,蘋果的一舉一動都是媒體關注的焦點,日前Apple對外宣布,未來裝置會透過更新導入neuralMatch客戶端的分析工具,可讓Apple掃描存儲在客戶端的iCloud和iOS設備上的照片,藉此打擊兒童色情、甚至是兒童性虐待等素材,簡單來說,neuralMatch將掃描用戶上傳到 iCloud 照片的任何照片、圖片,並與現有兒童色情數據庫比對,若有出現匹配的情況,將會通知相關單位進行處理。

 

為了打擊兒童色情,Apple對外宣布未來的安全更新,將允許Apple掃描上傳到 iCloud的所有圖像,並標記任何與 NCMEC的兒童性虐待材料 (CSAM) 數據庫中、已知圖片匹配的影像

圖片2

圖片來自:https://www.cloudwards.net

 

但這個舉動,讓很多家長反彈,因為生兒育女的過程中,一定會為寶貝拍攝很多的照片或者影片,其中爾偶也會出現小孩穿著內褲、或者光屁股的照片,這樣是否會被有心人士拿來利用舉報呢?

圖片3

圖片來自:https://www.consalud.es

 

蘋果表示,他們是根據「美國非營利組織國家失踪和受虐兒童中心」,目前所收集的大約20萬張性侵等照片進行比對,只要用戶上傳到iCloud的每張照片都會得到一張“安全憑證”,上面寫著是否可疑,一旦有一定數量的照片被標記為可疑,就會啟動解密所有照片,如果影像圖片違法的話,將立即報告給當局!

 

所以並不是拍自己的小孩光屁股就會出事主要還是會透過比對

圖片4

圖片來自:https://iphoneislam.com

 

既然會透過資料比對,代表用戶的隱私權是否就被APPLE給侵犯了呢?許多專家認為這可能會對用戶的隱私構成威脅,因為如果蘋果這樣做,這可以為全球用戶監控數百萬台設備打開大門,因此在經過「熱烈」的攻防之後,蘋果在九月初正式對外宣布,這個原定在美國先行推出的更新,將蒐集更多資料後再議!

 

其實蘋果還是很保護隱私權的,常常都會出現執法機關要求蘋果解鎖手機遭到拒絕的案例!

圖片5

圖片來自:https://iphoneislam.com

(´◔ ₃ ◔`) 是說兒童色情比成人色情更容易比對嗎?

 

相關宅文

Σ>―(〃°ω°〃)♡→老司機的福音!《Apple Map》支援測速照相警示,COVID-19機場旅行指南資訊也上線啦!

Σ>―(〃°ω°〃)♡→車震!蘋果要推自駕車?電動車?還是電動自駕車?《Apple Car》將引發一連串車市震動!

Σ>―(〃°ω°〃)♡→《資深動畫師談兒童向作品》女生的裙子宛如銅牆鐵壁 強調胸部的動畫師請去畫同人誌

,,,,,,,,,,

部分資料來自網路 ( cloudwards )

廣告

0 則回應 順序:

NEW電影情報

潮鞋 » 看更多»

科技 » 看更多»