2021 年 7 月 8 日
由聯合國人權理事會任命的隱私權問題特別報告員約瑟夫·卡納塔西(Joe Cannataci)7月2日同成員國代表進行了互動對話。卡納塔西表示,隱私權從未像現在這樣重要,也從未像現在這樣受到侵蝕,技術趨勢對隱私權的享有提出了前所未有的挑戰。在互動對話中,卡納塔西著重討論了人工智慧對隱私構成的挑戰以及兒童隱私所面臨的錯綜複雜的形勢。請聽聯合國新聞李茂奇的報導。
約瑟夫·卡納塔西教授于2015年7月被任命為聯合國首任隱私權特別報告員。他是馬爾他大學媒體與知識科學學院資訊政策與治理系主任,在荷蘭格羅寧根大學法學院擔任歐洲資訊政策與技術法律專案主席,並擔任澳大利亞埃迪斯可文大學安全研究所和電腦與安全科學學院的客座教授。他曾任歐盟處理監視問題的專案總協調人。
卡納塔西教授一直擔任許多國際組織的專家顧問,撰寫過關於資料保護法、專家系統責任、醫學資訊學法律要素、電腦軟體版權的多部專著和多篇文章,並曾共同撰寫關於自我監管與互聯網、歐盟憲法與資料保護、網上爭議解決、資料保留和員警資料方面的論文和教科書章節。他在2015年出版的最新專著《個人與隱私》被視為這一領域的經典著作。他在技術法、尤其是隱私法發展方面的先驅作用和他為歐洲資訊政策發展方面做出的貢獻受到同行的積極肯定。
卡納塔西在人權理事會與成員國就其所提交的年度報告進行互動對話時表示,在數位化時代保護個人隱私面臨嚴峻挑戰。
卡納塔西:“作為首任隱私權問題特別報告員,我努力增進人們對隱私權的理解,將其視為對個人一生自主和全面發展的至關重要的因素,從而促進對1948年《世界人權宣言》第22條採取更全面的落實辦法(注:第22條內容為“每個人,作為社會的一員,有權享受社會保障,並有權享受他的個人尊嚴和人格的自由發展所必需的經濟、社會和文化方面各種權利的實現”)。過去六年取得了很大成就,但仍有許多工作要做,因為保護隱私將永遠是一個微妙的問題,在一個受技術驅動的世界和新技術和新興科技不斷湧現的數字時代所面臨的特殊挑戰中,許多事情懸而未決。新冠疫情帶來的影響、國家監控、智慧手機、大型科技公司和人工智慧只是在此期間反復出現的幾個主題。”
人工智慧是研究、開發用於模擬、延伸和擴展人的智慧理論、方法、技術及應用系統的一門新的技術科學。它通過模式識別、機器學習、資料採擷和智慧演算法在機器人領域、語言識別領域、圖像識別領域和專家系統中得到廣泛應用。人工智慧的開發和應用建立在資料收集、分析和處理的基礎之上,而這一過程牽涉到人的隱私的方方面面及其權利保障。卡納塔西在其年度報告中指出,人工智慧解決方案提供了諸多益處,但同時也造成了種種影響,涉及道德、倫理和社會問題,涉及隱私、不歧視和自由參與等人權。社會有責任在人權框架內以道德和負責任的方式開發、使用和監測人工智慧解決方案,糾正歧視和任何侵犯人權的行為。所有人工智慧解決方案都必須尊重法治、人權、民主價值觀和多樣性。每一個規劃中的人工智慧解決方案,包括演算法,都應該接受及時的人權評估,包括道德和平等性評估。
卡納塔西在對話會議中強調:人工智慧是一個複雜的主題,要在人工智慧系統中部署和使用資料,就必須向使用者和資料提供者以及參與人工智慧解決方案及其運營決策的高管、經理和其他人做出明確、全面的解釋,僅公佈演算法是不夠的。人工智慧戰略和運作人工智慧解決方案的負責人,以及監測其使用的人,應該參與有關人工智慧和新出現的道德和技術問題的討論。
卡納塔西:“如何使人工智慧系統變得更尊重隱私?事實是,設計過程中考慮隱私問題是我在這6年中面臨的巨大難題。實際上,我從1986年開始在人工智慧領域開展工作。應該說,在我這36年的職業生涯裡,常常發現,為了保護人們,強調在設計階段注重隱私經常會有困難。在技術層面上,不幸的是,保障隱私常常變為一種事後工具。人們通常在設計系統後試圖再就隱私問題做出決定,而不是在設計過程中將隱私問題嵌入其中。應該在每一個階段——我想請所有會員國注意並努力在自己的國家解決這個問題——把隱私工程作為一種自律。人們應該通過在世界各地的大學和技術學院開展隱私研究工程,讓工程師、軟體工程師和像我一樣的工程師在設計階段就考慮隱私問題,許多歐盟專案——它們當中有一些是你們支持的專案——試圖通過內置的設計來實現注重隱私。我的經驗是,這樣做非常難,因為大多數資訊和通信技術專業人員都更多地注重性能。作為我在這裡的主要建議之一,我會說應當在你們的教育系統中推廣保護隱私工程,因為這將有助於在人工智慧的設計階段建立和嵌入隱私問題。”
卡納塔西在年度報告中同時論述了兒童隱私權問題。他指出,兒童和所有人一樣有權享有人權和自由。國際和區域法律文書闡明了隱私權和兒童隱私權。而傳統上,兒童的隱私權一直被認為是一個由成年人決定的問題。然而有時成年人以保護為名限制兒童的隱私,阻礙兒童在自主性和獨立性方面的健康發展。他認為,青少年需要能夠就其健康和身體做出決定,並隨著他們的成熟,安全而私密地探索性取向,無論是線下還是線上。他指出,雖然兒童的依賴性(亦即脆弱性)可能會導致風險,但風險並不等同於傷害,駕馭一些風險對於兒童培養韌性和應對技能是必要的。只根據兒童的脆弱性來對兒童下定義,而不考慮他們的能力或潛力,很可能會造成過度保護,因而可能有損兒童的個性發展。
研究顯示,到2021年,面向兒童的線上廣告市場價值可達17億美元,線上廣告公司在兒童13歲之前針對每個兒童收集的資料超過7200萬條。卡納塔西指出,雖然隱私是一個廣泛和複雜的概念,但資料保護與此密切相關。防止個人資料被無限制地收集、存儲、使用和共用至關重要。
卡納塔西指出,僅有技術解決方案和數位素養是不夠的,各國須採取嚴格和持續的行動來解決結構性不平等問題並確保兒童隱私、資料保護及其安全。對此,各國有相當大的空間進行投資,改善與民間社會、業界、學術界和兒童的夥伴關係,從而共同構建真正有效的解決方案。
卡納塔西:“許多年來,我們已經看到在不同的國家,孩子們享有的自主權有所不同。在一些國家,兒童被賦予管理私生活的一些權利,包括他們的性生活,包括避孕。有些國家的年齡界限是13歲,有些國家是18歲。很多時候,國家採用適齡標準,事實上,如果你考察許多國家的立法,你會發現一名兒童在某些國家可能會被賦予刑事責任和民事責任。一名兒童在特定的年齡在某些國家會因犯罪而被送進監獄。在隱私保護方面,在私生活管理方面,兒童應該有更多的發言權。在這裡,我最大的建議仍然是教育。兒童很小就開始成為數位公民。隨著時間的推移,這一年齡線變得越來越提前。同樣,比如說,哪一個年齡是開始性教育的最佳時間,是在十歲、十三歲?還是七歲,八歲?我強烈認為,數字公民教育必須從孩子們開始接觸平板智慧手機和筆記型電腦的那一刻開始。如果可能的話,從五歲到六歲,因為他們已經開始使用機器,但他們知道他們被操縱的程度嗎?他們知道他們的每一次點擊在多大程度上是因為廣告、特徵繪製等等而被關注的嗎?他們不知道,因此他們越早接受這方面的教育,越精通技術,就越能提高這方面的意識。”
卡納塔西在報告中向各成員國提出的建議包括:確保政府立法、政策、決定、檔案系統和服務以《兒童權利公約》關於隱私、個性和自主性的權利和價值為基礎;支援對兒童獲取線上服務和其他服務的自主決定能力進行全面分析,確保基於證據制定專門針對兒童的隱私法律、政策和法規;只有在沒有更好的辦法時,才以最謹慎的態度採用適齡標準作為監管工具;針對面向兒童的產品和服務,促進並要求落實通過設計保證安全、通過設計保護隱私和默認保護隱私指導原則,確保兒童在隱私受到侵犯時能夠獲得有效補救;確保個人資料的處理者,包括父母或照料者和教育工作者,意識到兒童有權享有隱私和資料保護;禁止為了作出有關兒童的決策,或分析或預測個人偏好、行為和態度,自動處理對兒童進行特徵繪製的個人資料;僅在特殊情況下,出於兒童的最大利益或壓倒一切的公共利益,在擁有適當法律保障機制的情況下,方可允許例外做法。