九思看書

九思看書>入編的那些事兒 > 第307章 風險與控制 論生成式人工智能應用的個人信息保護(第1頁)

第307章 風險與控制 論生成式人工智能應用的個人信息保護(第1頁)

【内容摘要】生成式人工智能的技術躍進架空了個人信息處理的告知同意規制和最小必要原則,引了虛假信息生成和個人信息洩漏的廣泛風險叠代問題。傳統個人信息的權利保護路徑面臨認知和結構困境,無法應對生成式人工智能給個人信息保護帶來極大挑戰。以風險控制為導向的個人信息保護機制不強調信息主體對個人信息的絕對控制,旨在通過識别、評估、分配和管理将風險控制在最小範圍内,可以靈活和實用地平衡生成式人工智能應用中的信息利用和風險控制,提供有效的解決方案。在風險控制理念下,對告知同意規則和最小必要原則進行風險化解釋與調試,并建立從預防到識别再到控制的虛假信息生成風險的全過程應對機制,以及基于風險的個人信息保護合規管理體系,是當前的最優選擇。

【關鍵詞】生成式人工智能chatgpt個人信息保護風險控制

文章來源:《政法論叢》o年第期

因篇幅所限,省略原文注釋及參考文獻。

在o年初,chatgpt憑借其卓越的自然語言處理能力成為人工智能領域的重要裡程碑,引起了社會生産生活和未來科技展的颠覆性變革。然而,以海量語料庫數據為基礎的生成式人工智能在為社會帶來積極變革和影響的同時,也引了諸多個人信息保護層面的問題。o年月o日,chatgpt生了一起嚴重的信息安全事故,部分用戶的聊天記錄片段、用戶信用卡信息(包括最後四位數字、到期日期)、姓名、電子郵件地址和付款地址等敏感信息遭到洩露。月日,意大利數據保護當局gpdp宣布,由于openai未經同意收集、使用和披露個人信息,即刻對chatgpt施加暫時限制,成為全球範圍内第一道針對chatgpt的政府禁令。而當前諸多迹象預示生成式人工智能應用即将迎來大規模普及。這意味着,生成式人工智能給個人信息保護帶來的潛在風險可能伴随人工智能技術的展而持續酵。為促進生成式人工智能的健康展與規範應用,國家網信辦聯合國家展改革委、教育部、科技部等七大部門于o年月日公布《生成式人工智能服務管理暫行辦法》,并自o年月日起施行。人類社會在迎接新興人工智能科技展同時,須直面與冷靜審視生成式人工智能技術的正當性,須前瞻性思考、設計與配置與之匹配兼容的個人信息保護系統制度。

一、生成式人工智能開凸顯個人信息保護風險

以chatgpt為代表的生成式人工智能産品先于o年底在美國推出,目前已被廣泛用于智能辦公、智慧科研等許多領域,或将成為推動第四次工業革命的關鍵因素。從生成機制來看,生成式人工智能本質上是一種“生成型預訓練語言轉換器”。生成式人工智能技術服務提供者通過各種方式收集海量數據來形成語料庫,再通過連接大量的語料庫來訓練模型,以使其能夠學習和理解人類語言,并進行交流對話和内容生成。這一過程中伴随着循環式的數據收集與分析,涉及大量的個人信息處理活動,無疑将給個人信息保護帶來相應風險及多重挑戰。

(一)告知同意規則被架空的風險

告知同意是我國個人信息處理的核心準則,這一規則要求信息處理者在處理個人信息時須履行告知義務,并征得信息主體明确同意,方可進行處理,其目的在于确保信息主體對其個人信息的處理過程具有充分的控制權和知情權。《網絡安全法》一度将告知同意作為個人信息處理的唯一合法性基礎,後來頒布的《個人信息保護法》盡管規定了更加多元化的合法性基礎,但仍保留了告知同意基礎性的地位。然而,在生成式人工智能的開和應用過程中,尤其是語料庫構建與更新的過程中,告知同意規則往往無法得到有效的貫徹。

生成式人工智能語料庫的構建與更新可以分為被動和主動兩種類型。被動的語料庫構建與更新指大量用戶通過對話框自行輸入信息,系統自動将該類信息保存并納入語料庫。生成式人工智能技術的高度自動化和複雜性特點使得其難以在自動收錄用戶個人信息時向信息主體提供充分、全面的告知,讓信息主體完全了解個人信息的處理過程和結果,從而造成對告知同意規則的違背。以ai的服務條款規定openai可以廣泛使用用戶輸入和輸出的内容,将其納入語料庫并用于改進chatgpt。chatgpt用戶在次注冊賬号時将收到來自系統的個人信息收集提示,用戶點擊彈窗下方“下一步”即視為對其個人信息收集的同意許可。然而,從彈窗提示和openai隐私政策具體内容來看,均隻涉及到基本的信息收集事項,不涉及具體的個人信息處理方式和算法規則,而這恰恰是生成式人工智能個人信息處理中最為關鍵的内容。尤其是在語料庫模型訓練方面缺乏透明度和公開性,這導緻用戶無法全面了解其個人信息的處理流程、用途、保存期限等關鍵信息,從而無法判斷自己的信息是否被合理使用和保護。可見,openai在收集用戶個人信息時未完全履行告知義務。同時,由于用戶隻能選擇接受隐私政策并同意信息處理,否則将無法享受由chatgpt提供的服務,用戶的同意實際上并不是真正的自主選擇,往往隻是一個形式上的程序。

小主,這個章節後面還有哦,請點擊下一頁繼續閱讀,後面更精彩!

主動的語料庫構建與更新則包括數據爬蟲、圖書數字化、收集學術文獻數據等方式,其中以數據爬蟲為主。openai官方網站的“我們的方法”頁面表明,為支持其人工智能系統的訓練和展,openai使用數據爬蟲技術來獲取大量的文本數據。這些數據來源包括博客、bg搜索引擎、維基百科等公共網站和在線資源,以及專業非營利性組織如cradu通過其他渠道獲得的數據。數據爬蟲技術可以通過程序自動地收集互聯網上的大量數據,這種收集方式的優點在于其能夠快、高效地獲取大量的數據,使得模型的訓練和表現更加準确和可靠。然而,這些數據中可能存在個人信息,其來源難以追溯和驗證。生成式人工智能通過“灌入”這些數據,未經告知和征得信息主體同意,直接架空個人信息處理的告知同意規則。可見,在生成式人工智能語料庫構建與更新的過程中,無論是被動的個人信息“輸入-收錄”還是主動的數據爬取,告知同意規則均在一定程度上處于缺位狀态。

(二)最小必要原則被虛置的風險

最小必要原則要求信息處理者在處理個人信息時,必須有明确、合理的處理目的,并且該目的必須與個人信息的處理直接相關,同時采用對個人權益影響最小的方式進行處理。該原則包括三方面的内容,即最小化、相關性和合比例性。最小必要原則源自傳統的比例原則,是國内外法律實踐中被普遍接受的個人信息處理原則,我國個人信息保護法草案曆次審議稿中均包含關于最小必要原則的規定。然而,在生成式人工智能應用實踐中,存在着信息收集出必要範疇、信息處理期限不明、信息用途不清晰等問題,這些問題導緻最小必要原則難以得到有效的貫徹。

先,最小必要原則中的信息處理最小化要求個人信息處理應限制在為實現特定目的所必不可少的範圍内,即離開某項個人信息的處理,就無法合理地通過其他手段實現目的。信息處理最小化可進一步細化為最少數量、最少類型、最短存儲時間、最小共享範圍、最低處理頻率等具體内容。生成式人工智能作為一個大型語言模型,通常需要逾億萬單詞的人類語言數據支持。海量訓練數據的收集是其獲取語言生成能力、上下文理解能力和世界知識能力的關鍵前提,但也可能因此在信息處理數量、頻率、類型等方面違背信息處理最小化要求。例如,在生成式人工智能應用實踐中,由于其數據處理方式的複雜性和不确定性,往往難以确定個人信息的處理期限。當生成式人工智能的應用場景生變化或數據集需更新時,信息處理者可能需要重新處理之前收集的個人信息。這種情況可能會導緻信息主體隻同意了一次處理,卻面臨自己的個人信息被無期限處理的情形,這與個人信息處理的最小必要原則不相符。其次,根據《個人信息保護法》第條第款,最小必要原則中的相關性要求必須是直接相關,即實現處理目的與個人信息處理之間具有必然的、緊密的聯系。在語料庫構建過程中,生成式人工智能有時會收集與處理目的無關的個人信息,例如用戶的搜索記錄、設備信息、通信信息,用戶的時區、地點、國家、日期和具體接觸時間等。這些信息的收集與最終的文本生成服務之間缺乏必要聯系,違背最小必要原則中的相關性要求。最後,最小必要原則中信息處理合比例性要求個人信息處理所帶來的風險與特定目的實現所帶來的利益相比須符合一定比例。然而,生成式人工智能語料庫數據中包含大量敏感的用戶個人身份信息,如姓名、電子郵件地址、電話号碼等,而這些信息并非實現優化模型目的必不可少,一旦這些敏感個人信息洩露或被不當利用,容易導緻自然人的人格尊嚴受到侵害或者人身、财産安全受到危害。因此,處理敏感個人信息所帶來的風險與實現特定目的所帶來的利益(優化語言模型)相比顯着不合比例,不符合最小必要原則中最小化、合比例性兩個子原則的要求。

(三)虛假信息生成與累積的風險

生成式人工智能強大的泛化和生成能力也為個人信息保護帶來一系列負面影響,尤其是大量虛假信息生成與累積。根據《個人信息保護法》第條,處理個人信息應當保證個人信息的質量,避免因個人信息不準确、不完整對個人權益造成不利影響。然而,據美國新聞可信度評估與研究機構neduapt模型能夠在極短時間内改變信息,生成大量令人信服但缺乏信源的内容。究其原因,生成式人工智能生成的内容是基于對語料庫的學習和預測,是一種經驗的再現,并非從語義和邏輯角度進行推理和判斷的産物,對于生成内容本身的真實性和準确性,生成式人工智能無法進行判斷。這一特點可能導緻生成式人工智能産生大量虛假信息,從而侵害個人信息權益,甚至造成對公共利益和國家利益的危害。

這章沒有結束,請點擊下一頁繼續閱讀!

事實上,虛假信息生成與累積、乃至泛濫已開始對社會和個人産生嚴重影響。近期,一起由信息來源不實引的chatgpt編造法學教授性騷擾醜聞事件,再次凸顯生成式人工智能所帶來的信息可信度和可靠性方面的潛在風險。這種看似中立可信的技術能力實則對判斷能力不足的用戶産生極大了誤導性,同時也對相關信息主體的個人信息權益、名譽權、隐私權以及其他人格權造成損害。可以設想,如果虛假信息被誤用于學術研究,将會嚴重影響科學研究的嚴謹性,并導緻相關政策制定缺乏合理性。更為嚴重的是,惡意用戶行為者或團體可能會利用該技術故意制造和傳播虛假的新聞和信息,甚至生成不端或仇視性的信息,以操縱輿論。這将嚴重影響政治穩定,破壞公衆對政治體系和社會價值觀的信任。

在當今全球各種思潮、文化和價值觀念相互碰撞的背景下,人工智能技術面臨着被政治操縱、用作意識形态宣傳的風險,我國在生成式人工智能開與應用中應當重點關注防範。西方達國家掌握大數據和人工智能核心技術,按照其自身價值觀制定全球政治秩序和規則,裁剪符合自身意識形态标準的數據庫,加劇全球信息體系和政治秩序中的不平等和壟斷現象。在這種背景下,生成式人工智能技術服務提供者可以通過操縱算法或裁剪數據庫的方式,在模型中植入某些價值觀。如果開者持有曆史錯解、文化偏見或種族歧視的價值觀,這些觀念可能會最終呈現為不實或仇視性的文本信息,并通過模型與用戶的互動産生潛在的不利意識形态影響。在當今高度互聯的社會中,生成式人工智能大面積生成虛假信息已經不再是單純的個人信息權益問題,而是關系到國家安全和穩定的核心議題。o年微軟的聊天機器人tay被黑客攻擊,并被惡意操作,在網上傳播種族主義和仇恨言論便是先例。ta開的聊天機器人taai也有類似的經曆。

(四)個人信息洩露頻的風險

個人信息洩露頻風險是生成式人工智能将給個人信息保護帶來的又一大痛點。當前,生成式人工智能應用中的個人信息安全面臨來自人工智能系統内在隐患與外部風險的雙重考驗。ai的席技術官米拉·穆拉蒂率先表示,必須謹慎使用chatgpt,切勿在其上上傳敏感信息或核心數據,以免信息洩露,導緻損失。為此,許多互聯網公司紛紛向員工出相關警報。微軟基于預防商業機密洩露的考慮,已宣布禁止公司員工向chatgpt分享公司敏感數據。同樣,亞馬遜公司律師也警告員工“不要與chatgpt分享任何亞馬遜的機密信息,因為他們有可能将其用于訓練未來的模型。”事實證明,這種擔心并非多餘。近日,就在gpt-最新布之際,chatgpt出現嚴重技術漏洞,用戶在社交媒體上表示看到其他人的曆史搜索記錄标題。openai随即立刻關閉chatgpt,當用戶再次打開該系統時,曆史聊天記錄側邊欄已被替換為“曆史記錄暫不可用,我們正在努力盡快恢複這一功能”。該事件正是由内部開源數據庫錯誤所緻,随後openai席執行官saatan在社交媒體文,宣布修複程序已驗證完成,并對此“感覺十分糟糕”。可見,與其他人工智能技術一樣,生成式人工智能模型本身存在着漏洞和安全隐患。諸如模型設計不當、存儲系統錯誤、算法漏洞等都可能導緻用戶個人信息洩露頻。此外,黑客入侵人工智能系統的技術已催生出一個龐大黑色産業鍊,犯罪分子通過植入病毒性插件侵入數據庫,也将對用戶個人信息安全造成嚴重威脅。

其次,從運行角度來看,生成式人工智能還存在着一種高頻、漸進的個人信息間接洩漏風險。生成式人工智能需要從大量數據中學習和生成模型,并不斷改進模型,以提高生成文本的準确性。這就意味着,上一版本中收集的個人數據可能被用于模型訓練并在未來版本中進行輸出,從而間接導緻個人信息洩露。例如,在chatgpt中輸入的文本可能包含具有隐私敏感性的信息,如醫療記錄、司法文書、個人通訊記錄等,而模型可能會學習到這些信息并在模型輸出的結果中洩露這些信息。這種個人信息洩露乃至頻的風險,與生成式人工智能内在運行機理緊密關聯,為生成式人工智能所特有,并且一定程度廣泛存在于海量用戶“人機對話”的過程中。隻不過囿于生成式人工智能的高度複雜性和黑盒特性,其内部機制和應用過程往往難以被完全理解和掌控,從而使這種間接洩露及頻境況很難被現和察覺。

生成式人工智能語料庫中的個人信息洩露及其頻境況無疑會給用戶帶來隐私威脅、精神焦慮,甚至是财産、聲譽和信任上的損失。如被不法分子濫用,進行信息關聯和深度信息挖掘,嚴重時還可能威脅到國家數據安全和總體國家安全。伴随人類社會邁入數字文明時代,數字、信息堪稱數字文明時代的“新石油”,數字、信息安全問題更是不容置若罔聞。

小主,這個章節後面還有哦,請點擊下一頁繼續閱讀,後面更精彩!

二、生成式人工智能的個人信息保護二元路徑

基于上述,生成式人工智能無疑将對個人信息保護帶來諸多挑戰,亟需尋求切實的治理路徑進行應對。綜合而言,在實現個人信息保護與利用的平衡、信息安全風險合理分配及實踐效果上,風險控制路徑更具有優勢。同時,将其嵌入生成式人工智能,以保護個人信息、防範規制風險具有其正當性和可行性。

(一)個人信息保護的二元路徑

綜合而言,目前個人信息保護存在二元路徑:權利保護路徑和風險控制路徑。其中,“權利保護路徑”起源于o世紀o年代的“公平信息實踐”,其核心思想是保障信息主體對其個人信息的掌控和自主決定權。該路徑遵循“權利确認-權利行使-權利救濟”這一基本邏輯,屬于以個人為中心的法律範式。随着個人信息保護領域的不斷深入和展,權利保護路徑已經被廣泛接受和認可。歐盟法律更進一步确認個人信息保護權為一項基本權利,從而進一步鞏固權利保護模式的地位。然而,随着大數據時代的到來,權利保護路徑也面臨着越來越多的批評和挑戰。一方面,雖然權利保護路徑彰顯信息主體的法律地位,但其相關權利保障機制卻将主要保護責任轉移給了信息主體,這種“賦權即責任”的模式導緻了信息安全風險的不合理分配。另一方面,囿于信息主體存在有限理性以及大數據技術給告知同意原則帶來結構性變革,以信息主體為中心的權利保護路徑在應用中實則存在難以克服的負擔和實踐問題。

在這一背景下,風險控制作為一種新的概念被提出,并逐漸應用于個人信息保護,最終成為國際趨勢。“風險控制路徑”旨在通過不同的機制、模式和手段對個人信息保護相關的風險進行識别、評估、分配和管理,以保障公民權利、社會利益和國家安全等法益的不受侵犯。在風險控制路徑下,個人信息權利不再具有絕對性,更多的體現為一種風險規制的工具。風險控制路徑在個人信息保護領域的展曆程可以追溯到o世紀o年代。年,歐盟通過《數據保護指令》,并引入風險管理的理念,要求數據控制者采取适當的技術和組織措施,以保護個人數據不受損害。此後,歐洲各國續出台針對個人信息保護的法律法規,并将風險控制路徑作為一種重要的保護手段。盡管我國《個人信息保護法》未明确指出采用風險控制路徑,但從“敏感個人信息”和“一般個人信息”分類保護等具體内容規定來看,仍然對風險控制路徑進行回應。作為一種新興的保護理念,風險控制路徑在未來生成式人工智能個人信息保護中毋容置疑将揮重要作用。此外,在最新布的《生成式人工智能服務管理暫行辦法》的第二章第五條中,明确提及加強各機構在生成式人工智能的風險防範領域的通力合作,亦印證了個人信息保護的風險控制路徑的重要性與必要性。

(二)生成式人工智能的個人信息保護:嵌入“風險控制路徑”的正當性

相較于以權利保護為主的路徑,風險控制路徑在個人信息保護方面具有截然不同的特征,基于以下考量,無疑在推進生成式人工智能的個人信息保護過程中,将風險控制路徑嵌入其中,具有其自身正當性。

其一,風險控制路徑更有利于實現生成式人工智能技術利用與個人信息保護的衡平。在當代社會,我們需要在維護個人權益和推動社會經濟展之間找到平衡點,過度追求個人信息的絕對保護可能會忽略經濟和社會展的利益。在數字化浪潮中,數據和個人信息成為經濟和社會展的重要基石和創新驅動力。數據創新融合了人工智能、物聯網、區塊鍊等前沿技術,正在重構人類社會和産業形态。我國的《網絡安全法》和《數據安全法》均明确規定數據開放和利用的政策支持,特别強調匿名化數據的自由利用,為企業拓展數字化業務和推動技術創新提供重要機遇。生成式人工智能以數據信息為燃料,為人類提供了前所未有的創造力和生産力,在未來,生成式人工智能将會在内容創作、圖像生成、語音合成、自然語言處理、醫療診斷等多個領域揮重要作用。因此,在生成式人工智能開與應用的過程中,我們需要辯證看待其中的個人信息保護與展問題。因此,在制定個人信息保護策略時,應兼顧生成式人工智能的經濟和社會價值。如果采用權利保護路徑則過度強調個人信息的控制,不僅會導緻高昂的實施成本,可能還會制約數據的流通和利用,從而對生成式人工智能的開與應用形成阻礙。相比之下,風險控制路徑不強調個人信息的絕對控制,旨在通過風險管理和風險規制的方式将生成式人工智能應用中的個人信息處理風險降低到可接受的範圍内。這種方式在保障個人信息安全和隐私的同時,能夠有效利用數據這一寶貴資源推動社會和經濟的可持續展,避免個人權益保護對技術創新和公共利益造成抑制。

請勿開啟浏覽器閱讀模式,否則将導緻章節内容缺失及無法閱讀下一章。

相鄰推薦:妻乃王下之王  (長安十二時辰同人)【敬必】包辦婚姻  四合院:開局秦淮如送上門  (鬼燈的冷徹同人)【鬼白】彼岸浮燈  亂世參軍  茉與宴歸【重生】  (孤單又燦爛的神同人)【鬼使】East Of Eden  都市:與諸天女神同修,天下無敵  嫁給首長那些事兒  他和她的故事  開局淩辱仙子,這個魔君不一般  和離後懷了前夫的崽  文盲怎麼了,文盲耽誤我成仙了?  (古董局中局同人)【藥許】願者上鈎  心動那一秒+番外  女總裁的貼身狂醫  将軍隻愛我的錢  重生之國民巨星:九爺,狠撩人  臨鏡台  穿越被封殺,轉頭繼承一家電視台  

已完結熱門小說推薦

最新标簽