作者:鄧建鵬、趙治松;來(lái)源:新疆師范大學(xué)學(xué)報(bào)
本文2025年首發(fā)于《新疆師范大學(xué)學(xué)報(bào)》。
摘 要:隨著生成式人工智能的快速發(fā)展,DeepSeek 的問(wèn)世與開(kāi)源備受關(guān)注。DeepSeek 憑借對(duì)算法模式、知識(shí)蒸餾以及思維鏈技術(shù)的破局,實(shí)現(xiàn)了低成本訓(xùn)練與高效輸出。技術(shù)的變革對(duì)生成式人工智能的監(jiān)管具有兩面性:一方面,思維鏈和模型開(kāi)源緩解了“算法黑箱”困境,為監(jiān)管審查提供便利;另一方面,對(duì)隱私保護(hù)和數(shù)據(jù)合規(guī)、知識(shí)產(chǎn)權(quán)、“幻覺(jué)問(wèn)題”以及模型安全性隱患等帶來(lái)新挑戰(zhàn)。DeepSeek 的爆火再度說(shuō)明,生成式人工智能的監(jiān)管應(yīng)面向未來(lái),將隱私保護(hù)與數(shù)據(jù)安全、技術(shù)創(chuàng)新與保護(hù)平衡、模型提示與反饋機(jī)制、模型安全性作為監(jiān)管重點(diǎn),避免技術(shù)濫用與惡意攻擊,保障并促進(jìn)生成式人工智能安全、良性發(fā)展。
關(guān)鍵詞:DeepSeek;生成式人工智能;法律合規(guī);監(jiān)管;人工智能
作者簡(jiǎn)介:鄧建鵬,中央財(cái)經(jīng)大學(xué)法學(xué)院教授、博士生導(dǎo)師,金融科技法治研究中心主任;趙治松,中央財(cái)經(jīng)大學(xué)法學(xué)院碩士研究生。
觀點(diǎn)提要
DeepSeek 的技術(shù)特點(diǎn)與法制問(wèn)題:知識(shí)蒸餾技術(shù)與合規(guī)問(wèn)題;思維鏈模式與合規(guī)問(wèn)題;開(kāi)源模型的監(jiān)管優(yōu)勢(shì)與新問(wèn)題。
DeepSeek?對(duì)當(dāng)前監(jiān)管困境的積極影響:一方面,模型開(kāi)源、思維鏈等技術(shù)有助于紓解“算法黑箱”困境。另一方面,以 DeepSeek 為代表的大模型主動(dòng)開(kāi)源,在增強(qiáng)人們信任的同時(shí),也為監(jiān)管機(jī)構(gòu)提供了更加便利、透明的審查條件。
DeepSeek 技術(shù)變革帶來(lái)的新挑戰(zhàn):隱私保護(hù)和數(shù)據(jù)合規(guī)挑戰(zhàn)加劇;知識(shí)產(chǎn)權(quán)方面的爭(zhēng)議;“幻覺(jué)問(wèn)題”加重;模型安全性問(wèn)題。
生成式人工智能監(jiān)管問(wèn)題的困境之一是監(jiān)管措施要不斷適應(yīng)技術(shù)的飛速發(fā)展。有學(xué)者認(rèn)為,隱私保護(hù)、模型安全、技術(shù)標(biāo)準(zhǔn)、開(kāi)源協(xié)議等更宜采用靈活多樣、合作試驗(yàn)、跨國(guó)適用的行業(yè)標(biāo)準(zhǔn)等“軟法”加以規(guī)制,監(jiān)管機(jī)關(guān)宜與企業(yè)、行業(yè)組織或企業(yè)合作聯(lián)盟等開(kāi)展廣泛合作,通過(guò)多種機(jī)制促進(jìn)“軟法”與“硬法”結(jié)合,規(guī)范生成式人工智能的發(fā)展。
自美國(guó)人工智能研發(fā)公司 OpenAI 推 出ChatGPT 以來(lái),內(nèi)容生成式人工智能實(shí)現(xiàn)了從單一模態(tài)的垂直部署到多模態(tài)的產(chǎn)業(yè)賦能,飛速發(fā)展的技術(shù)不斷改變著世界。2024 年 12 月底,中國(guó)人工智能研發(fā)公司 DeepSeek 發(fā)布并開(kāi)源了DeepSeek-V3 模型,其性能媲美當(dāng)前頂級(jí)閉源模型;2025 年 1 月,該公司發(fā)布推理模型 DeepSeek-R1,在多項(xiàng)測(cè)試中達(dá)到或超越 OpenAI o。不同于其他模型依托海量數(shù)據(jù)和算力的發(fā)展思路,DeepSeek 憑借組相對(duì)策略優(yōu)化(Group Relative Policy Optimization,GRPO)算法模式、知識(shí)蒸餾(KnowledgeDistillation)和思維鏈(Long-CoT)技術(shù)受到廣泛關(guān)注。有學(xué)者認(rèn)為,DeepSeek 以低至 1/10 的訓(xùn)練成本實(shí)現(xiàn)了與頂尖產(chǎn)品相媲美的性能,在推理效率、場(chǎng)景適配等多個(gè)維度樹(shù)立了新標(biāo)桿,實(shí)現(xiàn)了模型低成本的高效訓(xùn)練和輸出,展示了卓越能力。
DeepSeek 以低成本實(shí)現(xiàn)高效訓(xùn)練,代表中國(guó)生成式人工智能技術(shù)的最新重大突破,將進(jìn)一步促進(jìn)大模型技術(shù)的廣泛應(yīng)用,但部分技術(shù)需要監(jiān)管者思考。當(dāng)前,有關(guān)生成式人工智能監(jiān)管的學(xué)術(shù)研究主要集中在算法和數(shù)據(jù)合規(guī)兩方面,多關(guān)注虛假信息規(guī)制、倫理風(fēng)險(xiǎn)規(guī)制、侵權(quán)責(zé)任及豁免,等等。算法合規(guī)聚焦算法審查、算法解釋以及算法問(wèn)責(zé),數(shù)據(jù)合規(guī)聚焦數(shù)據(jù)來(lái)源合法性及數(shù)據(jù)隱私保護(hù)問(wèn)題。DeepSeek 的技術(shù)應(yīng)用在一定程度上有助于緩解當(dāng)前人工智能監(jiān)管的部分困境,例如,改善“算法黑箱”問(wèn)題的可解釋性和透明性,模型開(kāi)源一定程度上便利了監(jiān)管審查,等等。但部分技術(shù)手段也對(duì)監(jiān)管提出新挑戰(zhàn),包括隱私保護(hù)和數(shù)據(jù)合規(guī)風(fēng)險(xiǎn)加劇、蒸餾技術(shù)導(dǎo)致知識(shí)產(chǎn)權(quán)爭(zhēng)議、“幻覺(jué)問(wèn)題”加重及模型安全性隱患,等等。有學(xué)者認(rèn)為,我們已經(jīng)到了一個(gè)歷史轉(zhuǎn)折點(diǎn):當(dāng)下歷史的重大進(jìn)程,有一部分是由非人類智能的決定推動(dòng)的。正因如此,計(jì)算機(jī)網(wǎng)絡(luò)的易錯(cuò)性才變得如此危險(xiǎn)。當(dāng)計(jì)算機(jī)成了歷史推動(dòng)者時(shí),這些錯(cuò)誤就可能帶來(lái)災(zāi)難。因此,在關(guān)注 DeepSeek 技術(shù)特征的同時(shí),應(yīng)重點(diǎn)探索前沿技術(shù)發(fā)展的監(jiān)管趨勢(shì)。企業(yè)出于市場(chǎng)競(jìng)爭(zhēng)和技術(shù)發(fā)展需求,通常會(huì)自發(fā)地優(yōu)化算法解釋與追求算法透明,以提升產(chǎn)品競(jìng)爭(zhēng)力和用戶信任。監(jiān)管的重心應(yīng)放在企業(yè)缺乏自驅(qū)力但又涉及公共利益與安全等方面,避免弱勢(shì)群體權(quán)益受損,防止技術(shù)濫用和惡意攻擊。
DeepSeek 采取諸如多頭潛在注意力機(jī)制(Multi-Head Latent Attention Mechanism)等一系列技術(shù)革新,部分技術(shù)屬于算法邏輯,并不影響監(jiān)管規(guī)制,從監(jiān)管角度關(guān)注 DeepSeek 的技術(shù)特點(diǎn)與其法制問(wèn)題。
(一)知識(shí)蒸餾技術(shù)與合規(guī)問(wèn)題
知識(shí)蒸餾技術(shù)是 DeepSeek 優(yōu)化模型性能與提高資源利用效率的重要手段之一。其核心方法是通過(guò)訓(xùn)練較小模型(“學(xué)生模型”)模仿較大模型(“教師模型”)的輸出或中間特征,以實(shí)現(xiàn)低成本的高效部署。即使用小模型模仿大模型的預(yù)測(cè)結(jié)果,這一預(yù)測(cè)結(jié)果并非簡(jiǎn)單的答案,而是預(yù)測(cè)概率分布(類似“軟標(biāo)簽”),能夠包含更多數(shù)據(jù)信息,故小模型在測(cè)試中表現(xiàn)更優(yōu)。從技術(shù)層面看,雖然現(xiàn)階段蒸餾技術(shù)體現(xiàn)了良好的技術(shù)效果,但直接用預(yù)測(cè)結(jié)果做蒸餾的方法,效果并非最優(yōu),不及用模型中間層特征做蒸餾的效果,且知識(shí)蒸餾損失公式存在一定缺陷,小模型將部分應(yīng)分開(kāi)分析的數(shù)據(jù)混合在一起進(jìn)行分析,會(huì)影響知識(shí)傳遞的效果。
從監(jiān)管角度看,現(xiàn)階段蒸餾技術(shù)在法律方面的爭(zhēng)議主要集中在數(shù)據(jù)合規(guī)和知識(shí)產(chǎn)權(quán)爭(zhēng)議方面。如果“教師模型”采取瑕疵或不準(zhǔn)確的數(shù)據(jù)訓(xùn)練,那么,在知識(shí)傳遞過(guò)程中,會(huì)將“教師模型”的數(shù)據(jù)問(wèn)題轉(zhuǎn)移并擴(kuò)大到“學(xué)生模型”,進(jìn)而可能擴(kuò)大“幻覺(jué)問(wèn)題”。蒸餾技術(shù)應(yīng)用下的數(shù)據(jù)來(lái)源、處理方式、數(shù)據(jù)隱私保護(hù)等方面并沒(méi)有較為明確的法律規(guī)范,且數(shù)據(jù)瑕疵在傳遞過(guò)程中的放大問(wèn)題也缺乏明確法律界定責(zé)任歸屬。蒸餾技術(shù)雖然已經(jīng)較為成熟,但對(duì)于模型使用和侵權(quán)的界限相對(duì)模糊。蒸餾技術(shù)不是單純的代碼復(fù)制,而是一種深層次利用,開(kāi)源模型雖允許使用,但無(wú)論開(kāi)源許可還是行業(yè)規(guī)范均未明確蒸餾技術(shù)應(yīng)用時(shí)的具體限制,對(duì)于閉源模型缺乏詳細(xì)規(guī)定,難以判斷蒸餾行為在何種程度屬于合理利用、在何種程度構(gòu)成侵權(quán),導(dǎo)致監(jiān)管規(guī)范存在空白。
(二)思維鏈模式與合規(guī)問(wèn)題
DeepSeek 技術(shù)的思維鏈模式是對(duì)指令提示模式的技術(shù)迭代,良好的效果可能逐步促進(jìn)大模型從指令型向推理型發(fā)展。思維鏈技術(shù)指通過(guò)序列化的思維模式,提升大模型推理能力、思考過(guò)程的可解釋性、模型可控性和輸出的靈活性,適用于高度復(fù)雜任務(wù)。其與指令提示型大模型的區(qū)別在于,前者主要依賴預(yù)先設(shè)定的提示信息引導(dǎo)模型生成輸出,但在應(yīng)對(duì)復(fù)雜的任務(wù)需求時(shí)存在一定局限。思維鏈模式模擬人類的思維過(guò)程,構(gòu)建邏輯連貫的思維鏈條,使模型能夠逐步推理和分析,并展示思考過(guò)程,不僅有效提升了上下文理解能力,而且在處理長(zhǎng)文本或多輪對(duì)話時(shí)能夠有效捕捉前文信息,保持邏輯連貫性,進(jìn)而生成更準(zhǔn)確、合理的回答。
從監(jiān)管角度看,由于指令提示型大模型的“算法黑箱”,模型僅輸出最終結(jié)果,使其輸出結(jié)果中存在數(shù)據(jù)、隱私泄漏風(fēng)險(xiǎn)。思維鏈在推理過(guò)程中展示中間步驟,步驟中可能包含訓(xùn)練數(shù)據(jù)中的隱私片段,侵犯?jìng)€(gè)人隱私權(quán)或其他權(quán)益,觸發(fā)合規(guī)挑戰(zhàn)。此外,思維鏈可能會(huì)加重“幻覺(jué)問(wèn)題”。指令提示型大模型只是單純給出結(jié)果,使用者在某種程度上能夠接受結(jié)果的不準(zhǔn)確性。但思維鏈因具有“人類推理”特點(diǎn),讓使用者清楚看到思維過(guò)程,可能將錯(cuò)誤的推理邏輯或無(wú)事實(shí)依據(jù)的內(nèi)容層層傳遞,導(dǎo)致最終結(jié)果偏離事實(shí)。錯(cuò)誤的推理步驟可能使模型得出錯(cuò)誤結(jié)論,使用者因看到思維過(guò)程進(jìn)而更信任這一錯(cuò)誤結(jié)果,可能造成如誤導(dǎo)決策進(jìn)而引發(fā)經(jīng)濟(jì)損失、侵犯他人權(quán)益等后果。因此,要進(jìn)一步明確大模型“幻覺(jué)問(wèn)題”的應(yīng)對(duì)措施,有效提示并紓解“幻覺(jué)問(wèn)題”的影響。
(三)開(kāi)源模型的監(jiān)管優(yōu)勢(shì)與新問(wèn)題
DeepSeek 作為開(kāi)源模型,全面開(kāi)放了代碼、數(shù)據(jù)和算法。有學(xué)者認(rèn)為,開(kāi)源模型或許將引領(lǐng)大模型發(fā)展方向,帶來(lái)新的商業(yè)機(jī)遇。從社會(huì)信任角度看,使用者和研發(fā)者可對(duì)開(kāi)源模型進(jìn)行技術(shù)分析,驗(yàn)證其效果和能力,最大限度提升開(kāi)發(fā)模型的能力,使社會(huì)公眾對(duì)模型的能力和技術(shù)效果有清晰認(rèn)識(shí);在技術(shù)創(chuàng)新方面,開(kāi)源模型極大地激發(fā)了開(kāi)發(fā)者的創(chuàng)造力,研發(fā)者和個(gè)人使用者均可圍繞DeepSeek 開(kāi)源模型不斷進(jìn)行二次開(kāi)發(fā),吸取或優(yōu)化模型技術(shù)和改進(jìn)方案;同時(shí),開(kāi)源特性能夠提升技術(shù)的透明度和信任度,技術(shù)人員可深入剖析模型運(yùn)行邏輯,進(jìn)而發(fā)現(xiàn)其潛在漏洞并及時(shí)修復(fù)。相較ChatGPT 等閉源模型而言,監(jiān)管機(jī)構(gòu)能夠?qū)崿F(xiàn)對(duì)開(kāi)源模型的穿透式監(jiān)管,監(jiān)督模型安全可靠運(yùn)行。
從監(jiān)管角度看,開(kāi)源模型雖然促進(jìn)了技術(shù)進(jìn)步,但同時(shí)也帶來(lái)監(jiān)管方面的新問(wèn)題。開(kāi)源協(xié)議雖包含規(guī)范模型使用的規(guī)則等,但惡意使用者可能違反協(xié)議,將模型用于商業(yè)目的、競(jìng)爭(zhēng)性開(kāi)發(fā)或模型的再分發(fā)。在安全責(zé)任方面,即使模型開(kāi)發(fā)者諸如DeepSeek 在用戶協(xié)議中聲明對(duì)其使用后果不承擔(dān)責(zé)任,但單方面聲明并不意味著其可免除所有法律責(zé)任(生成式人工智能的研發(fā)者和服務(wù)提供者負(fù)有維護(hù)其基本安全的職責(zé)),若因模型本身存在安全漏洞而被惡意利用并造成損害,開(kāi)發(fā)者不能完全免責(zé)。
從技術(shù)發(fā)展角度看,DeepSeek 相關(guān)技術(shù)的應(yīng)用在緩解監(jiān)管困境的同時(shí),也帶來(lái)新挑戰(zhàn)。
(一)對(duì)當(dāng)前監(jiān)管困境的積極影響
一方面,模型開(kāi)源、思維鏈等技術(shù)有助于紓解“算法黑箱”困境。《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《生成式人工智能暫行服務(wù)辦法》等規(guī)范對(duì)算法透明度和可解釋性多采用倡導(dǎo)性規(guī)則而非強(qiáng)行性規(guī)則。“算法黑箱”問(wèn)題是生成式人工智能監(jiān)管的難點(diǎn)。“算法黑箱”實(shí)質(zhì)是對(duì)生成式人工智能算法的披露和解釋不足,在算法偏見(jiàn)沖擊下,公眾與生成式人工智能間必然會(huì)出現(xiàn)算法信任危機(jī)。但是,算法模型結(jié)構(gòu)復(fù)雜,其決策過(guò)程難以被人類理解和解釋,使用者、監(jiān)管者甚至研發(fā)者都難以基于理性對(duì)算法進(jìn)行分析和判斷,因此,前期監(jiān)管思路致力于提高算法透明度。有學(xué)者提出“歸因解釋”“反事實(shí)解釋”等方法路徑,有學(xué)者提出透明度報(bào)告、算法檢測(cè)等監(jiān)管措施以及可觀察、可分解、可模擬的透明要求。但也有學(xué)者認(rèn)為,算法透明并不具備顯著效果,即使技術(shù)上可行,但未必實(shí)現(xiàn)帶來(lái)預(yù)期效果。因此,技術(shù)限制、理論爭(zhēng)議、倡導(dǎo)性規(guī)范等使監(jiān)管機(jī)構(gòu)在評(píng)估模型安全性、可靠性和公平性等方面長(zhǎng)期面臨重大困境。
DeepSeek 的發(fā)展表明,為增強(qiáng)模型理解能力、提升用戶信任,企業(yè)具有一定自驅(qū)力完成相關(guān)算法解釋和算法透明的技術(shù)要求,盡管可能出于商業(yè)目的,但也為緩解“算法黑箱”問(wèn)題提供了實(shí)現(xiàn)路徑,進(jìn)而助力完善監(jiān)管科技。DeepSeek 使用的思維鏈模式通過(guò)模擬人類推理過(guò)程,使模型決策過(guò)程更加透明。模型處理任務(wù)時(shí)依據(jù)思維鏈逐步推理,使每一步推理依據(jù)和邏輯關(guān)系都相對(duì)清晰,與此同時(shí),思維鏈將模型推理過(guò)程中的中間步驟完全展示并記錄,為使用者和監(jiān)管機(jī)關(guān)提供更多可觀察和分析的信息,有助于監(jiān)管機(jī)構(gòu)和使用者深入了解模型從輸入數(shù)據(jù)到最終決策的過(guò)程,為評(píng)估模型決策的合理性和公正性提供依據(jù)。
另一方面,以 DeepSeek 為代表的大模型主動(dòng)開(kāi)源,在增強(qiáng)人們信任的同時(shí),也為監(jiān)管機(jī)構(gòu)提供了更加便利、透明的審查條件。生成式人工智能開(kāi)源與閉源模式競(jìng)爭(zhēng)已久,諸如 OpenAI 等科技巨頭憑借強(qiáng)大的研發(fā)實(shí)力與資源優(yōu)勢(shì)選擇閉源,旨在保障企業(yè)技術(shù)秘密與商業(yè)利益。雖然部分模型選擇開(kāi)源,但其技術(shù)性能無(wú)法比肩 OpenAI 的閉源模型。DeepSeek 技術(shù)的新進(jìn)展或許標(biāo)志著開(kāi)源模式成為生成式人工智能發(fā)展不可忽視的新趨勢(shì),且這一新形態(tài)在監(jiān)管方面具有一定的積極影響。
在閉源模型環(huán)境下,監(jiān)管機(jī)構(gòu)對(duì)大模型的審查受信息不對(duì)稱制約以及商業(yè)秘密限制,無(wú)法獲取模型源代碼和內(nèi)部算法細(xì)節(jié),監(jiān)管機(jī)構(gòu)只能通過(guò)對(duì)生成內(nèi)容的外部觀察測(cè)試評(píng)估模型性能與合規(guī)性,相關(guān)的模型測(cè)試表明閉源模型的問(wèn)題溯源存在明顯阻礙。相較閉源模型而言,開(kāi)源模型具有開(kāi)放性、場(chǎng)景適應(yīng)性、專業(yè)用戶友好性、高度透明性、兼容性等特點(diǎn),極大地便利了技術(shù)創(chuàng)新和監(jiān)管審查。模型開(kāi)源包括模型架構(gòu)、訓(xùn)練數(shù)據(jù)、模型參數(shù)等內(nèi)容。在模型架構(gòu)方面,可對(duì)算法進(jìn)行全面測(cè)試,以評(píng)估算法的合理性、公平性和安全性;在訓(xùn)練數(shù)據(jù)方面,可直接檢測(cè)數(shù)據(jù)的收集、清洗、標(biāo)注和使用環(huán)節(jié)是否符合法律和技術(shù)標(biāo)準(zhǔn),可以及時(shí)規(guī)避數(shù)據(jù)濫用或隱私侵犯風(fēng)險(xiǎn);在模型參數(shù)方面,可直接審查開(kāi)源代碼,詳細(xì)了解模型的數(shù)據(jù)處理流程、算法實(shí)現(xiàn)細(xì)節(jié)以及模型訓(xùn)練過(guò)程。同時(shí),模型開(kāi)源有利于監(jiān)管機(jī)構(gòu)持續(xù)監(jiān)管,相較算法審查及備案而言,監(jiān)管機(jī)構(gòu)可及時(shí)獲取模型最新動(dòng)態(tài),跟蹤模型發(fā)展,確保模型在整個(gè)生命周期符合監(jiān)管要求。更為重要的是,模型開(kāi)源可促使使用者及同行參與算法監(jiān)督,技術(shù)研發(fā)者或競(jìng)爭(zhēng)對(duì)手在使用或監(jiān)督開(kāi)源模型的過(guò)程中,可能發(fā)現(xiàn)潛在問(wèn)題并上報(bào)至監(jiān)管機(jī)構(gòu),有助于監(jiān)管機(jī)構(gòu)及時(shí)發(fā)現(xiàn)和解決問(wèn)題,促進(jìn)開(kāi)源模型合規(guī),降低法律和技術(shù)風(fēng)險(xiǎn)。
(二)DeepSeek 技術(shù)變革帶來(lái)的新挑戰(zhàn)
1. 隱私保護(hù)和數(shù)據(jù)合規(guī)挑戰(zhàn)加劇
生成式人工智能的數(shù)據(jù)合規(guī)主要包括數(shù)據(jù)來(lái)源、數(shù)據(jù)處理、數(shù)據(jù)存儲(chǔ)和傳輸?shù)拳h(huán)節(jié)。DeepSeek的思維鏈和知識(shí)蒸餾技術(shù)為模型性能提升帶來(lái)突破,但也加劇了隱私保護(hù)和數(shù)據(jù)合規(guī)的挑戰(zhàn)。
在數(shù)據(jù)來(lái)源方面,生成式人工智能問(wèn)世之初,有研究人員指出,數(shù)據(jù)的質(zhì)量和來(lái)源是影響生成式人工智能發(fā)展的重要因素,生成式人工智能可能面臨訓(xùn)練語(yǔ)料用盡的情況。如前文所述,DeepSeek采取的蒸餾技術(shù)實(shí)質(zhì)是“教師模型”到“學(xué)生模型”的知識(shí)傳遞,蒸餾過(guò)程減少數(shù)據(jù)采集與標(biāo)注成本,在降低訓(xùn)練成本的同時(shí)大幅提高數(shù)據(jù)質(zhì)量,但同時(shí)面臨兩個(gè)合規(guī)風(fēng)險(xiǎn):一是若“教師模型”訓(xùn)練數(shù)據(jù)存在合法性問(wèn)題,那么,“學(xué)生模型”也將受到間接影響,使隱私保護(hù)和數(shù)據(jù)來(lái)源合法性的審查難度增大;二是這種方式可能存在知識(shí)產(chǎn)權(quán)爭(zhēng)議。
在數(shù)據(jù)處理方面,知識(shí)蒸餾可以高效地將知識(shí)從大型模型轉(zhuǎn)移到小型模型,為了使“學(xué)生模型”更好地學(xué)習(xí)“教師模型”的知識(shí),其可能對(duì)數(shù)據(jù)進(jìn)行一些特征提取和轉(zhuǎn)換操作,海量數(shù)據(jù)處理或?qū)⒓又孛撁籼幚淼臄?shù)據(jù)重新可識(shí)別風(fēng)險(xiǎn),進(jìn)而增加用戶隱私泄露風(fēng)險(xiǎn)。同時(shí),思維鏈技術(shù)在推理過(guò)程中涉及對(duì)數(shù)據(jù)的深度挖掘和分析,這種推理過(guò)程不再處于“黑箱”之中,而是展示出來(lái)并保存在日志中,推理過(guò)程就是數(shù)據(jù)信息處理過(guò)程。例如,當(dāng)要求 DeepSeek 評(píng)價(jià)某位公眾人物時(shí),其在思維鏈中會(huì)抓取各類網(wǎng)址,部分網(wǎng)址可能包含未經(jīng)證實(shí)或已證實(shí)為虛假的信息。同樣,當(dāng)有使用者要求其屏蔽不良信息時(shí),思維鏈仍會(huì)將不良信息的相關(guān)內(nèi)容在思考過(guò)程中展示出來(lái)。由此可見(jiàn),數(shù)據(jù)暴露程度的提升,將使數(shù)據(jù)合規(guī)風(fēng)險(xiǎn)增大。
在數(shù)據(jù)存儲(chǔ)和傳輸環(huán)節(jié),生成式人工智能依賴大量數(shù)據(jù),其數(shù)據(jù)通常存儲(chǔ)在多個(gè)不同地理位置的服務(wù)器上,如何確保這些數(shù)據(jù)的安全性和完整性是其面臨的一大挑戰(zhàn)。根據(jù) DeepSeek 的隱私政策可知,個(gè)人數(shù)據(jù)信息存儲(chǔ)在 DeepSeek 的中國(guó)境內(nèi)服務(wù)器,但模型開(kāi)源容易暴露數(shù)據(jù)。有使用者發(fā)現(xiàn),DeepSeek 可公開(kāi)訪問(wèn)的 ClickHouse 數(shù)據(jù)庫(kù),允許訪客全面控制數(shù)據(jù)庫(kù)操作,訪問(wèn)包括 100 多萬(wàn)行日志流在內(nèi)的內(nèi)部數(shù)據(jù),其中,涉及聊天記錄、密鑰、后端詳細(xì)信息及其他高度敏感信息。雖然DeepSeek 立即對(duì)其進(jìn)行修復(fù),但其風(fēng)險(xiǎn)仍需關(guān)注。在數(shù)據(jù)共享和跨境流動(dòng)問(wèn)題方面,生成式人工智能更需要國(guó)際視野,但不同國(guó)家和地區(qū)的數(shù)據(jù)保護(hù)法規(guī)存在差異。近年來(lái),個(gè)人信息的法律保護(hù)逐漸受到各國(guó)高度重視,例如,歐盟對(duì)個(gè)人信息等數(shù)據(jù)要求相對(duì)嚴(yán)格,《通用數(shù)據(jù)保護(hù)條例》(GDPR)對(duì)數(shù)據(jù)訪問(wèn)、存儲(chǔ)、修改、刪除及數(shù)據(jù)跨境傳輸設(shè)置了嚴(yán)格條件。雖然世界各國(guó)在數(shù)據(jù)跨境“自由流動(dòng)”和“數(shù)據(jù)跨境管制”間存在分歧,但數(shù)據(jù)安全是數(shù)據(jù)跨境的重要限制性原則。因此,我國(guó)生成式人工智能機(jī)構(gòu)可通過(guò)進(jìn)一步提高數(shù)據(jù)合規(guī)標(biāo)準(zhǔn),進(jìn)而提升在全球范圍內(nèi)的競(jìng)爭(zhēng)力。
2. 知識(shí)產(chǎn)權(quán)方面的爭(zhēng)議
知識(shí)蒸餾技術(shù)在實(shí)現(xiàn)低成本高效訓(xùn)練的同時(shí),或?qū)⒁l(fā)一系列知識(shí)產(chǎn)權(quán)爭(zhēng)議。知識(shí)蒸餾的本質(zhì)是利用“教師模型”的訓(xùn)練效果。有觀點(diǎn)認(rèn)為,將蒸餾技術(shù)用于構(gòu)建直接競(jìng)爭(zhēng)的大模型產(chǎn)品,屬于違反其服務(wù)條款的行為;也有觀點(diǎn)認(rèn)為,利用先進(jìn)大模型的輸出進(jìn)行二次開(kāi)發(fā)屬于行業(yè)慣例,并不存在爭(zhēng)議。
在模型蒸餾過(guò)程中,其實(shí)質(zhì)是利用“教師模型”的訓(xùn)練成果對(duì)“學(xué)生模型”進(jìn)行知識(shí)輸入和高效利用。從技術(shù)角度分析,模型蒸餾過(guò)程中知識(shí)的利用與侵權(quán)的界限難以明確劃分,“學(xué)生模型”學(xué)習(xí)“教師模型”的知識(shí),必然會(huì)在一定程度上與“教師模型”存在相似之處,但這種相似達(dá)到何種程度屬于越過(guò)合理利用的范疇,進(jìn)而構(gòu)成侵權(quán),需要在技術(shù)層面進(jìn)行更加清晰的檢測(cè)并設(shè)置標(biāo)準(zhǔn)。同時(shí),不同模型架構(gòu)和算法在蒸餾過(guò)程中展示的效果各不相同,進(jìn)一步增加了技術(shù)標(biāo)準(zhǔn)的復(fù)雜性。雖然各大生成式人工智能或出于商業(yè)目的或出于技術(shù)創(chuàng)新目的,采取開(kāi)源或 API 調(diào)用(應(yīng)用程序接口)模式開(kāi)放共享平臺(tái),但無(wú)論開(kāi)源還是 API 調(diào)用模式,其允許用戶使用、復(fù)制、修改都應(yīng)受到一定限制,或制定協(xié)議許可,或出臺(tái)相關(guān)規(guī)定與規(guī)范。若生成式人工智能系統(tǒng)在蒸餾過(guò)程中未經(jīng)授權(quán)使用其他公司的模型作為“教師模型”,或在知識(shí)利用與學(xué)習(xí)過(guò)程中過(guò)度依賴“教師模型”的獨(dú)特技術(shù)而缺乏獨(dú)創(chuàng)性,可能造成知識(shí)產(chǎn)權(quán)侵權(quán)。
從法律層面看,現(xiàn)有知識(shí)產(chǎn)權(quán)法律體系在應(yīng)對(duì)模型蒸餾引發(fā)的爭(zhēng)議時(shí)存在一定滯后性。傳統(tǒng)知識(shí)產(chǎn)權(quán)法律主要對(duì)具體內(nèi)容較為明確的創(chuàng)新成果進(jìn)行保護(hù),對(duì)生成式人工智能模型這種不透明、高度復(fù)雜、飛速動(dòng)態(tài)發(fā)展的技術(shù)成果,法律對(duì)其的界定和保護(hù)范圍并不清晰。行業(yè)內(nèi)相關(guān)爭(zhēng)議缺乏明確規(guī)范標(biāo)準(zhǔn),現(xiàn)有的協(xié)議多采取回避態(tài)度。例如,GPL(軟件開(kāi)源通用公共許可證)規(guī)定:“若軟件分發(fā)者對(duì)他人發(fā)起專利侵權(quán)訴訟,指控對(duì)方使用該軟件侵犯其專利,GPLv3 會(huì)自動(dòng)終止對(duì)該訴訟方授予的所有專利許可。”知識(shí)產(chǎn)權(quán)的核心是在技術(shù)保護(hù)和激勵(lì)技術(shù)創(chuàng)新間尋找平衡點(diǎn),蒸餾技術(shù)不僅影響原初大模型的社會(huì)信任與市場(chǎng)競(jìng)爭(zhēng)力,而且對(duì)人工智能技術(shù)的創(chuàng)新和發(fā)展產(chǎn)生影響,但過(guò)于嚴(yán)苛的技術(shù)保護(hù)可能會(huì)使壟斷企業(yè)利用知識(shí)產(chǎn)權(quán)爭(zhēng)議作為維持其壟斷地位的手段。
3.“幻覺(jué)問(wèn)題”加重
大模型的“幻覺(jué)問(wèn)題”是所有模型的固有弊端,“幻覺(jué)問(wèn)題”指模型生成的內(nèi)容看似準(zhǔn)確,但實(shí)際上是其編造的或者缺乏數(shù)據(jù)支撐,模型的“幻覺(jué)問(wèn)題”嚴(yán)重影響模型輸出內(nèi)容的可靠性,進(jìn)而影響社會(huì)信任。隨著 DeepSeek 模型蒸餾技術(shù)及思維鏈技術(shù)的應(yīng)用,雖然邏輯推理能力得到提升,但“幻覺(jué)問(wèn)題”逐漸凸顯并加重。例如,在實(shí)際使用過(guò)程中,有使用者發(fā)現(xiàn) DeepSeek 大模型在思維鏈推導(dǎo)過(guò)程和最后結(jié)果中輸出虛假和編造的文件、頁(yè)碼、專業(yè)名詞等,且模型表達(dá)內(nèi)容、邏輯推演實(shí)施以及細(xì)節(jié)過(guò)于完善,普通使用者的知識(shí)儲(chǔ)備難以糾錯(cuò),即使使用者指出具體錯(cuò)誤,模型仍會(huì)對(duì)相關(guān)內(nèi)容進(jìn)行再“編造”。
在模型訓(xùn)練階段,“幻覺(jué)問(wèn)題”主要受訓(xùn)練數(shù)據(jù)質(zhì)量的影響。例如,訓(xùn)練數(shù)據(jù)中包含大量不準(zhǔn)確、不完整的信息,模型在學(xué)習(xí)過(guò)程中容易吸收這些錯(cuò)誤信息,進(jìn)而在生成內(nèi)容時(shí)輸出錯(cuò)誤內(nèi)容。如前文所述,蒸餾技術(shù)的知識(shí)遷移在提高數(shù)據(jù)質(zhì)量的同時(shí)會(huì)放大數(shù)據(jù)存在的問(wèn)題,利用蒸餾技術(shù)訓(xùn)練的數(shù)據(jù)可能是存在瑕疵或錯(cuò)誤的數(shù)據(jù),經(jīng)反復(fù)利用導(dǎo)致最終輸出的極端化──優(yōu)質(zhì)數(shù)據(jù)帶來(lái)準(zhǔn)確、嚴(yán)密的內(nèi)容,瑕疵數(shù)據(jù)會(huì)放大“幻覺(jué)問(wèn)題”。同時(shí),思維鏈技術(shù)提升模型推理能力的負(fù)面影響是導(dǎo)致普通使用者更加“相信”其輸出的內(nèi)容。思維鏈?zhǔn)腔谀P偷膰?yán)密推理,在推理過(guò)程中逐步處理可能存在偏差或不完整的數(shù)據(jù),推理步驟越復(fù)雜,引入錯(cuò)誤信息的概率越大。模型在處理部分專業(yè)領(lǐng)域的問(wèn)題時(shí),可能因缺乏足夠準(zhǔn)確的數(shù)據(jù)或抓取信息不準(zhǔn)確生成錯(cuò)誤結(jié)論。
DeepSeek“幻覺(jué)問(wèn)題”的加重提示我們,生成式人工智能擁有一定的自驅(qū)力,能夠提升算法的解釋性和透明性,但其“幻覺(jué)問(wèn)題”可能隨著模型能力的增強(qiáng)而同步放大。雖然有學(xué)者提出,可通過(guò)建立精準(zhǔn)的“外接”私有數(shù)據(jù)庫(kù) RAG(Retrieval?Augmented Generation,檢索增強(qiáng)生成)提高人工智能的精準(zhǔn)度,但這種方式會(huì)帶來(lái)極大的數(shù)據(jù)負(fù)荷,其更適合模型的個(gè)性化設(shè)計(jì)而非基礎(chǔ)模型。因此,亟須探索合理的監(jiān)管措施,促使生成式人工智能積極應(yīng)對(duì)“幻覺(jué)問(wèn)題”,避免使用者因過(guò)度信任其輸出的內(nèi)容而造成難以預(yù)測(cè)的損失。
4. 模型安全性問(wèn)題
DeepSeek 模型發(fā)布后,曾遭大量境外網(wǎng)絡(luò)攻擊,直接影響系統(tǒng)的注冊(cè)、訪問(wèn)和正常使用。此次攻擊是生成式人工智能模型問(wèn)世以來(lái)罕見(jiàn)的大規(guī)模跨境攻擊,此次攻擊事件暴露出一系列典型的網(wǎng)絡(luò)安全問(wèn)題,包括攻擊手段復(fù)雜化、跨境攻擊、網(wǎng)絡(luò)安全防護(hù)技術(shù)漏洞、應(yīng)急響應(yīng)能力不足、數(shù)據(jù)安全風(fēng)險(xiǎn)以及供應(yīng)鏈安全風(fēng)險(xiǎn),等等。上述問(wèn)題不僅影響 DeepSeek 的正常運(yùn)營(yíng),而且提示我們要更加重視大模型的安全問(wèn)題。
生成式人工智能大模型在安全層面具有天然脆弱性,部分研究者將其可能遭受的攻擊歸結(jié)為模型竊取、數(shù)據(jù)重構(gòu)、成員推斷、數(shù)據(jù)投毒、提示詞注入、間接提示詞注入、模型劫持、海綿樣本,等等。模型的架構(gòu)和算法設(shè)計(jì)存在固有內(nèi)在缺陷。模型處理輸入數(shù)據(jù)時(shí),對(duì)數(shù)據(jù)的微小變化較為敏感,攻擊者能采取各種手段突破模型的防御,當(dāng)前的應(yīng)對(duì)方式主要是增強(qiáng)模型的魯棒性(模型或算法在面對(duì)各種不確定性、干擾、異常情況或不利因素時(shí),依然能夠保持穩(wěn)定運(yùn)行和良好性能的能力)。隨著大模型從基礎(chǔ)的垂直部署模式到與醫(yī)療、金融、法律等高度專業(yè)領(lǐng)域結(jié)合的“AI+”模式,其在上述關(guān)鍵領(lǐng)域安全性問(wèn)題的影響范圍和嚴(yán)重程度不斷增加。在商業(yè)應(yīng)用中,技術(shù)創(chuàng)新雖然帶來(lái)高效和便捷,但確保新技術(shù)的安全性始終是各商業(yè)機(jī)構(gòu)的首要任務(wù),如果將新技術(shù)應(yīng)用到現(xiàn)存商業(yè)模式中,需要全面評(píng)估其安全性和數(shù)據(jù)隱私保護(hù)措施。
生成式人工智能監(jiān)管問(wèn)題的困境之一是監(jiān)管措施要不斷適應(yīng)技術(shù)的飛速發(fā)展。有學(xué)者認(rèn)為,隱私保護(hù)、模型安全、技術(shù)標(biāo)準(zhǔn)、開(kāi)源協(xié)議等更宜采用靈活多樣、合作試驗(yàn)、跨國(guó)適用的行業(yè)標(biāo)準(zhǔn)等“軟法”加以規(guī)制,監(jiān)管機(jī)關(guān)宜與企業(yè)、行業(yè)組織或企業(yè)合作聯(lián)盟等開(kāi)展廣泛合作,通過(guò)多種機(jī)制促進(jìn)“軟法”與“硬法”結(jié)合,規(guī)范生成式人工智能的發(fā)展。
(一)加強(qiáng)隱私保護(hù)與數(shù)據(jù)安全監(jiān)管
明確個(gè)人數(shù)據(jù)的使用范圍和受侵害時(shí)的救濟(jì)方式,平衡個(gè)人數(shù)據(jù)保護(hù)和數(shù)字經(jīng)濟(jì)發(fā)展的關(guān)系是適應(yīng)當(dāng)今社會(huì)數(shù)字經(jīng)濟(jì)發(fā)展的重心,也應(yīng)成為生成式人工智能監(jiān)管的重點(diǎn)方向之一。
在數(shù)據(jù)收集階段,生成式人工智能的監(jiān)管應(yīng)確定相對(duì)明確的規(guī)范,要求明確數(shù)據(jù)收集的范圍和目的,確保數(shù)據(jù)收集的必要性和合法性。收集用戶數(shù)據(jù)時(shí),應(yīng)遵循最小化原則。大量數(shù)據(jù)泄露的事件表明,生成式人工智能應(yīng)完善用戶同意機(jī)制,確保用戶對(duì)數(shù)據(jù)收集行為有清晰認(rèn)知。DeepSeek 的隱私政策明確“在經(jīng)安全加密技術(shù)處理、嚴(yán)格去標(biāo)識(shí)化且無(wú)法重新識(shí)別特定個(gè)人的前提下,會(huì)將服務(wù)所收集的輸入內(nèi)容及對(duì)應(yīng)輸出的內(nèi)容,用于 DeepSeek服務(wù)質(zhì)量的提升和優(yōu)化”。此類隱私條款廣泛應(yīng)用于目前的大模型服務(wù)協(xié)議中,似乎已成為“以服務(wù)換取數(shù)據(jù)”的商業(yè)模式。生成式人工智能的監(jiān)管并非絕對(duì)禁止這一商業(yè)模式,但應(yīng)將選擇權(quán)交于使用者手中。
在數(shù)據(jù)處理階段,應(yīng)對(duì)數(shù)據(jù)分類分級(jí),并根據(jù)數(shù)據(jù)敏感程度等因素分類分級(jí)管理,采用差分隱私的方法,對(duì)不同級(jí)別的數(shù)據(jù)采取不同保護(hù)措施和使用限制。鑒于數(shù)據(jù)蒸餾帶來(lái)的合成數(shù)據(jù)利用,應(yīng)進(jìn)一步創(chuàng)建機(jī)器學(xué)習(xí)場(chǎng)景下數(shù)據(jù)處理的新權(quán)利和新規(guī)則,規(guī)定合成數(shù)據(jù)使用制度。隨著合成數(shù)據(jù)和大量數(shù)據(jù)的處理分析,去隱私化的數(shù)據(jù)在模型處理中重新可識(shí)別的風(fēng)險(xiǎn)不斷加劇。研發(fā)者在利用海量數(shù)據(jù)的同時(shí),要以數(shù)據(jù)分類分級(jí)保護(hù)制度為依據(jù),對(duì)數(shù)據(jù)全周期各環(huán)節(jié)的相關(guān)行為使用的技術(shù)進(jìn)行規(guī)范。通過(guò)設(shè)置隱私數(shù)據(jù)的敏感詞,利用算法、數(shù)據(jù)分析等手段動(dòng)態(tài)監(jiān)測(cè)、反饋模型運(yùn)行處理過(guò)程,以算法應(yīng)對(duì)算法帶來(lái)的問(wèn)題,及時(shí)識(shí)別并有效處理模型運(yùn)行中出現(xiàn)的隱私、敏感數(shù)據(jù)。
在數(shù)據(jù)存儲(chǔ)和傳輸階段,應(yīng)推動(dòng)研發(fā)者采用加密和安全的存儲(chǔ)架構(gòu)。可通過(guò)數(shù)據(jù)分級(jí)等制度,對(duì)敏感數(shù)據(jù)進(jìn)行加密存儲(chǔ),防止數(shù)據(jù)在存儲(chǔ)過(guò)程中被竊取或篡改;也可采用安全傳輸協(xié)議,確保數(shù)據(jù)傳輸?shù)谋C苄院屯暾浴T跀?shù)據(jù)跨境流動(dòng)方面,各國(guó)技術(shù)發(fā)展的差異使其法律和立場(chǎng)不同,生成式人工智能要具有全球競(jìng)爭(zhēng)力,研發(fā)者和服務(wù)提供者就需要提供能夠符合不同國(guó)家要求的大模型。因此,我國(guó)需進(jìn)一步規(guī)范數(shù)據(jù)跨境傳輸、處理,凝練并提出符合自身主權(quán)、安全、發(fā)展利益的數(shù)據(jù)戰(zhàn)略,對(duì)數(shù)據(jù)接收方和處理者進(jìn)行數(shù)據(jù)安全評(píng)估,提升數(shù)據(jù)安全保護(hù)能力,保障我國(guó)數(shù)據(jù)安全。
(二)技術(shù)創(chuàng)新與技術(shù)保護(hù)的平衡
知識(shí)蒸餾技術(shù)和模型開(kāi)源會(huì)引發(fā)知識(shí)產(chǎn)權(quán)爭(zhēng)議,二者在技術(shù)上密不可分,知識(shí)蒸餾的對(duì)象通常會(huì)變?yōu)殚_(kāi)源模型。在互聯(lián)網(wǎng)時(shí)代,有學(xué)者提出知識(shí)產(chǎn)權(quán)弱化和利益共享觀點(diǎn),但知識(shí)產(chǎn)權(quán)過(guò)度弱化顯然無(wú)益于保護(hù)權(quán)利持有者持續(xù)技術(shù)創(chuàng)新的動(dòng)力。針對(duì)所引發(fā)的知識(shí)產(chǎn)權(quán)爭(zhēng)議,需要規(guī)范蒸餾技術(shù)和開(kāi)源行為,對(duì)此種爭(zhēng)議風(fēng)險(xiǎn)作出合理回應(yīng),進(jìn)而化解技術(shù)創(chuàng)新和技術(shù)保護(hù)間的沖突。
第一,要準(zhǔn)確界定行為性質(zhì),區(qū)分具體行為屬于“技術(shù)改進(jìn)”還是“侵權(quán)復(fù)制”。若“學(xué)生模型”僅通過(guò)“教師模型”的輸出結(jié)果(諸如預(yù)測(cè)數(shù)據(jù))進(jìn)行訓(xùn)練,需審查其是否超出原模型的允許使用范圍和保護(hù)范圍;若“學(xué)生模型”僅學(xué)習(xí)“教師模型”的通用知識(shí)和公開(kāi)技術(shù),且對(duì)關(guān)鍵創(chuàng)新點(diǎn)進(jìn)行自主改進(jìn)和創(chuàng)新,就不構(gòu)成侵權(quán),反之則構(gòu)成侵權(quán)。對(duì)開(kāi)源模型而言,開(kāi)源并不是對(duì)權(quán)利的放棄,應(yīng)是許可證保障下的新型著作權(quán)許可模式,其行為性質(zhì)應(yīng)受到許可證約束,其實(shí)質(zhì)是開(kāi)源者對(duì)權(quán)利處置及對(duì)開(kāi)源社區(qū)規(guī)范的遵守。
第二,應(yīng)建立針對(duì)大模型的特別審查機(jī)制。監(jiān)管機(jī)關(guān)可要求公開(kāi)蒸餾模型關(guān)鍵技術(shù)流程,例如,數(shù)據(jù)來(lái)源、對(duì)齊方法,等等。同時(shí),舉證責(zé)任可向技術(shù)優(yōu)勢(shì)方傾斜,可要求被控侵權(quán)方證明其模型的獨(dú)立性。對(duì)開(kāi)源模型而言,其應(yīng)以敏捷治理替代“命令—控制型”監(jiān)管,利用制度機(jī)制和資源配置等方式在激勵(lì)創(chuàng)新的同時(shí),對(duì)模型利用進(jìn)行規(guī)范,避免濫用和惡意使用。
第三,監(jiān)管機(jī)構(gòu)應(yīng)與開(kāi)源社區(qū)建立合作機(jī)制。無(wú)論模型的蒸餾利用還是開(kāi)源,都或多或少依賴開(kāi)源社區(qū)的開(kāi)源許可。開(kāi)源許可屬于合同,但又依賴傳統(tǒng)的知識(shí)產(chǎn)權(quán)制度。監(jiān)管機(jī)關(guān)可引導(dǎo)社區(qū)通過(guò)技術(shù)標(biāo)準(zhǔn)、科技倫理、行業(yè)標(biāo)準(zhǔn)等,建立符合當(dāng)前技術(shù)趨勢(shì)的知識(shí)產(chǎn)權(quán)協(xié)議并動(dòng)態(tài)更新,通過(guò)合作、包容、靈活的自律規(guī)范和自治性規(guī)范等“軟法”規(guī)范開(kāi)源和蒸餾等行為,為開(kāi)放知識(shí)產(chǎn)權(quán)提供渠道,為新技術(shù)的開(kāi)發(fā)利用設(shè)置底線。
(三)健全模型的提示與反饋機(jī)制
雖然研究人員嘗試使用各種方式緩解大模型“幻覺(jué)問(wèn)題”,但 DeepSeek 的測(cè)試表明,似乎大模型能力越強(qiáng),模型的“幻覺(jué)問(wèn)題”越令人信以為真。DeepSeek 在用戶協(xié)議中明確“本服務(wù)提供的所有輸出均由人工智能模型答復(fù),可能出現(xiàn)錯(cuò)誤或遺漏,僅供您參考,您不應(yīng)將輸出的內(nèi)容作為專業(yè)建議”。但這種隱蔽的格式化服務(wù)條款內(nèi)容不應(yīng)完全成為其單方面的免責(zé)依據(jù)。在技術(shù)發(fā)展的同時(shí),服務(wù)提供者應(yīng)健全模型的安全提示與反饋機(jī)制,在提示使用者風(fēng)險(xiǎn)的同時(shí)規(guī)范機(jī)構(gòu)自身行為,為責(zé)任歸結(jié)提供依據(jù)。
從監(jiān)管角度看,在鼓勵(lì)完善技術(shù)的同時(shí),應(yīng)要求生成式人工智能服務(wù)提供者采取充分提示與反饋機(jī)制規(guī)避風(fēng)險(xiǎn)。當(dāng)前,生成式人工智能服務(wù)提供者的注意義務(wù)雖然不包含對(duì)生成內(nèi)容負(fù)有一般性審查義務(wù),但應(yīng)包含對(duì)涉嫌侵權(quán)的內(nèi)容采取顯著標(biāo)識(shí)的義務(wù)。這種標(biāo)識(shí)不應(yīng)僅出現(xiàn)在服務(wù)協(xié)議等格式化條款內(nèi),而應(yīng)對(duì)涉及金融、醫(yī)療、法律等專業(yè)領(lǐng)域的回答給予顯著提示。在模型反饋方面,監(jiān)管機(jī)構(gòu)應(yīng)要求服務(wù)提供者建立完善用戶反饋渠道,及時(shí)收集用戶在使用模型過(guò)程中發(fā)現(xiàn)的問(wèn)題和異常。目前,依據(jù) DeepSeek 用戶協(xié)議,用戶發(fā)現(xiàn)侵權(quán)、違法、虛假信息的反饋渠道為郵箱反饋,此舉無(wú)法在用戶使用自然語(yǔ)言處理模型過(guò)程中發(fā)現(xiàn)模型推理、生成的幻覺(jué)或錯(cuò)誤信息時(shí)進(jìn)行針對(duì)性反饋。反饋渠道應(yīng)便利、高效、有針對(duì)性。應(yīng)鼓勵(lì)行業(yè)制定標(biāo)準(zhǔn)化流程,提供多種反饋渠道,方便用戶提交反饋信息。同時(shí),可建立模型性能監(jiān)測(cè)系統(tǒng),公布“幻覺(jué)問(wèn)題”的反饋率、響應(yīng)率、處理率等,驅(qū)動(dòng)研發(fā)者提升技術(shù)。
在“幻覺(jué)問(wèn)題”處理方面,監(jiān)管機(jī)關(guān)應(yīng)加強(qiáng)法律的預(yù)防功能,而非制裁功能。當(dāng)前,不宜要求生成式人工智能服務(wù)提供者對(duì)生成內(nèi)容的真實(shí)性和準(zhǔn)確性承擔(dān)全部責(zé)任,但生成式人工智能服務(wù)提供者應(yīng)承擔(dān)運(yùn)營(yíng)主體責(zé)任,履行內(nèi)容管控、溯源標(biāo)記等明確義務(wù),應(yīng)采取有效應(yīng)對(duì)措施,確保能夠溯源問(wèn)題并及時(shí)改善。例如,對(duì)輸入模型的指令提示、模型輸出內(nèi)容及決策過(guò)程中的關(guān)鍵步驟予以記錄,并通過(guò)日志等存儲(chǔ)方式,確保數(shù)據(jù)完整性和可追溯性。當(dāng)模型出現(xiàn)問(wèn)題時(shí),生成式人工智能服務(wù)提供者應(yīng)確保能夠通過(guò)溯源體系快速定位問(wèn)題所在,采取針對(duì)性改進(jìn)措施,提高模型可靠性。
(四)模型安全性監(jiān)管
DeepSeek 的服務(wù)器數(shù)據(jù)泄露和遭受大規(guī)模攻擊表明,模型安全性能不僅是企業(yè)的問(wèn)題,而且關(guān)系使用者個(gè)人隱私、社會(huì)利益以及國(guó)家安全,因此,模型安全性、保護(hù)數(shù)據(jù)安全及抗攻擊等性能應(yīng)成為未來(lái)生成式人工智能監(jiān)管的重點(diǎn)方向之一。
一方面,應(yīng)制定模型安全標(biāo)準(zhǔn)。生成式人工智能治理標(biāo)準(zhǔn)可發(fā)揮“承接立法和監(jiān)管、對(duì)接技術(shù)實(shí)踐”的重要作用,應(yīng)鼓勵(lì)行業(yè)制定適用于生成式人工智能的安全技術(shù)標(biāo)準(zhǔn),包括數(shù)據(jù)去隱私化、算法對(duì)抗、數(shù)據(jù)庫(kù)訪問(wèn)、安全漏洞檢測(cè)與修復(fù)等,全面評(píng)估模型的安全性,并向監(jiān)管機(jī)關(guān)提供檢測(cè)報(bào)告。研發(fā)者可以參考 OpenAI 的紅色對(duì)抗團(tuán)隊(duì),自行開(kāi)展功能測(cè)試、性能測(cè)試、安全漏洞測(cè)試等多方面的對(duì)抗性測(cè)試,并鼓勵(lì)向社會(huì)公開(kāi)。但是,這種標(biāo)準(zhǔn)和要求應(yīng)為“軟標(biāo)準(zhǔn)”而非硬性要求。在技術(shù)飛速發(fā)展時(shí)期,不應(yīng)制定過(guò)于嚴(yán)苛的安全標(biāo)準(zhǔn)給企業(yè)增加過(guò)高合規(guī)成本,而應(yīng)以科技倫理為基本原則、風(fēng)險(xiǎn)管理為基本制度。可通過(guò)安全認(rèn)證機(jī)制,對(duì)符合安全標(biāo)準(zhǔn)的模型予以醫(yī)療、金融等領(lǐng)域應(yīng)用的行政許可,既可以提高模型安全性和可靠性,也有助于拓展模型的應(yīng)用領(lǐng)域。
另一方面,應(yīng)將模型安全性能的檢測(cè)、預(yù)警和風(fēng)險(xiǎn)預(yù)案作為監(jiān)管重點(diǎn),要求研發(fā)者利用數(shù)據(jù)監(jiān)測(cè)等技術(shù)手段實(shí)時(shí)監(jiān)測(cè)模型存儲(chǔ)、運(yùn)行的數(shù)據(jù)安全狀況。可建立數(shù)據(jù)泄露預(yù)警機(jī)制,發(fā)現(xiàn)異常攻擊、數(shù)據(jù)泄露或安全威脅時(shí)能夠及時(shí)響應(yīng)并上報(bào),提高對(duì)數(shù)據(jù)安全風(fēng)險(xiǎn)的檢測(cè)和應(yīng)對(duì)能力。同時(shí),監(jiān)管機(jī)關(guān)應(yīng)定期檢查與測(cè)試,對(duì)安全性能等專業(yè)技術(shù)問(wèn)題引入第三方評(píng)估機(jī)構(gòu),對(duì)存在嚴(yán)重安全隱患的模型采取風(fēng)險(xiǎn)提示或限期整改等行政手段,必要時(shí)向社會(huì)公布檢測(cè)結(jié)果。
DeepSeek 的技術(shù)應(yīng)用在生成式人工智能研發(fā)領(lǐng)域引發(fā)廣泛關(guān)注與學(xué)習(xí)。DeepSeek 發(fā)布后,有團(tuán)隊(duì)發(fā)布了技術(shù)指標(biāo)可媲美 DeepSeek R1,但訓(xùn)練成本不足 50 美金的新模型。技術(shù)發(fā)展帶來(lái)行業(yè)快速發(fā)展的同時(shí),也給生成式人工智能監(jiān)管帶來(lái)新挑戰(zhàn)。DeepSeek 的蒸餾技術(shù)、思維鏈模式及開(kāi)源策略在提升模型性能、拓展應(yīng)用場(chǎng)景和促進(jìn)技術(shù)創(chuàng)新等方面發(fā)揮了重要作用。雖然 DeepSeek 的技術(shù)應(yīng)用在一定程度上緩解了“算法黑箱”和監(jiān)管審查的困境,但也為隱私保護(hù)和數(shù)據(jù)合規(guī)、知識(shí)產(chǎn)權(quán)、“幻覺(jué)問(wèn)題”和模型安全性等方面帶來(lái)新挑戰(zhàn)。
未來(lái),人工智能技術(shù)將持續(xù)發(fā)展,在引發(fā)科技革命的同時(shí)也帶來(lái)風(fēng)險(xiǎn)挑戰(zhàn),監(jiān)管的重要性愈發(fā)凸顯。因此,要著眼未來(lái),預(yù)測(cè)生成式人工智能的發(fā)展趨勢(shì),進(jìn)一步規(guī)范數(shù)據(jù)收集、數(shù)據(jù)處理、數(shù)據(jù)存儲(chǔ)和傳輸?shù)龋行ПWo(hù)個(gè)人隱私、加強(qiáng)數(shù)據(jù)合規(guī)體系建設(shè);針對(duì)蒸餾、開(kāi)源等技術(shù),既要鼓勵(lì)行業(yè)標(biāo)準(zhǔn)和技術(shù)標(biāo)準(zhǔn)等“軟法”的應(yīng)用,準(zhǔn)確界定行為性質(zhì),平衡技術(shù)創(chuàng)新與技術(shù)保護(hù),也要建立有效的模型提示、標(biāo)識(shí)、反饋與溯源機(jī)制,弱化大模型的“幻覺(jué)風(fēng)險(xiǎn)”。未來(lái),伴隨技術(shù)的發(fā)展成熟,可制定更為嚴(yán)格的模型安全標(biāo)準(zhǔn),在充分發(fā)揮人工智能技術(shù)優(yōu)勢(shì)的同時(shí),防范技術(shù)風(fēng)險(xiǎn)、保障公眾利益和社會(huì)安全。面向未來(lái)技術(shù)的監(jiān)管研究還應(yīng)著眼國(guó)際視野,加強(qiáng)全球人工智能監(jiān)管的協(xié)調(diào)與合作,在當(dāng)代國(guó)際秩序中推動(dòng)生成式人工智能監(jiān)管的中國(guó)方案,應(yīng)對(duì)人工智能發(fā)展的全球性挑戰(zhàn)。
文獻(xiàn)來(lái)源 |?《新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》網(wǎng)絡(luò)首發(fā)