為生成式AI「立規矩」
作者/ IT時報記者 范昕茹
編輯/ 錢立富 孫妍
任何一項科技都有兩面性,在生成式AI快速發展的同時,對於其安全性的擔憂如影隨形,倒逼相關國家和地區加快立法進程,為生成式AI健康發展築起「護欄」。
今年6月,歐洲議會高票通過《人工智能法案》草案,意味着歐洲議會、歐盟成員國和歐盟委員會將開始「三方談判」,以確定法案的最終條款。美國也在積極探討AI監管相關事宜。
視線回到國內。今年4月,國家互聯網信息辦公室起草了《生成式人工智能服務管理辦法(徵求意見稿)》。今年7月,完成修訂後的《生成式人工智能服務管理暫行辦法》(簡稱《辦法》)正式出台,將於2023年8月15日起施行,這被認為是全球首部生成式AI立法。《辦法》從技術發展與治理、服務規範、監督檢查和法律責任等方面對生成式人工智能做出具體規定,為我國生成式AI今後發展定下基調。
圖源:中國網信網
業內人士認為,《辦法》出台後,合規已經成為大模型廠商的必選項。《辦法》會給大模型廠商帶來哪些變化?《IT時報》記者詢問了騰訊、阿里雲、百度等近十家大模型廠商,但他們都沒有給出正面回應。
生成式AI有法可依
7月13日,完成修訂後的《生成式人工智能服務管理暫行辦法》正式出台,將於2023年8月15日起施行。
對比3個月前發佈的《生成式人工智能服務管理辦法(徵求意見稿)》就可以發現,《辦法》做了較大改動。
比如,《辦法》新提出「堅持發展和安全並重、促進創新和依法治理相結合」的原則,主張包容審慎和分類分級監管,將鼓勵條款從徵求意見稿的一條擴展到三條。
再比如,《辦法》不再強調利用生成式人工智能生成的內容應當真實準確,僅指出要提高生成內容的準確性和可靠性,尊重了大模型技術的新特點。
同時,《辦法》將必須要求用戶提供真實身份信息的要求變更為「生成式人工智能服務提供者應當與註冊其服務的服務使用者簽訂服務協議,明確雙方權利義務」,擴大了服務空間等。
在不少行業人士看來,對互聯網行業來說,《辦法》相比4月份公布的徵求意見稿有了很大的進步。「這在一般的法規制定上,是不太常見的。」匯業律師事務所律師史宇航認為,《辦法》的改動,吸納了相關從業者的意見,表明國家在推動生成式AI發展方面的積極態度。
不過,《辦法》並沒有完全解釋行業關心的問題。史宇航指出,針對數據來源合法性如何認定,對不得侵害他人依法享有的知識產權如何理解等問題,《辦法》並沒有給出詳細解釋,只能在後續司法、執法實踐中去摸索,通過相關判例去明確方向。但在史宇航看來,《辦法》的出台,至少讓國內生成式AI廠商「有法可依」。
合規成為「必選項」
《辦法》的出台,對於大模型廠商而言,將帶來哪些實際影響?
在史宇航看來,《辦法》的出台,意味着技術將不再是決定大模型廠商發展的唯一因素,合規也將影響到企業的發展速度。而合規能力將直接決定生成式AI的產品、服務能走多遠。
在最新出台的《辦法》中,第十七條明確指出,提供具有輿論屬性或者社會動員能力的生成式人工智能服務,應當按照國家有關規定開展安全評估,並按照《互聯網信息服務算法推薦管理規定》履行算法備案和變更、註銷備案手續。也就是說,面向公眾的生成式AI想要投入使用,在絕大多數情況下都需要先過備案和安全評估關。
圖源:東方IC
「這就要求企業提前考慮合規的問題。」史宇航解釋說,因為生成式AI的合規鏈條非常長,項目的立項、研發、測試、發佈、更新、下架每一個環節都涉及大量的合規控制點以及多個備案、申請的關卡,涉及不同領域的法律法規。而在備案階段,企業就需要針對生成式AI涉及的各個流程提交合規證明。一家大模型初創團隊人士就告訴記者,他們最近正是在研究《辦法》,並融入進自家產品的設計中。
具體到企業內部,合規帶來的改變將不僅僅停留在理論層面,而是涉及企業的方方面面。在史宇航看來,合規性的部署必然會觸動到企業底層機制和內容的變化。從企業內部的體系變革、崗位的設置到組織架構的搭建,從產品設計、測試到研發佈局,各環節都需要根據合規要求進行調整。「公司的流程架構必須做到健全,至少不能只單純考慮技術研發投入的問題。」史宇航說道。
但對一些企業而言,合規事宜可能會帶來新的問題。由於合規本身需要成本投入,對於一些資金並不充裕的公司而言,需要在研發和合規之間進行權衡。史宇航說:「這可能會拖累企業研發的進度。」
落地執行面臨挑戰
對大部分大模型廠商而言,合規是他們最關心的一個問題,但目前來看,想要將新規落地仍然困難重重。
林暉(化名)最近就接到了幾家公司的合規方案訂單。
「我們也是被幾個客戶逼着做的。」新規發佈後,應客戶要求,林暉和團隊開始拆解新規,根據客戶產品打造定製化的合規方案。
「指導意見並不代表標準答案。」林暉告訴記者,目前廠商在合規問題上遇到的最大困難就是缺乏具體的應用場景細則。《辦法》雖然搭好了框架,但仍屬於指導性的意見,無法涵蓋所有應用場景,具體的邊界、尺度的把握仍需要企業根據自身的應用場景去摸索。「這是一件微妙的事,比如你根據《辦法》制定了10條合規要求,那超出的部分如果出了問題,算不算違規?」林暉表示。
由於生成式AI合規不僅涉及法律法規,還涉及技術層面的操作,這也給合規方案的落地帶來了難度。在林暉看來,想要根據現有的法律法規推演出合適的方案,方案制定人需要在懂法、懂安全、懂技術架構的同時,對公安、網安、網信、金融等所有監管條例都特別清楚。只有如此,才能基於相關機構的監管習慣,去制定方案。「即便如此,也不能保證制定的合規方案是正確的。」林暉說。
而在具體的操作中,一個合規方案往往要包括產品合規、業務整改、隱私條款說明等內容,定製化程度非常高,通常需要做到一企一案。
備案環節同樣存在模糊地帶。史宇航認為,由於算法本身難以描述,在備案過程中,企業需要自行摸索描述算法及其安全性的邊界。而在合規性的審核上,往往採取企業自證的方式進行,企業也需要根據自己的實際情況準備材料。他說:「目前還沒有統一的標準,仍然需要企業自己去摸索。」
今年6月,國家互聯網信息辦公室發佈《關於發佈深度合成服務算法備案信息的公告》,共有41個生成式AI完成備案,包括釘釘智能客服算法、達摩院開放域自然對話合成算法、百度文生圖內容生成算法、騰訊會議虛擬背景算法、訊飛語音識別算法等。
不過,大多數大模型廠商對備案和合規的內容仍諱莫如深。《IT時報》記者嘗試採訪了騰訊、阿里雲、百度等近十家大模型廠商,都沒有給出正面回應。即便已經通過相關備案,某大廠回應稱,報備流程等方面還處於一個不可描述的階段,無法做正面回應。
排版/ 季嘉穎
圖片/ 中國網信網 東方IC
來源/《IT時報》公眾號vittimes
E N D