近期,隨著ChatGPT的爆火,掀起了新一輪生成式人工智能(AIGC)的熱潮,也引發(fā)了社會各界對于該領域規(guī)范發(fā)展與治理問題的廣泛關注。4月11日,為促進生成式人工智能技術健康發(fā)展和規(guī)范應用,國家互聯(lián)網信息辦公室起草了《生成式人工智能服務管理辦法(征求意見稿)》(下稱《征求意見稿》)?!墩髑笠庖姼濉访鞔_提出,提供AIGC產品或服務應當遵守法律法規(guī)的要求,尊重社會公德、公序良俗,并明確了AIGC服務的提供者需要承擔的各項義務和責任。
(資料圖片)
《征求意見稿》的發(fā)布意味著,我國第一時間對AIGC技術創(chuàng)新應用及相關產品開發(fā)有針對性地納入法治化治理架構,樹牢“安全是發(fā)展的前提”這一底線思維,明確為新技術、新產業(yè)、新業(yè)態(tài)的發(fā)展指明合規(guī)發(fā)展的主線,但與此同時,其中還存在可進一步討論之處,如何更好地設計規(guī)則,以統(tǒng)籌安全與發(fā)展的關系尤為重要,在夯實安全發(fā)展的基礎之上,給予創(chuàng)新發(fā)展以可容、可信、可控的制度環(huán)境,以高質量的制度型開放為我國人工智能技術和產業(yè)的彎道超車,提供科學有力、堅實堅定的制度支撐,釋放創(chuàng)新是發(fā)展第一動力的明確信號?;诖?,就《征求意見稿》相關條款的理解和建議,敬陳管見。
第一,《征求意見稿》第六條規(guī)定的安全評估,算法備案和變更、注銷備案手續(xù)等事前審查規(guī)定是有意義且有必要的,但是需要注意事前審查的方式方法,避免不合理地增加企業(yè)的負擔。
任何技術都是一把雙刃劍。AIGC產品作為高度智慧化的人工智能形態(tài),帶給人類社會的便捷與風險同在,應勇敢審慎地應對接受新科技浪潮的洗禮?!墩髑笠庖姼濉吩黾邮虑皩彶?,不僅可以提升利用AIGC產品向公眾提供服務的合法性,增加其安全、可靠、可解釋、可問責等可信性,還有助于更好地實現(xiàn)AI產品和技術適用的包容性,更好地預防風險,保障安全,及時發(fā)現(xiàn)其運作程序、服務內容所存在的問題,從而提高AIGC產品向公眾提供服務的可接受性。
建議進一步明確事前審查的范圍以及方式方法。由于事前審查會在一定程度上增加企業(yè)的合規(guī)成本,若事前審查范圍設置不當,可能會抑制AIGC產品的研發(fā)與訓練效能,客觀上會導致AIGC發(fā)展的降速。因此,需注意事前審查的方式方法可能對企業(yè)經營產生的影響,譬如企業(yè)未經審查之前,是否能夠發(fā)布相關產品,若不能,事前審查所需要的時間是否會不當?shù)刈璧K企業(yè)的正常經營行為等。
第二,《征求意見稿》第五條針對責任主體方面進行了細化規(guī)定,AIGC產品提供者承擔該產品生成內容生產者的責任,該規(guī)定是對人工智能追責體系的補充和完善,但也需考慮到提供者對人工智能產品控制力度的有限性,否則可能會導致提供者責任的承擔范圍會被不合理地放大,建議進一步明確提供者的免責事由。
AIGC產品提供者承擔該產品生成內容生產者的責任,這里實際上需要關注的重點在于對生成內容生產者的認定。如果AIGC產品提供者是生成內容的生產者,這里的生產者即應對生成內容的過程、具體數(shù)據信息的真實性、算法使用的適當性等整個生成過程負責,那么當然需要對其承擔責任。該規(guī)定是對AIGC產品提供者通常是平臺主體應該盡到高度注意義務的規(guī)定,在一定程度上講,也只有課以AIGC產品提供者相應的責任義務,才能更好對生成內容的合法合規(guī)做出要求。
建議參照“安全港”制度合理設置平臺承擔責任的范圍,明確提供者免責事由。如果平臺盡到相應注意義務,在責任的承擔上,鑒于其對創(chuàng)新發(fā)展的貢獻,不宜施加其嚴格責任,否則不利于技術的開發(fā)和未來商用。另外,關于運營公司是否需要承擔相應的補充責任,應綜合考慮侵權范圍、損害程度以及平臺避免損失擴大的能力。
第三,《征求意見稿》第十七條規(guī)定,提供者應當根據要求提供可以影響用戶信任、選擇的必要信息。該規(guī)定實際上是對AIGC算法的可解釋性提出了新的要求,使隱私權、個人信息的保護不再僅局限于被動的事后救濟,保護鏈條前移,更加積極有效地規(guī)范AI訓練過程,有助于增強用戶信任,使AIGC產品更好發(fā)展。
建議進一步細化對提供者公開信息的范圍和限度。對可解釋的要求不能過于苛刻或過度放大,應當進一步規(guī)定對信息公開的程度和限度,避免提出不合理要求使AIGC算法的關鍵信息被迫公開,導致企業(yè)的技術機密泄露,對企業(yè)創(chuàng)新發(fā)展產生不可挽回的損失。
第四,《征求意見稿》第十五條規(guī)定,對發(fā)現(xiàn)和被舉報生成內容,除采取內容過濾等措施外,應在3個月內通過模型優(yōu)化訓練等方式防止再次生成。該規(guī)定針對AIGC的關鍵問題,對癥下藥,豐富和完善了對AIGC違規(guī)的處理方式。
建議優(yōu)化完善驗證整改優(yōu)化的方式方法。整改優(yōu)化的結果驗證應落實于技術實踐,在尊重技術實踐及規(guī)律的基礎上,輔之以監(jiān)管保障,鼓勵和支持平臺探索創(chuàng)新并優(yōu)化技術實現(xiàn)路徑。為此,在設定技術運用的基本門檻之上,落實于實踐試用,加之定期和不定期的監(jiān)測,保證其整改優(yōu)化結果的安全性與可信度。在優(yōu)化整改后,可通過人工測試模擬運行、“監(jiān)管沙盒”以及設置監(jiān)管過渡期等方式,檢驗整改優(yōu)化后的內容生成是否仍存在不符合規(guī)定的生成內容。
第五,《征求意見稿》第四條規(guī)定利用生成式AI生成的內容應該真實準確。該規(guī)定主要針對目前生成式AI無法保證生成信息的真實性問題,目前生成式AI并不會對生成內容的正確性進行驗證,這可能會導致一些缺乏專業(yè)知識的人誤將生成內容作為正確答案。不過,目前的生成式AI是通過強化學習和搜索增強等方式,提升了生成內容的邏輯性和可讀性,但并不能像人一樣去辨別內容的真實性。
若將生成式AI生成的內容應該真實準確作為提供者的義務,目前AI難以自行完成,這意味著,國內的生成式AI提供者必須通過人工審核的方式達成義務。但是,這在很大程度上會影響生成式AI的運行和生成內容的效率,極大降低消費者用戶的體驗,而且也會極大增加企業(yè)的負擔,花費大量的人力和技術資源用于審核信息。
生成式AI目前仍主要作為人類工作的輔助工具,用戶仍可以通過指令的方式實現(xiàn)對生成內容的控制,而且在多數(shù)場景中,內容生成多為私人使用,生成后并不會自動向公眾公開和傳播,因此,對于生成式AI的義務規(guī)定,仍需要區(qū)分使用場景。
從用戶需求和服務體驗來看,用戶對于此類工具的使用有隱私和保密方面的需求,人工審查的方式也不利于滿足用戶對于隱私保護的需求,實際上也對生成式AI的功能產生影響。且從事實層面來看,賦予主體審查義務,必須要考慮該主體對于審查的可控性和技術實現(xiàn)的可能性,而在現(xiàn)實中,用戶對生成內容有直接控制的能力,提供者能夠通過完善算法的方式提升信息生成的準確率,但無法100%保證真實準確。
建議將該條款調整為一種鼓勵式、提倡式的條款,僅對適用于特殊場景的高風險生成式AI應用施加真實性義務,譬如,有些平臺將生成式AI內置在平臺之中,此時生成內容會直接進行公開傳播,在這種場景下,存在虛假信息傳播的風險,且平臺擁有對信息傳播的控制力。2022年9月通過的歐盟《人工智能民事責任指令》規(guī)定只有高?險的AI應?才承擔嚴格的責任。
總體來講,對仍存在較大發(fā)展空間且技術仍待發(fā)展成熟的領域,立法仍需給予一定的包容空間,不宜超出提供者的能力范圍設置強制性義務。以國外領先的ChatGPT為例,其目前也暫時無法確保生成內容的真實性,若將此作為生成式AI提供者的義務,無形之間實際上提高了進入該市場的門檻,不利于我國生成式AI產業(yè)發(fā)展,也會對我國獲取該領域的國際競爭新優(yōu)勢造成阻礙。
(作者系南開大學法學院副院長、教授、博導,中國新一代人工智能發(fā)展戰(zhàn)略研究院特約研究員,工信部信息通信科學技術委員會委員)
關于我們| 聯(lián)系方式| 版權聲明| 供稿服務| 友情鏈接
Copyright©2008-2020 By All Rights Reserved 皖ICP備2022009963號-10
聯(lián)系我們: 39 60 29 14 2@qq.com