<rp id="bpc9g"></rp>
<del id="bpc9g"></del>
<label id="bpc9g"></label>

      <ol id="bpc9g"><samp id="bpc9g"><blockquote id="bpc9g"></blockquote></samp></ol><rp id="bpc9g"><object id="bpc9g"><blockquote id="bpc9g"></blockquote></object></rp>
    1. <button id="bpc9g"><acronym id="bpc9g"></acronym></button>
      <th id="bpc9g"></th>

      中央政法委機關報法治日報社主辦

      您所在的位置:首頁  > 文學·副刊

      用法治呵護AIGC良性發展

      2023-11-09 09:43:03 來源:法治日報·法治周末

      智道

      欄目主持人:於興中

      《暫行辦法》高效及時的出臺,體現了相關部門鼓勵生成式人工智能服務發展的初衷,也展示了相關部門對新型技術實現審慎監管的法治探索之路,一定程度上為中國科技產業化解“卡脖子”困局示范了一種監管方案



      視覺中國供圖

      □ 胡瑤琳 馬穎

      今年7月10日,國家網信辦等部門頒布《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》),奠定了我國對生成式人工智能服務包容審慎、分級分類監管的主基調?!稌盒修k法》出臺于國內外社會對AIGC(AI-Generated Content,生成式人工智能)展現出較大關注度之際,在制定過程中也充分征集了社會公眾和相關行業的意見,體現了我國相關部門對當今世界科技發展潮頭的緊密關注,對支持重要科技創新發展的決心。

      AIGC是人工智能行業多年發展的一次飛躍,借助“數據-算法-算力”,AIGC可以實現高效的人機互動和內容生成,進而改變眾多行業的生產方式。但AIGC的發展本身就具有不透明、不確定和自適應的特點,因此,自AIGC出現以來,一直有專家學者呼吁重視AIGC給人類社會可能帶來的沖擊和挑戰。

      《暫行辦法》高效及時的出臺,體現了相關部門鼓勵生成式人工智能服務發展的初衷,也展示了相關部門對新型技術實現審慎監管的法治探索之路,一定程度上為中國科技產業化解“卡脖子”困局示范了一種監管方案。對生成式人工智能服務的批評和擔憂主要有數據安全、虛假信息和倫理沖突等,但這些負面因素也無法阻擋目前人工智能的快速發展。

      結合《暫行辦法》,筆者認為,在對國家支持的新型科技產業的法治治理中應堅持三個要求:鼓勵創新,守住人權和倫理底線,全流程包容審慎監管。

      鼓勵創新

      “必須向科技創新要答案?!边@是站在歷史機遇路口必須要直面的時代重任。在百年未有之大變局下,持續實施創新驅動發展戰略是獲得未來發展主動權的必經之路。

      創新技術,尤其是具有突破性、劃時代性的科技發明,往往會給既有法律規定帶來挑戰和沖擊。在攀登科技創新之路上充滿不確定性,既包括科技成果的不確定性,也包括科技成果社會效應的不確定性??萍紕撔逻^程的這些特點是《暫行辦法》等相關科技監管規定采取包容審慎態度的重要原因,也從側面說明執法者在踐行法治的過程中要具備識別并鼓勵科技創新的能力。

      中外工業化現代化的歷史警示著我們,百年未有之大變局的現下催促著我們——唯有科技創新方能實現持續發展?;谶@一背景,鼓勵創新應該始終在未來的新型科技監管法律中置于第一要求,用法治為科技創新鋪就良壤。

      守住人權和倫理底線

      生成式人工智能服務的廣泛應用雖然處于初期,但已出現違背人權和倫理的負面事件。有媒體報道:聊天機器人引導比利時男子自殺、ChatGPT根據使用者要求撰寫出“毀滅人類”的計劃、三星電子引入ChatGPT不到20天即出現3起機密信息泄露事故,等等。就連美國人工智能研究公司OpenAI的創始人山姆·阿爾特曼也多次表示人類要警惕AI帶來的風險,并建議監管部門盡早參與對人工智能的監管。

      2021年11月24日,聯合國教科文組織通過《人工智能倫理問題建議書》,提出發展和應用人工智能要體現四大價值。其中,排在第一位的價值就是“尊重、保護和提升人權及人類尊嚴”??萍紤摲沼谌说陌l展。以人工智能為代表的新型科技正在對既有法律的治理邊界提出新的問題。

      2017年2月,歐洲議會表決通過,可以在法律上承認自主智能機器人的電子人地位。雖然世界各國對人工智能是否能夠取得法律人格依然沒有定論,但科幻作家阿西莫夫曾在作品中提出的“機器人不得傷害人類”的機器人第一定律早已在現實世界獲得廣泛認可,因為“機器人不得傷害人類”合乎人類對人權和倫理最基本的要求。

      在鼓勵創新的前提下,各國政府依然在探索如何界定對人工智能更為具體的治理規定,但守住基本的人權和倫理底線是眾多已面世的人工智能治理規范的共識。這一基本要求對執法者提出了更高的判別能力,也賦予了執法者在“人與AI”的關系中承擔“安全守門人”的責任。只有堅持守住人權和倫理底線,才有實現科技向善的基礎。

      全流程包容審慎監管

      《暫行辦法》以生成式人工智能服務為監管對象探索了包容審慎監管原則的一種實現。包容審慎監管不是對所有科學研究行為的事前縱容,也不是只對科學研究結果的事后監管,包容審慎監管的實現應該貫穿于科學研究的全生命周期,這樣方能既鼓勵創新,又守住監管底線。

      《暫行辦法》第十七條明確:對具有輿論屬性或者社會動員能力的生成式人工智能服務要履行算法備案手續。這一條的確充分吸收了征求意見階段社會各界對鼓勵創新和保障安全的意見,通過對服務內容進行分類,明確了僅對具有輿論屬性或者社會動員能力的服務算法進行備案監管,提高了對特定內容服務領域的準入監督。

      在生成式人工智能服務的使用階段,《暫行辦法》立足國家產業全局,以開放包容姿態肯定并鼓勵算力資源協同共享,提高算法透明度。對于服務使用中出現的損害他人權益的行為或違法行為,《暫行辦法》明確了提供者的內容生產者責任和個人信息處理者責任,在隱私保護、違法活動等方面作了較為明確的行禁約定,明確了監管范疇。

      法治是推動科技創新、保障科技成果、維系科技發展的重要治理路徑。新型科技的發展也對法治治理的內涵、原則和方法提出了挑戰??萍几锩D角的路口,各國均在整裝待發,提升對科技創新的法治治理能力也迫在眉睫。鼓勵創新、守住人權和倫理底線、全流程包容審慎監管在《暫行辦法》中得到充分體現,或許也能為未來其他科技領域的監管提供啟發。

      (作者單位分別為:北京大學經濟學院、西南政法大學行政法學院)

      責編:尹麗

      聯系我們 | 誠聘英才 | 廣告征訂 | 本站公告 | 法律聲明 | 報紙訂閱

      版權所有 Copyrights ? 2014-2023 www.noweden.net.cn ALL RIGHTS Reserved 《法治周末》

      京ICP備10019071號-1 京報出證字第0143號

      京公網安備 11010502038778號