期刊VIP學術指導 符合學術規范和道德
保障品質 保證專業,沒有后顧之憂
[摘 要]人工智能因其重大的技術變革和影響,給社會各個領域帶來重大變革和一系列挑戰。其中人工智能的法律規制研究是目前法學界的熱點之一。近六年(2015—2020年)來國內關于人工智能法律規制的研究主要包括人工智能的法理學審視、是否需要專門立法、著作權保護、法律人格爭論、人工智能的新聞風險和法律規制、人工智能的司法運用和規制、人工智能的醫藥法律問題七個方面。今后需在此基礎上加強跟蹤研究、個案研究、比較研究、分級研究、基礎研究和交叉研究,以進一步深化人工智能的法律規制研究。
[關鍵詞]人工智能;法律規制;法理學;人格爭論
人工智能被廣泛認為是第四次工業革命的代表技術之一,人工智能及其引起的巨大社會影響引起法學界學者們的關注。如何應對人工智能的法律風險?人工智能對于傳統的中國法律體系帶來哪些挑戰?如何完善人工智能的法律規制?這是近六年(2015—2020年)來國內法學界關注的熱點。本文嘗試對近六年來國內人工智能法律規制的研究進行評述,以促進這一熱點問題研究的深入。
一、人工智能法律規制研究的總體現狀
人工智能是“研究人類智能行為規律(比如學習、計算、推理、思考、規劃等),構造具有一定智慧能力的人工系統”[1]。現階段,人工智能在專業領域應用成效顯著,比如無人駕駛、智能翻譯、智能診療、智慧判決等。根據筆者在知網的檢索,截止到2021年4月27日,篇名含有“人工智能和法律”的論文共有447篇,其中CSSCI來源期刊論文76篇。國內最早研究人工智能法律問題的論文是張保生在2001年發表于《法學評論》的《人工智能法律系統的法理學思考》。相關年度的論文發表篇數情況為:2021年11篇、2020年118篇、2019年159篇、2018年128篇、2017年27篇、2016年3篇、2015年0篇、2014年1篇。他引次數排前10的論文見表1。從總的研究趨勢來看,國內關于人工智能法律規制的研究處于增長階段。
盡管目前發表的相關論文有400多篇,但其中有一些論文屬于重復發表,且論文質量參差不齊。因此本文以近六年來CSSCI來源期刊發表的論文作為重要依據,對人工智能法律規制的研究進行述評。根據檢索到的CSSCI來源期刊論文可以看出,近六年來國內關于人工智能法律規制的研究主要圍繞七大問題。當然部分論文還涉及其他問題,如嘗試從法律和倫理結合視角探索人工智能的各種社會風險等,限于篇幅,此文中不再詳述①。
二、近六年來國內人工智能法律規制研究的七大問題
(一)人工智能的法理學審視
多數學者認為,“人工智能的發展將對法律及其行業生態產生巨大影響”[2]。因此面對人工智能的法律風險,法律規制應該如何應對,成為法理學界關注的重點問題。學者們主要從法理學的宏觀視角審視人工智能的法律風險。對于人工智能的法律規制可以分為兩種:一是對于人工智能的規制,二是對于使用人工智能的利益相關者,包括設計者、生產者、使用者、維修者的規制。規制原則包括目的正當原則、人類善良情感原則、公眾知情原則或者透明原則、政府管控原則、分類管控原則、全程管控原則、預防原則以及國際合作原則[3]。在規制原則的基礎上,推動互聯網、大數據、人工智能和全面依法治國的深度融合,樹立數據思維,運用互聯網技術和信息化手段來推動人工智能的科學立法[4]。人工智能的廣泛運用以及人工智能立法的轉型,將會重構公眾認知法律的模式,重構法律規則本身的形態,進而重構法律的價值導向[5]。人工智能時代對法律的根本性挑戰,在于法律功能獨特性的喪失,法律不學習被機器學習取代,法律被代碼/算法取代[6]。也有學者對于目前法學界對于人工智能法學研究明顯違反人類智力常識的反智化現象進行了嚴肅的批判。主張法學研究應該避免盲目跟風,走出對人工智能體的崇拜,回歸學術研究的理性軌道。一些著名學者認為,人工智能對于傳統法治帶來重大變革和影響,推動了數字時代的法治范式轉型。
(二)人工智能是否需要專門立法
關于人工智能是否需要專門立法,學者們主要有兩種觀點。
一種是維持現有立法不變。認為現有民法完全可以應對人工智能的法律風險,不需要新法,不必改變民法的基本理念和基本規則[7]。可將人工智能鎖定于《民法總則》客體的前提下,對其合理限制,且在民法典各分編制定中,對客體意義上的人工智能亦無需作特殊規則改變[8]。
一種是另外設立新法。一方面,面對人工智能的高速發展及其帶來的諸多社會問題,需盡快建立以全流程監管為主體的、多層次的人工智能監管體系,圍繞人工智能對民事主體、侵權責任、著作權、刑法等帶來的挑戰展開研究[9],以應對人工智能與現有法律制度形成的沖突以及帶來的挑戰[10]。如由人工智能產品導致的侵權行為和刑事風險需根據相關法律明確責任,可以考慮增設相關罪名來予以應對[11];明確人工智能運行中個人信息數據安全立法的基本原則,明確人工智能運行中個人信息數據權,確保權利的法律化,參考相關國家做法適時制定《個人信息安全法》[12];對人工智能開發企業的社會責任進行規則[13]。另一方面,在立法層面,應在注重立法前瞻性的基礎上構建科學的人工智能犯罪規范體系[14]。采取軟法方式,而不是簡單地提高硬法的懲戒力度[15]。在塑造風險社會的法律理念,建立多元互動的風險規制體系,促進人工智能的健康發展[16]的同時,也要重視人工智能對現代法律制度體系的影響,這種影響可能至少包括法律主體制度、客體制度、權利體系等,要防止人工智能濫用給人類帶來的風險[17]。
(三)人工智能的著作權保護
人工智能的著作權是否應該得到承認和保護是學術界爭論的熱點問題之一。目前主要存在三種觀點:一是應該保護,二是不應該保護,三是有限保護。觀點分歧產生的根本原因在于人工智能創作的作品是否具有創造性。
第一,應該保護。由于人工智能具有超強的學習能力,“它所創作出來的智力成果與人的作品之間并沒有區別,因此仍然應當以著作權的方式來加以保護”[18]。學者們或從人工智能創作作品的獨創性角度,或從賦予人工智能創作作品屬性的優勢出發,或從著作權保護客體的沿革入手,論證人工智能創作的作品應當受法律獨立保護(代表性的學者有李宗輝、尹鵬、馬治國等)。人工智能在未來有可能生成富于思想性或形式更為靈活的報道,這類報道應當受到法律保護[19]。且人工智能生成內容本質上仍然是人類利用技術設備創作完成的作品,需要在著作權法體系下實現對其法律保護[20]。人工智能在知識創作領域的應用已不可逆轉,域外的人工智能創作作品法律保護路徑有利于解決我國理論界對人工智能創作作品能否獨立受法律保護存在爭議的現實[21]。有必要通過引入人工智能作為技術“發明人”的制度設計、創立人工智能生成技術方案的可專利性標準、構建人工智能生成專利技術的權責分配規則、設置風險防范機制等法律對策,實現專利法對人工智能生成技術方案的有效規制[22]。
第二,不應該保護。人工智能創作的作品由于無法體現創作者的個性,不能被視為真正的作品,無法以著作權的方式來加以保護[23]。確定人工智能作品權利歸屬的前提是明確該類作品的權利客體屬性,人工智能創作的作品應屬于著作權客體,而非鄰接權客體。人工智能不具有法律人格,因此其本身不能成為人工智能創作作品的權利主體。也就是說,人工智能創作的作品,本質上還是人操作人工智能完成的,人工智能不具備法律人格,因此人工智能創作作品的著作權可以歸屬于使用者或者創造者。
第三,有限保護。這一觀點主張對人工智能創作的作品區分對待,將人工智能創作作品是否具有獨創性與當下法律應否保護相區分。人工智能創作的作品雖然具有獨創性,但是為了維護當下法律的體系性,現不宜對其進行獨立保護[24]。而以未來將出現具有獨立思維能力的強人工智能為前提,研究強人工智能發明創造的專利性,似過于超前[25]。可以擬定人工智能生成內容為“作品”,并設置所有權,該所有權根據不同的階段可能屬于程序設計者、人工智能使用者或者投資者。人工智能“作品”不需要標注,閱讀使用者需遵循著作權法[26]。
(四)人工智能的法律人格爭論
人工智能是否具有法律人格,也是學術界爭論的焦點之一。因為這一問題的界定,不僅涉及人工智能使用者、生產者、設計者三者之間的權利、義務、責任的關系,還涉及人工智能可能導致的社會風險和傷害的責任追究。目前學術界主要有肯定說、否定說、折中說三種觀點。
第一,肯定說。人工智能概念是通過“位格加等”把機器人提升到自然人的法律位格,法律主體學說之現代性立場有其限度,從法律主體概念回歸法律位格概念,是人工智能時代法理思想變革的重要契機[27]。國外電子人格說的提出,“為機器人創設一個特殊的法律地位”①。從人工智能的現狀看,人工智能已開始具有獨立影響他人權利義務的能力,考慮認可人工智能的法律人格已具有一定的現實意義[28]。同時,賦予人工智能擬制法律人格是界定人工智能產物的財產權利歸屬和人工智能侵權責任的必要前提。可運用立法技術賦予人工智能獨立的法律人格,建立人工智能登記備案制,完善人工智能的法律責任制度[29]。人工智能時代的法律責任理論應當有所修正和更新,智能機器人應成為適格的法律責任主體[30]。
推薦閱讀:人工智能圖像處理論文有什么方向