期刊VIP學術指導 符合學術規范和道德
保障品質 保證專業,沒有后顧之憂
摘 要:人工智能、基因重組、干細胞移植等新興技術逐漸被應用到經濟社會的發展中。然而,新技術如同“雙刃劍”,可能引發道德倫理等問題,因此需要加強對新興技術倫理治理的研究。文章聚焦人工智能,分析新興技術發展可能帶來的倫理挑戰及倫理治理存在的問題,結合當前國內外人工智能倫理治理實踐,提出中國人工智能倫理治理的對策建議,以期促進人工智能在發展中規范、在規范中發展。
關鍵詞:人工智能;倫理挑戰;倫理治理
現代科技發展具備的不確定性、高風險性等特點決定了科技倫理問題的產生具有必然性。如果把科學技術視為一輛正在行駛的列車,科技倫理就是指引列車前行,用以保證科技研發與應用的方向正確的路標。對新興技術倫理的研究,一方面要對新技術的發展應用予以規范,另一方面又要保護和促進“負責任的研究”。筆者以人工智能技術的發展為例,研究新興技術倫理治理的對策。
一、人工智能發展帶來的倫理挑戰
人工智能是引領新一輪科技革命和產業變革的戰略性技術,不僅能替代人類的體力勞動,更幾乎可以完全替代人類的腦力勞動[1]。人工智能更像是智慧載體,它可以通過深度學習不斷進化,它的顛覆性、復雜性以及社會關聯性等特性所引發的倫理挑戰和風險日趨凸顯,如何應對人工智能等新技術引發的倫理挑戰已經是相關研究人員所要面對的重要課題。
(一)存在性風險對人類主體地位的挑戰
隨著信息技術、生物技術的發展,人機互動、人機協同甚至人機一體都成為人工智能發展的趨勢。盡管現階段對人工智能技術的開發、測試、應用等都還在一個基本可控的倫理框架內,但隨著人工智技術的能進一步發展,當具備無自主意識的人工智能做出超出科研人員預期的行為并產生相應的倫理影響時,現有的倫理框架及人類的思維本質將因此面臨極大的挑戰。如果技術的發展推動智能機器人越來越像人類,這將會對目前社會的人際關系、家庭結構產生重大影響,甚至顛覆人類在人類活動中的主體地位。機器人是否應享有人類的基本權利?是否應建立新的人機關系甚至人際關系的價值原則?人類的唯一主體地位或將因此受到挑戰[2]。隨著人工智能的強智能化發展,人類有可能逐漸難以參與智能生產的過程,甚至最終成為智能機器的零件,人與機器的關系可能發生扭轉,人工智能由此引發對人類傳統倫理道德判斷的顛覆,人類將第一次真正面對存在性風險。
(二)數據泄露和信息泛濫帶來的挑戰
人工智能技術的基礎是基于海量數據的算法設計和深度學習,而數據的采集和使用若管理不到位會導致數據安全問題。當前互聯網應用軟件采集的個人信息維度多樣,社交通信、移動支付、網絡購物、衛星導航、智能手環等智能工具采集了用戶多方面的數據,將一個人的喜好、行蹤、受教育程度、職業、財富、健康等多種信息整合歸納,多維度的數據軌跡足以為個人畫像。這些信息如果被非法利用就會構成對他人隱私權的侵犯。2019年8月,一款名為“ZAO”的AI換臉社交軟件在年輕人中流行開來,用戶只需提供一張正面照就能將其他視頻中人物的臉換為自己的臉。但該軟件的用戶隱私協議沒有對用戶闡明數據泄露的風險,甚至認為該軟件對使用者的肖像權具有“全球范圍內免費、不可撤、永久可轉授權”,而如果侵權了明星肖像,最后責任都在用戶。此外,當前的監控設備也因其便捷性被廣泛使用,商場、醫院、學校甚至快遞收取點都有監控系統。這些設施在便利工作生活、輔助安全保障的同時,收集并存儲的信息并沒有被合理監管,導致公民的個人隱私也存在隱患。
(三)權利與責任認定問題帶來的挑戰
人類對人工智能的擔憂之一,就是它的高度智能化系統如果被不正當利用或者失控可能會對人類社會產生威脅,隨之而來的必定是技術研究與應用引發的責任歸屬問題。目前已經有一些醫院采用算法讀取患者影像,凡是機器判斷為陽性的片子,醫生再通過人工診斷進行復核,診斷出來是陰性的,醫生不再檢查。一旦因算法出錯導致誤診,特別是出現假陰性誤診,誰應該簽字承擔責任?再如,隨著谷歌、特斯拉和Uber等智能無人駕駛致人死亡事件的相繼發生,關于機器和人誰應當對此負責的倫理爭論愈演愈烈。麻省理工學院進行的“道德機器”測試曾提出無人駕駛的倫理困境:通過模擬行駛中不常見的一些情景,大量采集公眾選擇的數據樣本,“訓練”一輛無人駕駛汽車的人工智能系統對這些情景作出判斷。這些判斷是基于公眾的意見,簡單來看是由公眾對這些情景進行了判斷,這些判斷沒有正確答案,但形成了無人駕駛汽車行動的依據,而由此產生的責任劃分則難以明確。因此,如果事先沒有適當的權責劃分,容易導致人工智能產品脫離社會倫理、法律規范,其可能擾亂經濟社會秩序,造成更大危害。
(四)人工智能的崗位替代帶來的挑戰
人工智能以其智能化、高效化,成為提高社會工作效率、提升經濟效益的重要方式,實現對產業結構和社會分工模式的重構,有可能造成大量人員的結構性失業,從而影響社會公平。當前,許多領域的工作崗位已經逐漸嘗試應用人工智能技術。例如,制造大廠富士康在多個工廠和多條生產線已經實現了自動化,實現了24小時的無人工廠,僅在昆山工廠就減員6萬人。麻省理工學院發布研究報告稱,過去20年,美國有36萬—67萬工作崗位被機器人奪走,未來10年,還將有350萬個崗位被人工智能替代[3]。雖然這并非人類開發者刻意為之,但是人工智能技術的應用對人類就業和財富分配觀念帶來的影響,對社會公平可能帶來的損害,都引發了潛在的倫理風險。
二、中國人工智能倫理治理的實踐探索
為促進人工智能的健康發展,中國一直以來都很重視對人工智能的倫理、法律、社會影響等問題的研究,積極研究制定相關政策法規,以全球化的視角推動人工智能治理。但隨著人工智能技術的快速應用與發展,與之匹配的倫理治理體系還未建立,相關政策還需不斷完善,科研人員的倫理自覺還有待提升,社會影響的應對方式還需探索。
(一)主要進展
1.建立人工智能治理委員會
為推進人工智能發展,保持中國在人工智能等新技術革命中的后發優勢,從2015年開始,國家通過頂層設計,有力地保障了人工智能的快速發展。2019年,中國成立了由科學技術部、國家發展和改革委員會、工業和信息化部、中國科學院、中國工程院、中國共產黨中央軍事委員會科學技術委員會、中國科學技術協會等15個部門構成的新一代人工智能發展規劃推進辦公室,隨后成立了國家新一代人工智能治理專業委員會,加強了對人工智能領域科技倫理的監督。
2.發布相關治理原則和規范
《國務院關于印發新一代人工智能發展規劃的通知》中提出,要形成我國人工智能法律法規、倫理規范和政策體系。國家標準化管理委員會發布《人工智能標準化白皮書(2018版)》,從國家層面明確了中國人工智能為人類服務原則和責任原則[4]。2019年6月,新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》。由于人工智能技術正處于快速發展期,過早地從法制角度進行強制性約束可能會影響技術的發展和應用[5],因此這些政策僅是原則性意見或通知,尚無具體管理制度。中國人工智能學會倫理道德專業委員會正在計劃針對不同行業的人工智能設立和制定種種倫理規范,如智能駕駛規范、數據倫理規范、智慧醫療倫理規范、智能制造規范、助老機器人規范等[6]。
針對一些具體技術應用領域,國家也出臺了相關管理規范。2019年11月底,國家互聯網信息辦公室、文化和旅游部、國家廣播電視總局聯合印發了《網絡音視頻信息服務管理規定》,明確提出“利用基于深度學習、虛擬現實等的虛假圖像、音視頻生成技術制作、發布、傳播謠言的,應當及時采取相應的辟謠措施,并將相關信息報網信、文化和旅游、廣播電視等部門備案”等規定,加強對數據隱私的管理。2018年4月,工業和信息化部、公安部和交通運輸部等三部門發布了《智能網聯汽車道路測試管理規范(試行)》,對測試主體、測試駕駛人、交通違法和事故處理等內容進行了明確規定,各省、市級政府相關主管部門可以組織開展智能網聯汽車道路測試工作。
3.推動人工智能科研界建立共識
2019年5月25日,北京智源人工智能研究院正式成立了人工智能倫理與安全研究中心。北京智源人工智能研究院與北京大學、清華大學、中國科學院自動化研究所、中國科學院計算技術研究所等單位共同發布了《人工智能北京共識》。該文件提出,在人工智能的研發、使用、治理等方面應遵循有益于人類命運共同體構建和社會發展的15條原則。2020年9月14日,北京智源人工智能研究院發布了中國首個針對兒童的人工智能發展原則《面向兒童的人工智能北京共識》,作為《人工智能北京共識》針對兒童群體的實施細則,提出包括“以兒童為中心”“保護兒童權利”“承擔責任”“多方治理”4大主題的19條細化原則。
(二)存在的問題
1.人工智能倫理治理體系亟待建立
在人工智能領域,技術飛速發展,但與其相匹配的管理、運行、保障、監督機制仍顯滯后和發展緩慢,政府對人工智能倫理監管的頂層設計尚處于起步階段。與人工智能類似的大數據領域已基本完成制度建設,在全國形成了協同共治的大數據管理機制,各省、自治區、直轄市都設置了由中央統一領導的大數據政務服務管理局。而在人工智能領域,目前國家新一代人工智能治理專業委員會正逐步探索構建治理體系,政府對于技術倫理的治理仍處于探索階段,治理組織體系、監管機制、治理方案等都還不夠成熟。
推薦閱讀:基于人工智能技術的會展業務新模式