發(fā)布時間:2023-09-18 16:39:15
序言:作為思想的載體和知識的探索者,寫作是一種獨特的藝術(shù),我們?yōu)槟鷾蕚淞瞬煌L(fēng)格的5篇人工智能的法律規(guī)制,期待它們能激發(fā)您的靈感。
【關(guān)鍵詞】人工智能 超級計算力
一、引言
(一)問題提出
人工智能作為下一代技術(shù)發(fā)展的趨勢,其方向也是眾多科技界人士關(guān)心的問題。很多科學(xué)家預(yù)言,人工智能不僅僅是人類技術(shù)突破的下一個階段,而且更是人工智能的發(fā)展?jié)摿Ρ貙⒊鋈祟惖目刂疲蔀樾乱粋€物種,甚至可能替代人類,“統(tǒng)治”地球,我們抱著研究的目的,來探討人工智能技術(shù)發(fā)展的方向與途徑。
人工智能技術(shù)的發(fā)展對大多數(shù)人而言,是渾然不覺,全無概念的,但是從近年來各大科技公司的戰(zhàn)略與產(chǎn)品上看,人工智能的確已經(jīng)成為當下科技界爭奪的戰(zhàn)略制高點,蘋果的Siri語音助手,谷歌的無人駕駛等單向的人工智能技術(shù)已經(jīng)非常成熟,而大量的科技公司正在投入巨大的精力與財力進行研究,可以預(yù)見,在不久的將來,人工智能技術(shù)必將成為人類生產(chǎn)生活領(lǐng)域中廣泛應(yīng)用的技術(shù)之一。而對其進行發(fā)展脈絡(luò)和規(guī)律的判斷與估計也是十分必要的,也是順應(yīng)技術(shù)趨勢,推動技術(shù)創(chuàng)新的必由之路。
(二)目的與意義
一方面,對于科學(xué)研究來說,繁重的科學(xué)和工程計算本來是要人腦來承擔(dān)的,如今計算機不但能完成這種計算,而且能夠比人腦做得更快、更正確,因此當代人已不再把這種計算看作是“需要人類智能才能完成的復(fù)雜任務(wù)”,人工智能這門科學(xué)的詳細目標也天然跟著時代的變化而發(fā)展。這些創(chuàng)造力以各種數(shù)學(xué)定理或結(jié)論的方式呈現(xiàn)出來,而數(shù)學(xué)定理最大的特點就是:建立在一些基本的概念和公理上,以模式化的語言方式表達出來的包含豐碩信息的邏輯結(jié)構(gòu)。這種途徑是數(shù)學(xué)賦予的,是普通人無法擁有但計算機可以擁有的“能力”。從此,計算機不僅精于算,還會因精于算而精于創(chuàng)造。我們可以將這樣的學(xué)習(xí)方式稱之為“連續(xù)型學(xué)習(xí)”。本質(zhì)上,這種方法為人的“創(chuàng)造力”的模式化提供了一種相稱有效的途徑。
另一方面,對于人類的生產(chǎn)生活甚至未來來說,人工智能技術(shù)的快速發(fā)展,不僅會在更大程度上解放人的勞動時間與降低工作辛勞程度,使得人們越來越離不開機器的工作,并且每個人的生活方式發(fā)生根本性的轉(zhuǎn)變,而且,更重要的是,在未來,人類是否會與機器進行深度融合,發(fā)展處全新的生命構(gòu)造體,以此來迭代和進化,實現(xiàn)人類和機器人的和諧共存,還是人工智能會自動發(fā)展出自我意識,而在將來的某一個時點,機器人們將會對他們的締造者――人類舉起屠刀,實現(xiàn)自己稱霸的野心,這也不得而知,因此,對人工智能的路徑探討是十分必要和有重大意義的。
二、人工智能發(fā)展趨勢
(一)人工智能的準確定位
人工智能(Artificial Intelligence),它是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)。 人工智能是計算機科學(xué)的一個分支,它企圖了解智能的實質(zhì),并生產(chǎn)出一種新的能以人類智能相似的方式做出反應(yīng)的智能機器,該領(lǐng)域的研究包括機器人、語言識別、圖像識別、自然語言處理和專家系統(tǒng)等。人工智能從誕生以來,理論和技術(shù)日益成熟,應(yīng)用領(lǐng)域也不斷擴大,可以設(shè)想,未來人工智能帶來的科技產(chǎn)品,將會是人類智慧的“容器”。人工智能是對人的意識、思維的信息過程的模擬。人工智能不是人的智能,但能像人那樣思考、也可能超過人的智能。
(二)人工智能的發(fā)展趨勢研究
1、自我存續(xù)。這是一個十分顯眼的要求,人工智能如果作為一個新物種存在,其必須擁有自我生存的能力,即離開人類,人工智能技術(shù)必將仍然存在。而且人工智能將與其他物種和環(huán)境形成新型交流互動方式。以極端的情況來說,如果人類在將來的某一天消失了,而人工智能必須擁有維持自身生存和發(fā)展機制和技術(shù),如果是電量不足,核心機器人將會指揮挖掘型機器再次挖煤,或核能機器人運用核能來發(fā)電,以維持自身的正常運轉(zhuǎn),而這一切的工作都是在人工智能的機器內(nèi)部解決,而并不需要人類的參與,這就是人工智能的自我生存功能。
2、自我迭代更新。這是在自我存續(xù)的基礎(chǔ)之上發(fā)展而來的。一個機器,一代機器的存在可能并不是問題,而要想機器向人類一樣代代繁衍不絕,則對人工智能來說,絕對是一個巨大的障礙。因此,在機器自身的自我繁殖更新迭代,也是必須要進行的過程,這就需要強人工智能的高度運用,來對整個機器人生態(tài)進行實時評估,不斷地提出新的發(fā)展要求,而且立即組織機器人中的“科學(xué)家”對其進行研究與探討,實驗與創(chuàng)造,或者是融入生物技術(shù)而與之進行基因式的合作,這些都是不確定的,唯一能確定的是,離開人類的獨立人工智能必須要有發(fā)展創(chuàng)造出更新更快更強的人工智能的能力。
3、自我認同。人工智能的自我認同分兩個層面,一方面是對內(nèi)進行認同,另一方面,是對外進行認同。如果假定人工智能是人類的發(fā)展方向,其必須會對人類關(guān)心的終極問題等產(chǎn)生同樣的巨大疑惑,比如我是誰?我從哪里來?要到哪里去?宇宙的界限是什么?而且以人工智能的水平來看,它一定不會停留在思考的層面上,而是會進行各種不同的實驗與探索,已驗證自己的猜想。另一方面,人工智能作為一個以理性而存在的物種,其合作是建立在種種規(guī)章制度之上,而一旦有機器發(fā)現(xiàn)制度的漏洞,就會有進行套利和損人利己的動機,而阻止這種情況的發(fā)生,只能是建立在機器人的情感共同體的基礎(chǔ)之上,即是機器人產(chǎn)生同樣的情感,而形成有效率的合作與分工,而不會因為短期利益犧牲長遠利益。
三、結(jié)論
由上述探討可知,人工智能的發(fā)展道路還是非常漫長而艱辛的。對于其是否會取代人類,這個問題要依賴于將來的技術(shù)發(fā)展和人類的生命形態(tài)的演變而定,而我們對人工智能進行的物種化探討是非常有必要的,也是對人工智能技術(shù)的發(fā)展和對其風(fēng)險的防控具有借鑒意義的一個環(huán)節(jié),是我們進行科學(xué)技術(shù)開發(fā)的留有的一個客觀冷靜的分析角度。
參考文獻:
當我們談?wù)撊斯ぶ悄埽ˋrtificial Intelligence,AI)時,很大程度上受到源自20世紀想象的影響,例如,直接把人工智能和機器人聯(lián)系起來,甚至是人形機器人。這可能也會影響法律人對人工智能的想象,包括是否承認人工智能作為具有自我意識的法律主體地位(或至少是人類行為的人),從而保護其特定權(quán)利(言論自由、著作權(quán))、劃定責(zé)任(締約、侵權(quán)),甚至強調(diào)可能的毀滅性風(fēng)險。這種想象遠非受到科幻作品影響那樣簡單,深層次中還反映出人工智能在技術(shù)和應(yīng)用上不同的發(fā)展路徑:早期人工智能研究更集中于對人腦的仿真模擬,探究意識、理性等更為宏大的哲學(xué)問題,但應(yīng)用性較少;當下的人工智能走出了實驗室,借助互聯(lián)網(wǎng)服務(wù)直接影響到普通人的生活,在技術(shù)上并不執(zhí)著于創(chuàng)造一個完美的智能體,而是依靠算法(如機器學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò))不斷優(yōu)化,對海量數(shù)據(jù)自動挖掘與預(yù)測,通過無所不在的傳感器實時更新數(shù)據(jù),動態(tài)掌控著人類社會各個方面的運轉(zhuǎn),并把從某個特定領(lǐng)域升級為通用人工智能作檳勘輟4誘飧鲆庖逕纖擔(dān)人工智能并不神秘,它出現(xiàn)在日常生活中,不僅是工業(yè)社會生產(chǎn)自動化的延續(xù),也是互聯(lián)網(wǎng)商業(yè)化的必然結(jié)果和新階段。時至今日,歐美國家紛紛出臺政策,推動人工智能發(fā)展,力求提升經(jīng)濟效率和競爭力。 互聯(lián)網(wǎng)公司正逐漸主導(dǎo)實體經(jīng)濟和金融生產(chǎn)
如果我們擺脫簡單的擬人思維,把人工智能看作互聯(lián)網(wǎng)智能演進的新階段,為理解其法律規(guī)則,就有必要理解互聯(lián)網(wǎng)法律在過去20年中形成的路徑和推動力,從而探討人工智能是否有任何特殊性以至于需要新的規(guī)則。本文將從網(wǎng)絡(luò)法的兩個視角――實證性和生產(chǎn)性――切入,將它們延伸至人工智能語境下分別討論。“實證性”視角是我們觀察和應(yīng)用任何規(guī)則的慣常思維方式,例如人工智能行為的具體規(guī)則如何確立、如何規(guī)制等,本文將討論支撐人工智能的兩個構(gòu)成性要素――算法與數(shù)據(jù)――可能帶來的法律問題,以及法律人處理人工智能的兩種路徑;“生產(chǎn)性”視角則深入規(guī)則背后,探索規(guī)則形成的政治經(jīng)濟因素,特別是經(jīng)濟生產(chǎn)方式的內(nèi)在要求。人工智能本質(zhì)上是一套復(fù)雜的代碼設(shè)計,既是影響社會行為的強力規(guī)范,也是產(chǎn)生新價值的生產(chǎn)機制;它驅(qū)動整個社會朝向更智能的方向變化,從而要求法律做出相應(yīng)調(diào)整,尤其是確認新型經(jīng)濟利益的合法性。
限于篇幅,本文姑且將人工智能看成法律上的客體,暫不討論賽博格(cyborg)之類的人體轉(zhuǎn)向機械體或通過基因技術(shù)改變身體的問題(仍是法律上的人),也不討論人工智能作為一種人造物的自我意識問題(一個難以達成共識的哲學(xué)問題)。
理解網(wǎng)絡(luò)法的變遷
網(wǎng)絡(luò)法在中國的變遷大致遵循兩類邏輯:外生性的政治/監(jiān)管邏輯和內(nèi)生性的商業(yè)邏輯。政治/監(jiān)管邏輯體現(xiàn)為對“實證性規(guī)則”的追求,這些規(guī)則集中在國家(包括法院和監(jiān)管機構(gòu))如何對互聯(lián)網(wǎng)的內(nèi)容和行為進行規(guī)制,包括對網(wǎng)絡(luò)和信息安全的追尋。這集中反映了國家權(quán)力如何試圖介入新技術(shù)帶來的問題與挑戰(zhàn)。這一視角最早由美國法學(xué)界引出,特別是Lawrence Lessig的代碼理論將代碼(架構(gòu))和法律并列。由此,所謂的網(wǎng)絡(luò)法不僅要約束社會主體在網(wǎng)絡(luò)空間中的行為,也要對架構(gòu)的變化本身做出回應(yīng)。
首先,就規(guī)制主體行為而言,出現(xiàn)了是否按照傳統(tǒng)線下行為規(guī)則的思路約束線上行為的討論。這一討論的核心是,互聯(lián)網(wǎng)問題是否具有任何特殊性,需要某些新規(guī)來解決。我們已經(jīng)看到,中國的互聯(lián)網(wǎng)行為監(jiān)管在很大程度上延續(xù)了傳統(tǒng)規(guī)則和管理方式,采取漸進的方式,這不僅成本較小,也給予監(jiān)管者一定的學(xué)習(xí)和探索空間。其次,就架構(gòu)變化本身而言,國家在宏觀上主張網(wǎng)絡(luò)空間中仍然需要,不能成為法外之地,在微觀上相應(yīng)出現(xiàn)了國家與平臺權(quán)力/責(zé)任二分的討論。例如,政府權(quán)力何時需要介入平臺治理,加強平臺的行政管理責(zé)任或安全保障責(zé)任,還是由后者根據(jù)自身情況自我規(guī)制,實現(xiàn)治理目標。政治/監(jiān)管邏輯要么遵循管理者的路徑依賴效應(yīng),要么堅持既有社會穩(wěn)定、意識形態(tài)安全價值。問題在于,監(jiān)管者在多大程度上能夠認識到代碼及其商業(yè)模式的特殊性,從而使監(jiān)管行為和行業(yè)特性相互協(xié)調(diào)融合。
另一種看待規(guī)則產(chǎn)生的方式遵循商業(yè)邏輯。這種生產(chǎn)性視角關(guān)注微觀權(quán)力運作,綜合將代碼、法律與社會規(guī)范放在一起,不單純從社會學(xué)意義上觀察社會主體行為如何受到影響,而是在政治經(jīng)濟學(xué)意義上將網(wǎng)絡(luò)空間的生成和擴散看成是一個由商業(yè)力量推動主導(dǎo)的生產(chǎn)性過程,關(guān)注價值由誰產(chǎn)生、如何分配,由此推動對新規(guī)則的內(nèi)生需求。按照這一視角,無論是法律還是架構(gòu),在具有實證性規(guī)制功能的同時,也是一種“生產(chǎn)性規(guī)則”。互聯(lián)網(wǎng)的生產(chǎn)模式?jīng)Q定了其對社會范圍內(nèi)生產(chǎn)資料的創(chuàng)造性生產(chǎn)和再利用,需要法律確認其生產(chǎn)方式的合法性,重塑關(guān)鍵法律制度,并解決和傳統(tǒng)生產(chǎn)模式的利益沖突。這一視角無疑幫助厘清新經(jīng)濟主張的例外特性,不僅展示出架構(gòu)和相應(yīng)的法律改變,更指明了背后的政治經(jīng)濟原因,是更好地理解實證性規(guī)則的基礎(chǔ)。
兩類不同的邏輯在過去20年中交替出現(xiàn),相互制約,共同塑造了中國網(wǎng)絡(luò)法體系,也推動了中國互聯(lián)網(wǎng)的整體發(fā)展。總體而言,鑒于國家有意促進新經(jīng)濟,需要推動傳統(tǒng)的屬地化、分口治理,事后運動治理模式發(fā)生轉(zhuǎn)變,認清互聯(lián)網(wǎng)商業(yè)模式和價值產(chǎn)生的根源,有利探索適應(yīng)新經(jīng)濟性質(zhì)的管理體制。從這個意義上說,信息資本主義不斷要求對法律內(nèi)核進行改造,取代其中的傳統(tǒng)經(jīng)濟要素,打破限制生產(chǎn)要素自由流通的各類規(guī)則。
人工智能法律的實證性視角
如前所述,人工智能的本質(zhì)在于算法和數(shù)據(jù)處理,物理形體不必然是人工智能的構(gòu)成要素,因為即使是人形機器人,也不過是一個算法主導(dǎo)的硬件系統(tǒng),它實時收集信息,并按照算法的要求做出決定,繼而行動。更重要的是,具有物理形體的人工智能可以推動群體智能發(fā)展,通過分布式終端收集更多數(shù)據(jù)加以處理,并不斷傳輸至云端“大腦”,提升整體網(wǎng)絡(luò)的智能水平。 人工智能巳深度介入醫(yī)療領(lǐng)域
根據(jù)算法的復(fù)雜性和學(xué)習(xí)/運算能力對強人工智能和弱人工智能進行區(qū)分,這在技術(shù)認知上沒有問題,但在法律上很難按照智能程度給出精確的標準。法律應(yīng)對復(fù)雜世界的方式是確立一般性的簡單規(guī)則,在概念上對社會個體進行抽象假定(如行為能力),而非針對特殊主體,否則規(guī)則體系本身將變得異常復(fù)雜,難于理解和操作。而人工智能從單一的自動化服務(wù)向多元通用服務(wù)轉(zhuǎn)變的過程可能是一個相當長的光譜,法律需要針對其本質(zhì)特征進行約束,并探索一套應(yīng)對未來的方案。當我們說社會變得越來越智能的時候,事實上指由于數(shù)據(jù)搜集、儲存和處理的能力不斷增強,所有軟件/算法都可能朝向自動收集數(shù)據(jù),做出決定或判斷的趨勢,由于算法的復(fù)雜性,算法帶來的結(jié)果可能無法預(yù)測,并在更大范圍內(nèi)帶來系統(tǒng)性的不利后果。這種后果未必是毀滅性的風(fēng)險,甚至只是在某領(lǐng)域的制度設(shè)計問題,但人工智能恰好將這類社會問題具象化,掩藏在外表華麗、高效、更多是私人控制的“黑箱”中,就會引發(fā)一系列問題。
如果放在一個更大范圍內(nèi)觀察,在歷史上,人類社會隨著復(fù)雜性的增加,不可避免地產(chǎn)生以組織和技術(shù)形態(tài)出現(xiàn)的各類“黑箱”,它們的決定影響著社會發(fā)展和大眾福利,但仍然保持著某種秘密性。這一隱喻未必是陰謀論,其核心問題在于信息不對稱。為平衡相關(guān)當事人和社會大眾的知情權(quán)、避免恐慌、保持某種預(yù)測能力,人們不斷設(shè)計出某種程度的信息公開和透明化機制,例如政治辯論的公開化,法院訴訟程序透明化甚至公開庭審,上市公司強制信息披露等等。而人工智能不過是信息技術(shù)時代的新型黑箱,帶來更加嚴重的系統(tǒng)化影響。互聯(lián)網(wǎng)在興起過程中,通過降低信息成本,推動了開放政府、庭審直播,使信息公開透明更加便利,將生產(chǎn)性資源不斷解放出來,在更大社會范圍內(nèi)重新配置,產(chǎn)生新價值。然而,這一過程在消除一個又一個傳統(tǒng)黑箱的同時,產(chǎn)生了更為復(fù)雜的新黑箱,進而主導(dǎo)整個社會的生產(chǎn)過程。生產(chǎn)資料之間的信息變得越來越對稱,甚至可以實時互通信息,但作為信息匹配中介的人工智能卻變得更不透明,其規(guī)則設(shè)計和運作從屬于用戶甚至開發(fā)者無法理解的秘密狀態(tài),這回到了法律如何處理與代碼的關(guān)系問題。
一個類似的比較是人類自身:人腦經(jīng)過上百萬年的進化,演變成十分復(fù)雜精致的系統(tǒng)。盡管當代神經(jīng)科學(xué)不斷改變我們對人腦的認知,甚至每個人的大腦都不完全一樣,但就法律而言意義不大,這只能在邊際上改變個案判決。即使無從了解人腦的運轉(zhuǎn)機制,或者依據(jù)某種更加先進的科學(xué)知識解釋社會主體行動的具體理由,人類還是有能力形成社會規(guī)范,并演進成更加理性化的規(guī)則。這套規(guī)則只需要假定一般社會主體是(受限)理性的,由少數(shù)概念界定不同情形的心理狀態(tài)(故意、過失),并集中對人的外在行為進行約束,確定權(quán)利與義務(wù),就足以以簡單規(guī)則應(yīng)對(而非認識)這一紛繁復(fù)雜的世界。類似地,在處理算法的負外部性時,也可以有兩種不同的路徑:(1)關(guān)注算法的外部行為與后果,(2)關(guān)注算法內(nèi)部的設(shè)計規(guī)則。
大部分現(xiàn)有規(guī)則關(guān)注算法導(dǎo)致的(未意料)結(jié)果,例如內(nèi)容分發(fā)算法未經(jīng)審查造成非法或侵權(quán)內(nèi)容傳播,這一般由信息傳播者(即內(nèi)容服務(wù)商)承擔(dān)責(zé)任,算法本身并無法律地位,在造成不利后果的過程中只是一個工具。這類責(zé)任假定內(nèi)容服務(wù)商應(yīng)當知道非法內(nèi)容的存在,并有能力通過算法設(shè)計或人力(比如人工審查)加以阻止。在諸多侵權(quán)場合,內(nèi)容服務(wù)商可以通過“避風(fēng)港”規(guī)則免責(zé),只要無法證明它實際知曉狀態(tài)。更復(fù)雜的是,如果軟件開發(fā)者聲稱自己無法控制信息的生產(chǎn)和傳播,卻造成一定社會危害的情形。無論是在快播案還是BT案中,軟件開發(fā)者都無法因這一原因而逃脫責(zé)任,法院的理由仍然是,開發(fā)者有能力知曉非法內(nèi)容的輸出(如果不是故意的話,例如快播向推廣該播放器)。類似地,如果一個具有物理形體的人工智能由于處理信息不當造成了外在損害,按照這一邏輯仍應(yīng)由算法開發(fā)者負責(zé)。
而且,還有必要將算法產(chǎn)生的錯誤和算法缺陷本身區(qū)分開。長期以來,軟件行業(yè)一直通過拆封合同(shrink-wrap)解決缺陷軟件造成的短時崩潰或重啟問題,這種格式條款旨在確認這樣一種事實:沒有任何軟件是百分之百完美的,只要在用戶拆封使用該軟件時運行正常即可,服務(wù)商并不為軟件崩潰或死機造成的消費者損失負責(zé),因為前者無法預(yù)料到缺陷帶來的風(fēng)險。這就是為什么消費者需要接受軟件生產(chǎn)商不停的更新和補丁,軟件/應(yīng)用不受產(chǎn)品責(zé)任的約束,被視為一種可以不斷升級改進的服務(wù),這在免費軟件時代更是如此。按照這一思路,似乎有理由認為,無人駕駛汽車因算法計算錯誤導(dǎo)致車禍(何況造成事故的概率遠遠小于人類司機的錯誤)是這類軟件的正常的缺陷,消費者應(yīng)當容忍這類錯誤。但無論是監(jiān)管者還是潛在的受害人都無法接受這種比擬。聲稱有潛在缺陷的交通工具(也包括醫(yī)療設(shè)備和其他與生命財產(chǎn)直接相關(guān)的算法)一旦投入使用就需要為此造成的后果負責(zé)。無論如何,這類思路仍然是通過后果施加事后責(zé)任,監(jiān)管者或法院并不想深入算法內(nèi)部了解造成事故的技術(shù)原因是什么。只要法律認定這一黑箱應(yīng)當在合理范圍內(nèi)得到控制,事故可以避免,黑箱提供者就應(yīng)當承擔(dān)責(zé)任。在這種情況下,保險(甚至是強制險)就成為確保這類發(fā)生概率小但潛在損失巨大的不二選擇,航空、醫(yī)療保險市場十分發(fā)達,可以預(yù)見將會延伸至更多由人工智能驅(qū)動的服務(wù)行業(yè)。 現(xiàn)實與虛擬的界限不斷模糊化
如果說事后救濟還無法確保安全,事前干預(yù)算法設(shè)計則是另一種選擇,同時帶來的問題也更復(fù)雜。早在20世紀,阿西莫夫就試圖為機器人立法,盡管他從未討論技術(shù)上的可行性。安全可能是人工智能服務(wù)的首要問題之一:一個中心化的入侵可能會導(dǎo)致所有終端都變得極度不安全。行業(yè)監(jiān)管者在不同行業(yè)為特定服務(wù)中的人工智能設(shè)定安全標準(如醫(yī)療器械、交通工具、自動化武器),實行安全保護等級制度,甚至要求被認定為重要設(shè)施的源代碼(如windows系統(tǒng))供監(jiān)管者備案,或在設(shè)計自動化交易程序時控制報單頻率的閾值等。又例如,在魏則西事件后,聯(lián)合調(diào)查組在整改意見中要求落實以信譽度為主要權(quán)重的排名算法,對商業(yè)推廣信息逐條加注醒目標識,予以風(fēng)險提示。如果說這些監(jiān)管手段針對的是作為商業(yè)秘密的私人算法,諸如Open人工智能這樣的倡議則意在延續(xù)開源軟件運動路徑,確保軟件漏洞能夠得到更大范圍內(nèi)的監(jiān)督和修補。至少在中國,信息披露機制尚未成為算法監(jiān)管的重要手段,無論是強制性披露還是第三方披露。
(作者單位:上海財經(jīng)大學(xué)法學(xué)院)
注釋:
[1]當下的大眾媒體、文化產(chǎn)品和社會公共認知正努力將未來的人工智能塑造成具有獨立意識的逐漸演化的主體,這集中體現(xiàn)在諸如《終結(jié)者》《我,機器人》《西部世界》《2001銀河漫游》這類科幻影視作品中。盡管人們也有理由進一步想象,一旦人工智能具有了自我意識,就不再可能忠實地為人類服務(wù),而更可能對人類生存構(gòu)成威脅。其路徑和思維方式仍是20世紀的,和21世紀依托大數(shù)據(jù)機器學(xué)習(xí)迥然不同。事實上,按照日本學(xué)者森政弘提出的“恐怖谷理論”,人工智能不太可能在短時間內(nèi)人形普及化,因為這會在消費者心理上引發(fā)不安甚至恐懼。像Siri和Cornata這樣的語音助手、像Tay和小冰這樣的聊天機器人則不會有這種負面效果,因為用戶知道自己在和一個尚未通過圖靈測試的算法對話,他們甚至樂于教Tay在推特上辱罵用戶、發(fā)表種族主義和煽動性的政治言論。另一個可能影響中文世界讀者想象的因素是,把robot翻譯成“機器人”先驗地賦予了這類客體某種擬人化主體地位,而人形機器人(android)卻沒有引起更多的關(guān)注。
[2]John Weaver, Robots are People Too: How Siri, Google Car, and Artificial Intelligence Will Force Us to Change Our Laws ,Praeger Publishers Inc, 2013; Ugo Pagallo, The Laws of Robots: Crimes, Contracts, and Torts ,Springer, 2015.一個更加有用的綜合文集是Ryan Calo, A. Michael Froomkin and Ian Kerr (ed.), Robot Law ,Edward Elgar Publishing, 2016。Ryan Calo的研究將具有物理形體的機器人作為法律的對象,特別區(qū)分了信息性和物理性效果,見Ryan Calo, “Robotics and the Lessons of Cyberlaw”, Calif. L. Rev., Vol.103(2015).一個不同觀點,見Jack Balkin, “The Path of Robotics Law”, Calif. L. Rev., No.6(2015),Circuit 45.把機器人視為人在法律上也有相當?shù)臍v史,見Samir Chopra and Laurence F. White, A Legal Theory for Autonomous Artificial Agents ,The University of Michigan Press, 2011; Ryan Calo, “Robots in American Law”, University of Washington School of Law Research Paper, No. 2016-04.
[3]吳軍:《智能時代》,中信出版社2016年版。
[4]例如阿西莫夫的機器人系列小說中,無一例外地設(shè)定機器人擁有一個“正子腦”(positronic br人工智能 n),但卻沒有給出任何解釋。見阿西莫夫:《機器人短篇全集》,江蘇文藝出版社2014年版。
[5]這被稱為終極算法(master algorithm),見佩德羅?多明戈斯:《終極算法:機器學(xué)習(xí)和人工智能如何重塑世界》,中信出版社2016年版。
[6]尼古拉斯?卡爾:《玻璃籠子:自動化時代和我們的未來》,中信出版社2015年版。在互聯(lián)網(wǎng)發(fā)展的每一個階段都有某種意識形態(tài)化的術(shù)語或熱詞吸引投資,例如寬帶、大數(shù)據(jù)、分享經(jīng)濟、VR(虛擬現(xiàn)實)等,它們不過是互聯(lián)網(wǎng)形態(tài)的各類變種。例如,一個關(guān)于分享經(jīng)濟和之前互聯(lián)網(wǎng)經(jīng)濟的關(guān)聯(lián),參見胡凌:《分享經(jīng)濟的法律規(guī)制》,載《文化縱橫》2015年第4期。
[7]這種思維方式可追溯到霍布斯以來的法律實證主義。
[8]胡凌:《代碼、著作權(quán)保護與公共資源池》,載《騰云》2016年12月刊。
[9]關(guān)于兩類邏輯的具體表現(xiàn),集中參見胡凌:《探尋網(wǎng)絡(luò)法的政治經(jīng)濟起源》,上海財經(jīng)大學(xué)出版社2016年版。
[10]這在眾多(特別是國外的)中國互聯(lián)網(wǎng)觀察者身上十分常見,人們的注意力全都轉(zhuǎn)向中國政府如何嚴格管理和控制互聯(lián)網(wǎng)。在政治學(xué)研究中自然而然地并入“國家與市民社會”傳統(tǒng)框架,并吸納了關(guān)于在線抗爭、集體行動的傳播學(xué)與社會學(xué)研究。
[11]勞倫斯?萊斯格:《代碼2.0》,清華大學(xué)出版社2008年版。
[12]一個概述,見胡凌:《馬的法律與網(wǎng)絡(luò)法》,載張平主編:《網(wǎng)絡(luò)法律評論》2010年第11卷。
[13]胡凌:《非法興起:理解中國互聯(lián)網(wǎng)演進的一個框架》,d《文化縱橫》2016年第5期。這體現(xiàn)在版權(quán)、隱私、財產(chǎn)、不正當競爭、壟斷、勞動法等一系列制度中。這種對法律制度的改變不單純是在既有工業(yè)生產(chǎn)背景下微型創(chuàng)新帶來的變化,而是社會生產(chǎn)的重塑。
[14]比如說,平臺責(zé)任議題的出現(xiàn),和互聯(lián)網(wǎng)平臺更多轉(zhuǎn)向由第三方提供服務(wù)的信息中介模式直接相關(guān)。
[15]這一區(qū)分和觀察中國式資本主義興起的框架十分類似,政治經(jīng)濟學(xué)家們爭論的焦點就在于如何解釋中國改革開放三十年的成功經(jīng)驗,究竟是政府主導(dǎo)還是市場主導(dǎo),但實質(zhì)上是一個混合制經(jīng)濟。
[16]由于科斯所說的企業(yè)信息成本和管理成本降低,調(diào)動生產(chǎn)要素的邊際成本趨近于零,企業(yè)組織形態(tài)本身將成為競爭的高成本。
[17]尼克?波斯特洛姆:《超級智能:路線圖、危險性與應(yīng)對策略》,中信出版社2015年版。
[18]古代的政治過程、現(xiàn)代的企業(yè)決策都是黑箱,對外人而言如果不是神秘,也是除魅之后的國家/商業(yè)秘密。卡夫卡的小說《審判》就精確描述了作為黑箱的訴訟過程,同一時代的韋伯也描述了理性化的國家機器應(yīng)當像自動售貨機一樣。
[19]Frank Pasquale:《黑箱社:掌控信息和金錢的數(shù)據(jù)法則》,中信出版社2015年版。
[20]帕伯斯:《差錯:軟件錯誤的致命影響》,人民郵電出版社2012年版。
[21]長久以來民用航空器已經(jīng)由軟件深度介入駕駛過程,以至于人類駕駛員無法在短時間內(nèi)預(yù)熱,形成另一種風(fēng)險。
[22]阿西莫夫提出的“機器人三定律”(后來擴展至四點)雖然十分基礎(chǔ),但仍然很難在具體情況下起作用,特別是當代倫理學(xué)上著名的“線車難題”之類的倫理困境。考慮到這些定律是為模擬人腦狀態(tài)下設(shè)計的,就更可疑;因為人腦并不總是按某些理性倫理原則行事的,在某些關(guān)鍵場合強烈依靠某些默認設(shè)置――直覺。
[23]由監(jiān)管機構(gòu)強制披露并審查事實做不到,只能依靠像蘋果這樣的平臺公司和軟件分發(fā)平臺幫助對成千上萬個軟件進行至少是安全審查。在臺式機時代,這一平臺責(zé)任幾乎不可能,自然狀態(tài)下的windows只能導(dǎo)致爭奪私人控制權(quán)的3Q大戰(zhàn)。但像烏云網(wǎng)這樣的第三方白帽黑客也被禁止探測和公開互聯(lián)網(wǎng)公司的漏洞。
[24]同注11。
[25]在筆者看來,法院應(yīng)當將注意力放在知情同意的合同條款本身的適當性上,而不是一味接受黑箱的邏輯,因為后者確實無懈可擊。如果格式合同能準確反映代碼的設(shè)計,對其條款的審查是更好的選擇。百度引發(fā)的被遺忘權(quán)第一案反映的也是這個問題。
[26]一個補救方法還是盡可能地披露算法信息,允許用戶理性地生產(chǎn)/隱瞞個人信息,見戴昕:《自愿披露隱私的規(guī)制》,載蘇力主編:《法律和社會科學(xué)》第15卷第1輯,法律出版社2016年版。
[27]法律的人工智能化是本文另一個沒有討論的問題,與此相關(guān)的是大規(guī)模監(jiān)控、智能警務(wù)、犯罪預(yù)測等問題。
關(guān)鍵詞:人工智能;創(chuàng)作物;著作權(quán)
伴隨著互聯(lián)網(wǎng)+時代的到來,人工智能技術(shù)發(fā)展也在日趨成熟。2016年3月,引發(fā)社會廣泛關(guān)注的人機大戰(zhàn)事件,人工智能Alpha Go與世界圍棋冠軍李世石進行人機大戰(zhàn)并以4-1戰(zhàn)勝李世石,更展現(xiàn)了其的無限發(fā)展?jié)撃堋5珟淼膯栴}是,人工智能創(chuàng)作物能否成為作品享有著作權(quán),從而受到《著作權(quán)法》的保護?
一、人工智能的界定及傳統(tǒng)認識
(一)人工智能的定義
人工智能,英文名稱為Artificial Intelligence,縮寫AI。它是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué)①。人工智能源于計算機科學(xué),現(xiàn)已涉及到心理學(xué)、哲學(xué)和語言學(xué)等學(xué)科。
(二)對人工智能的傳統(tǒng)認識
按照我國傳統(tǒng)意義上的解釋,人工智能的創(chuàng)作物是不可以構(gòu)成《著作權(quán)法》上的作品的,從而不能得到著作權(quán)法的相關(guān)保護。作品是指文學(xué)、藝術(shù)和科學(xué)領(lǐng)域內(nèi)具有獨創(chuàng)性并能以某種有形形式復(fù)制的智力成果。②《著作權(quán)法》和《實施條例》都要求創(chuàng)作物是具有獨創(chuàng)性的智力成果。而我國對于人工智能創(chuàng)造物傳統(tǒng)的觀點認為,人工智能的創(chuàng)作物不具有獨創(chuàng)性,它只是將計算機內(nèi)存儲的內(nèi)容進行匯編整理,沒有任何的創(chuàng)新內(nèi)容。其次,著作權(quán)對于作者的人格屬性也有要求,而人工智能是不能算作法律意義上的“人”,所以人工智能的創(chuàng)作物為非智力成果。
二、國外人工智能著作權(quán)的現(xiàn)狀研究
2016年4月,日本知識產(chǎn)權(quán)本部宣布在知識產(chǎn)權(quán)計劃中納入“人工智能”的相關(guān)內(nèi)容。人工智能技術(shù)處于世界前沿的日本,從其立法行為我們可以看出,他們正在通過法律形式,將人工智能的創(chuàng)作物以作品的形式逐漸定下來。旨在人工智能創(chuàng)作物產(chǎn)生爭議時能夠有法可依,同時使得人工智能的既得利益者相關(guān)利益能夠得到保護。
此外,日本再其2016年的《知識財產(chǎn)推進計劃》中,明確表示“具有一定市場價值的人工智能創(chuàng)作物亦有可能有必要給予一定的知識產(chǎn)權(quán)保護③。”目前,世界上大部分國家還未對人工智能及其創(chuàng)作物的著作權(quán)的相關(guān)問題進行詳細地探究。但以英國、新西蘭為代表的部分英美法系國家已經(jīng)認識到自己國家對于人工智能創(chuàng)作物的著作權(quán)法律規(guī)制不明確的問題,并試圖從政策和法律上認可人工智能的創(chuàng)作物,這些國家將人工智能的操作者作為人工智能創(chuàng)作物的作者并對其進行保護;而澳大利亞雖然在相關(guān)的法律中沒有人工智能創(chuàng)作物的具體規(guī)定,但在政策上,該國已經(jīng)認可了部分人工智能創(chuàng)作物為作品并享有相應(yīng)的著作權(quán)。
三、人工智能創(chuàng)作物的不同角度分析
其實,僅從創(chuàng)作物的表現(xiàn)形式上是難以對人工智能創(chuàng)作物和人類作品進行區(qū)別的,對音樂、美術(shù)等創(chuàng)新性要求不高的作品則更是如此。因此,筆者試圖從利益平衡理論和市場激勵角度兩個方面對是否應(yīng)認可人工智能創(chuàng)作物的著作權(quán)這一問題進行分析。
(一)利益平衡角度分析
著作權(quán)法是知識產(chǎn)權(quán)法的重要組成部分,知識產(chǎn)權(quán)的核心原則就是利益平衡原則。著作權(quán)法是對作品產(chǎn)生的利益進行分配的法律,調(diào)整著傳播者、著作權(quán)人與社會公眾之間的,原作者與演繹作者之間的利益關(guān)系。
如果不給予人工智能創(chuàng)作物以著作權(quán)的保護,則可能導(dǎo)致不受著作權(quán)法保護的人工智能創(chuàng)作物大量涌入市場,而這些創(chuàng)作物和一般的人類作品并沒有實際的區(qū)別。一旦大量投入市場這一公共領(lǐng)域當中,由于人工智能作品并不受到著作權(quán)法的保護,用戶就不需要支付任何費用而對“人工智能作品”進行使用,那這些創(chuàng)作物的價值將無限趨向于零,除非一些高度原創(chuàng)性的作品或依賴作者聲譽的作品,這無疑是對人工智能及其創(chuàng)作者利益的一種嚴重侵害,而經(jīng)過精密設(shè)計的利益分配體系將會失去應(yīng)有的平衡,這明顯是有違利益平衡原則的。
(二)從市場激勵角度分析
從市場激勵機制的角度來說,如果對人工智能創(chuàng)作授予著作權(quán)保護,這就意味著市場中受到著作權(quán)保護的人工智能作品的供應(yīng)量將會大幅度增加。而考慮到人工智能的低成本和高效率的特點,在市場總需求保持不變的前提下,人類作品的定價能力和競爭能力在市場上將被大大的削弱,從而使人類作者進行創(chuàng)作的經(jīng)濟性動力逐漸下降。人工智能創(chuàng)作物的產(chǎn)生實際上是從作品的供給端沖擊了著作權(quán)制度原有的架構(gòu),也就是說,原始投入到市場中的作品數(shù)量將由于人工智能技術(shù)的發(fā)展而變得龐大。
如果不賦予人工智能作品著作權(quán),那么人類作品市場吸引力和流動性就不會喪失,以人類作品形成的發(fā)行、復(fù)制和傳播為經(jīng)濟鏈的著作權(quán)市場將會依舊繁榮。但是,人類作品競爭力卻得不到應(yīng)有的提升,市場對于整個作品行業(yè)的創(chuàng)新激勵機制明顯不足,這實際上并不利于作品行業(yè)的進步。
四、立法保護的建議
如果立法對人工智能創(chuàng)作物進行保護,那人工智能作品的著作權(quán)歸屬問題、著作權(quán)保護期限以及權(quán)利內(nèi)容等也有待進一步探討。從目前的實踐來看,人工智能作品的著作權(quán)多被授予該人工智能的操作者,筆者在此不做具體分析。
但應(yīng)納入立法者考慮范圍的是,如何保持人類創(chuàng)作的作品與人工智能的創(chuàng)作物在市場中保持既競爭又共存的局面?所以,筆者認為《著作權(quán)法》中有關(guān)作品創(chuàng)新性的標準需要提高,界以達到人工智能作品與人類作品的利益平衡。此外,《反不正當競爭法》中也應(yīng)增加人工智能的相應(yīng)部分,以規(guī)制市場中存在的惡意競爭等行為。
五、結(jié)束語
筆者認為,我們不能簡單地從創(chuàng)作物的獨創(chuàng)性和人身屬性這兩個方面來判斷人工智能創(chuàng)作物是否應(yīng)該獲得著作權(quán)的保護。人工智能的創(chuàng)作物作為一種新形式的“作品”被接受,其相關(guān)市場經(jīng)濟效應(yīng)和是否有利于著作權(quán)作品行業(yè)的可持續(xù)發(fā)展也應(yīng)被納入考慮范圍。
基于利益平衡原則和市場分析,筆者認為,認同人工智能創(chuàng)作物為作品,并通過《著作權(quán)法》等法律對其加以合理的保護對于市場經(jīng)濟的發(fā)展利大于弊,有利于促進我國人工智能技術(shù)的發(fā)展和法制建設(shè)的完善。
注釋:
① http:///wiki/人工智能.2016年10月18日訪問.
② 引自2013修訂的《中華人民共和國著作權(quán)法實施條例》第二條.
③ 曹源.人工智能創(chuàng)作物獲得版權(quán)保護的合理性[J].科技與法律,2016年第三期.
參考文獻:
[1] 曹源.人工智能創(chuàng)作物獲得版權(quán)保護的合理性[J].科技與法律,2016年第3期.
[2] 馮曉青.著作權(quán)法的利益平衡理論研究[J].湖南大學(xué)學(xué)報:社會科學(xué)版,2008年.
2017年7月,國務(wù)院印發(fā)《新一代人工智能發(fā)展規(guī)劃》,不僅對人工智能的發(fā)展做出了戰(zhàn)略性部署,還確立了“三步走”的政策目標,力爭到2030年將我國建設(shè)成為世界主要的人工智能創(chuàng)新中心。[1]值得注意的是,此次規(guī)劃不僅僅只是技術(shù)或產(chǎn)業(yè)發(fā)展規(guī)劃,還同時包括了社會建設(shè)、制度重構(gòu)、全球治理等方方面面的內(nèi)容。之所以如此,是由于人工智能技術(shù)本身具有通用性和基礎(chǔ)性。換句話說,為助推人工智能時代的崛起,我們面對的任務(wù)不是實現(xiàn)某一個專業(yè)領(lǐng)域或產(chǎn)業(yè)領(lǐng)域內(nèi)的顛覆性技術(shù)突破,而是大力推動源于技術(shù)發(fā)展而引發(fā)的綜合性變革。
也正因為如此,人工智能發(fā)展進程中所面臨的挑戰(zhàn)才不僅僅局限于技術(shù)或產(chǎn)業(yè)領(lǐng)域,而更多體現(xiàn)在經(jīng)濟、社會、政治領(lǐng)域的公共政策選擇上。首先,普遍建立在科層制基礎(chǔ)上的公共事務(wù)治理結(jié)構(gòu),是否能夠適應(yīng)技術(shù)發(fā)展和應(yīng)用過程中所大規(guī)模激發(fā)的不確定性和不可預(yù)知性?再者,長久以來圍繞人類行為的規(guī)制制度,是否同樣能夠適應(yīng)以數(shù)據(jù)、算法為主體的應(yīng)用環(huán)境?最后,如何構(gòu)建新的治理體系和治理工具來應(yīng)對伴隨人工智能發(fā)展而興起的新的經(jīng)濟、社會、政治問題?
應(yīng)對上述挑戰(zhàn)并不完全取決于技術(shù)發(fā)展或商業(yè)創(chuàng)新本身,而更多依賴于我們的公共政策選擇。本文試圖在分析人工智能發(fā)展邏輯及其所引發(fā)的風(fēng)險挑戰(zhàn)的基礎(chǔ)上,對人工智能時代的公共政策選擇做出分析,并討論未來改革的可能路徑,這也就構(gòu)成了人工智能治理的三個基本問題。具體而言,人工智能本身成為治理對象,其發(fā)展與應(yīng)用構(gòu)成了治理挑戰(zhàn),而在此基礎(chǔ)上如何做出公共政策選擇便是未來治理變革的方向。
全文共分為四個部分:第一部分將探討人工智能的概念及特征,并進而對其發(fā)展邏輯進行闡述。作為一項顛覆性技術(shù)創(chuàng)新,其本身的技術(shù)門檻對決策者而言構(gòu)成了挑戰(zhàn),梳理并捋清人工智能的本質(zhì)內(nèi)涵因而成為制定相關(guān)公共政策的前提;第二部分將著重分析人工智能時代崛起所帶來的治理挑戰(zhàn),主要包括三個方面,即傳統(tǒng)科層治理結(jié)構(gòu)應(yīng)對人工智能新的生產(chǎn)模式的滯后性、建基于行為因果關(guān)系之上的傳統(tǒng)治理邏輯應(yīng)對人工智能新主體的不適用性,以及人工智能發(fā)展所引發(fā)的新議題的治理空白;面對上述挑戰(zhàn),各國都出臺了相關(guān)政策,本文第三部分對此進行了綜述性對比分析,并指出了其進步意義所在。需要指出的是,盡管各國的政策目標都試圖追求人工智能發(fā)展與監(jiān)管的二維平衡,但由于缺乏對人工智能內(nèi)涵及其發(fā)展邏輯的完整認識,當前的公共政策選擇有失綜合性;本文第四部分將提出新的治理思路以及公共政策選擇的其他可能路徑,以推動圍繞人工智能治理的相關(guān)公共政策議題的深入討論。
一、人工智能的概念及技術(shù)發(fā)展邏輯:算法與數(shù)據(jù)
伴隨著人工智能技術(shù)的快速發(fā)展,尤其是其近年來在棋類對弈、自動駕駛、人臉識別等領(lǐng)域的廣泛應(yīng)用,圍繞人工智能所可能引發(fā)的社會變革產(chǎn)生了激烈爭論。在一方面,以霍金[2]、馬斯克[3]、比爾-蓋茨[4]、赫拉利[5]為代表的諸多人士呼吁加強監(jiān)管,警惕“人工智能成為人類文明史的終結(jié)”;在另一方面,包括奧巴馬[6]在內(nèi)的政治家、學(xué)者又認為應(yīng)該放松監(jiān)管,充分釋放人工智能的技術(shù)潛力以造福社會。未來發(fā)展的不確定性固然是引發(fā)當前爭論的重要原因之一,但圍繞“人工智能”概念內(nèi)涵理解的不同,以及對其發(fā)展邏輯認識的不清晰,可能也同樣嚴重地加劇了人們的分歧。正因為此,廓清人工智能的概念內(nèi)涵和發(fā)展邏輯不僅是回應(yīng)爭論的需要,也是進一步提出公共政策建議的前提。
就相關(guān)研究領(lǐng)域而言,人們對于“人工智能”這一概念的定義并未形成普遍共識。計算機領(lǐng)域的先驅(qū)阿蘭-圖靈曾在《計算機器與智能》一文中提出,重要的不是機器模仿人類思維過程的能力,而是機器重復(fù)人類思維外在表現(xiàn)行為的能力。[7]正是由此理解出發(fā),著名的“圖靈測試”方案被提出。但如同斯坦福大學(xué)計算機系教授約翰·麥卡錫所指出的,“圖靈測試”僅僅只是“人工智能”概念的一部分,不模仿人類但同時也能完成相關(guān)行為的機器同樣應(yīng)被視為“智能”的。[8]事實上,約翰·麥卡錫正是現(xiàn)代人工智能概念的提出者。在他看來,“智能”關(guān)乎完成某種目標的行為“機制”,而機器既可以通過模仿人來實現(xiàn)行為機制,也可以自由地使用任何辦法來創(chuàng)造行為機制。[9]由此,我們便得到了人工智能領(lǐng)域另一個非常重要的概念——“機器學(xué)習(xí)”。
人工智能研究的目標是使機器達到人類級別的智能能力,而其中最重要的便是學(xué)習(xí)能力。[10]因此,盡管“機器學(xué)習(xí)”是“人工智能”的子域,但很多時候我們都將這兩個概念等同起來。[11]就實現(xiàn)過程而言,機器學(xué)習(xí)是指利用某些算法指導(dǎo)計算機利用已知數(shù)據(jù)得出適當模型,并利用此模型對新的情境給出判斷,從而完成行為機制的過程。此處需要強調(diào)一下機器學(xué)習(xí)算法與傳統(tǒng)算法的差異。算法本質(zhì)上就是一系列指令,告訴計算機該做什么。對于傳統(tǒng)算法而言,其往往事無巨細地規(guī)定好了機器在既定條件下的既定動作;機器學(xué)習(xí)算法卻是通過對已有數(shù)據(jù)的“學(xué)習(xí)”,使機器能夠在與歷史數(shù)據(jù)不同的新情境下做出判斷。以機器人行走的實現(xiàn)為例,傳統(tǒng)算法下,程序員要仔細規(guī)定好機器人在既定環(huán)境下每一個動作的實現(xiàn)流程;而機器學(xué)習(xí)算法下,程序員要做的則是使計算機分析并模擬人類的行走動作,以使其即使在完全陌生的環(huán)境中也能實現(xiàn)行走。
由此,我們可以對“人工智能”設(shè)定一個“工作定義”以方便進一步的討論:人工智能是建立在現(xiàn)代算法基礎(chǔ)上,以歷史數(shù)據(jù)為支撐,而形成的具有感知、推理、學(xué)習(xí)、決策等思維活動并能夠按照一定目標完成相應(yīng)行為的計算系統(tǒng)。這一概念盡管可能仍不完善,但它突出了人工智能技術(shù)發(fā)展和應(yīng)用的兩大基石——算法與數(shù)據(jù),有助于討論人工智能的治理問題。
首先,算法即是規(guī)則,它不僅確立了機器所試圖實現(xiàn)的目標,同時也指出了實現(xiàn)目標的路徑與方法。就人工智能當前的技術(shù)發(fā)展史而言,算法主要可被劃分為五個類別:符號學(xué)派、聯(lián)接學(xué)派、進化學(xué)派、類推學(xué)派和貝葉斯學(xué)派。[12]每個學(xué)派都遵循不同的邏輯、以不同的理念實現(xiàn)了人工智能(也即“機器學(xué)習(xí)”)的過程。舉例而言,“符號學(xué)派”將所有的信息處理簡化為對符號的操縱,由此學(xué)習(xí)過程被簡化(抽象)為基于數(shù)據(jù)和假設(shè)的規(guī)則歸納過程。在數(shù)據(jù)(即歷史事實)和已有知識(即預(yù)先設(shè)定的條件)的基礎(chǔ)上,符號學(xué)派通過“提出假設(shè)-數(shù)據(jù)驗證-進一步提出新假設(shè)-歸納新規(guī)則”的過程來訓(xùn)練機器的學(xué)習(xí)能力,并由此實現(xiàn)在新環(huán)境下的決策判斷。
從對“符號學(xué)派”的描述中可以發(fā)現(xiàn),機器學(xué)習(xí)模型成功的關(guān)鍵不僅是算法,還有數(shù)據(jù)。數(shù)據(jù)的缺失和預(yù)設(shè)條件的不合理將直接影響機器學(xué)習(xí)的輸出(就符號學(xué)派而言,即決策規(guī)則的歸納)。最明顯體現(xiàn)這一問題的例子便是羅素的“歸納主義者火雞”問題:火雞在觀察10天(數(shù)據(jù)集不完整)之后得出結(jié)論(代表預(yù)設(shè)條件不合理,超過10個確認數(shù)據(jù)即接受規(guī)則),主人會在每天早上9點給它喂食;但接下來是平安夜的早餐,主人沒有喂它而是宰了它。
所有算法類型盡管理念不同,但模型成功的關(guān)鍵都聚焦于“算法”和“數(shù)據(jù)”。事實上,如果跳出具體學(xué)派的思維束縛,每種機器學(xué)習(xí)算法都可被概括為“表示方法、評估、優(yōu)化”這三個部分。[13]盡管機器可以不斷的自我優(yōu)化以提升學(xué)習(xí)能力,且原則上可以學(xué)習(xí)任何東西,但評估的方法和原則(算法)以及用以評估的數(shù)據(jù)(數(shù)據(jù))都是人為決定的——而這也正是人工智能治理的關(guān)鍵所在。算法與數(shù)據(jù)不僅是人工智能發(fā)展邏輯的基石,其同樣是治理的對象和關(guān)鍵。
總而言之,圍繞“人工智能是否會取代人類”的爭論事實上并無太大意義,更重要的反而是在廓清人工智能的內(nèi)涵并理解其發(fā)展邏輯之后,回答“治理什么”和“如何治理”的問題。就此而言,明確治理對象為算法和數(shù)據(jù)無疑是重要的一步。但接下來的重要問題仍然在于,人工智能時代的崛起所帶來的治理挑戰(zhàn)究竟是什么?當前的制度設(shè)計是否能夠?qū)ζ渥龀鲇行?yīng)對?如果答案是否定的,我們又該如何重構(gòu)治理體系以迎接人工智能時代的崛起?本文余下部分將對此做進一步的闡述。
二、人工智能時代崛起的治理挑戰(zhàn)
不同于其他顛覆性技術(shù),人工智能的發(fā)展并不局限于某一特定產(chǎn)業(yè),而是能夠支撐所有產(chǎn)業(yè)變革的通用型技術(shù)。也正因為此,其具有廣泛的社會溢出效應(yīng),在政治、經(jīng)濟、社會等各個領(lǐng)域都會帶來深刻變革,并將同時引發(fā)治理方面的挑戰(zhàn)。具體而言,挑戰(zhàn)主要體現(xiàn)在以下三個方面。
首先,治理結(jié)構(gòu)的僵化性,即傳統(tǒng)的科層制治理結(jié)構(gòu)可能難以應(yīng)對人工智能快速發(fā)展而形成的開放性和不確定性。之所以需要對人工智能加以監(jiān)管,原因在于其可能成為公共危險的源頭,例如當自動駕駛技術(shù)普及之后,一旦出現(xiàn)問題,便可能導(dǎo)致大規(guī)模的連續(xù)性傷害。但不同機、大型水壩、原子核科技等二十世紀的公共危險源,人工智能的發(fā)展具有極強的開放性,任何一個程序員或公司都可以毫無門檻的進行人工智能程序的開發(fā)與應(yīng)用。這一方面是由于互聯(lián)網(wǎng)時代的到來,使得基于代碼的生產(chǎn)門檻被大大降低[14];另一方面,這也是人工智能本身發(fā)展規(guī)律的需要。正如前文所提到,唯有大規(guī)模的數(shù)據(jù)輸入才可能得到較好的機器學(xué)習(xí)結(jié)果,因此將人工智能的平臺(也即算法)以開源形式公開出來,以使更多的人在不同場景之下加以利用并由此吸收更多、更完備的數(shù)據(jù)以完善算法本身,就成為了大多數(shù)人工智能公司的必然選擇。與此同時,人工智能生產(chǎn)模式的開放性也必然帶來發(fā)展的不確定性,在缺乏有效約束或引導(dǎo)的情況下,人工智能的發(fā)展很可能走向歧途。面對這一新形勢,傳統(tǒng)的、基于科層制的治理結(jié)構(gòu)顯然難以做出有效應(yīng)對。一方面,政府試圖全范圍覆蓋的事前監(jiān)管已經(jīng)成為不可能,開放的人工智能生產(chǎn)網(wǎng)絡(luò)使得監(jiān)管機構(gòu)幾乎找不到監(jiān)管對象;另一方面,由上至下的權(quán)威結(jié)構(gòu)既不能傳遞給生產(chǎn)者,信息不對稱問題的加劇還可能導(dǎo)致監(jiān)管行為走向反面。調(diào)整治理結(jié)構(gòu)與治理邏輯,并形成適應(yīng)具有開放性、不確定性特征的人工智能生產(chǎn)模式,是當前面臨的治理挑戰(zhàn)之一。
再者,治理方法的滯后性,即長久以來建立在人類行為因果關(guān)系基礎(chǔ)上的法律規(guī)制體系,可能難以適用于以算法、數(shù)據(jù)為主體的應(yīng)用環(huán)境。人工智能的價值并不在于模仿人類行為,而是其具備自主的學(xué)習(xí)和決策能力;正因為如此,人工智能技術(shù)才不能簡單地理解為其創(chuàng)造者(即人)意志的表達。程序員給出的只是學(xué)習(xí)規(guī)則,但真正做出決策的是基于大規(guī)模數(shù)據(jù)訓(xùn)練后的算法本身,而這一結(jié)果與程序員的意志并無直接因果關(guān)聯(lián)。事實上也正由于這個特點,AlphaGo才可能連續(xù)擊敗圍棋冠軍,而其設(shè)計者卻并非圍棋頂尖大師。也正是在這個意義上,我們才回到了福柯所言的“技術(shù)的主體性”概念。在他看來,“技術(shù)并不僅僅是工具,或者不僅僅是達到目的的手段;相反,其是政治行動者,手段與目的密不可分”。[15]就此而言,長久以來通過探究行為與后果之因果關(guān)系來規(guī)范人的行為的法律規(guī)制體系,便可能遭遇窘境:如果將人工智能所造成的侵權(quán)行為歸咎于其設(shè)計者,無疑不具有說服力;但如果要歸咎于人工智能本身,我們又該如何問責(zé)一個機器呢?由此,如何應(yīng)對以算法、數(shù)據(jù)為核心的技術(shù)主體所帶來的公共責(zé)任分配問題,是當前面臨的第二個治理挑戰(zhàn)。
最后,治理范圍的狹隘性,即對于受人工智能發(fā)展沖擊而引發(fā)的新的社會議題,需要構(gòu)建新的治理體系和發(fā)展新的治理工具。人工智能發(fā)展所引發(fā)的治理挑戰(zhàn)不僅僅體現(xiàn)在現(xiàn)有體系的不適應(yīng)上,同時還有新議題所面臨的治理空白問題。具體而言,這又主要包括以下議題:算法是否能夠享有言論自由的憲法保護,數(shù)據(jù)的權(quán)屬關(guān)系究竟如何界定,如何緩解人工智能所可能加劇的不平等現(xiàn)象,以及如何平衡人工智能的發(fā)展與失業(yè)問題。在人工智能時代之前,上述問題并不存在,或者說并不突出;但伴隨著人工智能的快速發(fā)展和應(yīng)用普及,它們的重要性便日漸顯著。以最為人所關(guān)注的失業(yè)問題為例,就技術(shù)可能性來說,人工智能和機器人的廣泛應(yīng)用代替人工勞動,已是一個不可否定的事實了。無論是新聞記者,還是股市分析員,甚至是法律工作者,其都有可能為機器所取代。在一個“充分自動化(Full Automation)”的世界中,如何重新認識勞動與福利保障的關(guān)系、重構(gòu)勞動和福利保障制度,便成為最迫切需要解決的治理挑戰(zhàn)之一。[16]
上述三方面共同構(gòu)成了人工智能時代崛起所帶來的治理挑戰(zhàn)。面對這些挑戰(zhàn),各國也做出了相應(yīng)的公共政策選擇。本文第三部分將對各國人工智能的治理政策進行對比性分析。在此基礎(chǔ)上,第四部分將提出本文的政策建議。
三、各國人工智能治理政策及監(jiān)管路徑綜述
人工智能時代的崛起作為一種普遍現(xiàn)象,其所引發(fā)的治理挑戰(zhàn)是各國面臨的共同問題,各國也陸續(xù)出臺了相關(guān)公共政策以試圖推動并規(guī)范人工智能的快速發(fā)展。
美國于2016年同時頒布了《國家人工智能研究與發(fā)展戰(zhàn)略規(guī)劃》和《為人工智能的未來做好準備》兩個國家級政策框架,前者側(cè)重從技術(shù)角度指出美國人工智能戰(zhàn)略的目的、愿景和重點方向,而后者則更多從治理角度探討政府在促進創(chuàng)新、保障公共安全方面所應(yīng)扮演的角色和作用。就具體的監(jiān)管政策而言,《為人工智能的未來做好準備》提出了一般性的應(yīng)對方法,強調(diào)基于風(fēng)險評估和成本-收益考量的原則以決定是否對人工智能技術(shù)的研發(fā)與應(yīng)用施以監(jiān)管負擔(dān)。[17]日本同樣于2016年出臺了《第五期(2016~2020年度)科學(xué)技術(shù)基本計劃》,提出了“超智能社會5.0”的概念,強調(diào)通過推動數(shù)據(jù)標準化、建設(shè)社會服務(wù)平臺、協(xié)調(diào)發(fā)展多領(lǐng)域智能系統(tǒng)等各方面工作促進人工智能的發(fā)展和應(yīng)用。[18]
盡管美國和日本的政策著力點不同,但其共有的特點是對人工智能的發(fā)展及其所引發(fā)的挑戰(zhàn)持普遍的包容與開放態(tài)度。就當前的政策框架而言,美日兩國的政策目標更傾斜于推動技術(shù)創(chuàng)新、保持其國家競爭力的優(yōu)勢地位;當涉及對人工智能所可能引發(fā)的公共問題施以監(jiān)管時,其政策選擇也更傾向于遵循“無需批準式(permissionless)”的監(jiān)管邏輯,即強調(diào)除非有充分案例證明其危害性,新技術(shù)和新商業(yè)模式默認為都是被允許的。[19]至于人工智能的發(fā)展對個人數(shù)據(jù)隱私、社會公共安全的潛在威脅,盡管兩國的政策框架都有所涉及,卻并非其政策重心——相比之下,英國、法國則采取了不同的政策路徑。
英國政府2016年了《人工智能:未來決策制定的機遇與影響》,對人工智能的變革性影響以及如何利用人工智能做出了闡述與規(guī)劃,尤其關(guān)注到了人工智能發(fā)展所帶來的法律和倫理風(fēng)險。在該報告中,英國政府強調(diào)了機器學(xué)習(xí)與個人數(shù)據(jù)相結(jié)合而對個人自由及隱私等基本權(quán)利所帶來的影響,明確了對使用人工智能所制定出的決策采用問責(zé)的概念和機制,并同時在算法透明度、算法一致性、風(fēng)險分配等具體政策方面做出了規(guī)定。[20]與英國類似,法國在2017年的《人工智能戰(zhàn)略》中延續(xù)了其在2006年通過的《信息社會法案》的立法精神,同樣強調(diào)加強對新技術(shù)的“共同調(diào)控”,以在享有技術(shù)發(fā)展所帶來的福利改進的同時,充分保護個人權(quán)利和公共利益。[21]與美日相比,英法的公共政策更偏向于“審慎監(jiān)管(precautionary)”的政策邏輯,即強調(diào)新技術(shù)或新的商業(yè)模式只有在開發(fā)者證明其無害的前提下才被允許使用。[22]
在本文看來,無論是“無需批準式監(jiān)管”還是“審慎監(jiān)管”,在應(yīng)對人工智能時代崛起所帶來的治理挑戰(zhàn)方面都有其可取之處:前者側(cè)重于推動創(chuàng)新,而后者則因重視安全而更顯穩(wěn)健。但需要指出的是,這兩種監(jiān)管路徑的不足卻也十分明顯。正如前文第二部分所指出,一方面,快速迭代的技術(shù)發(fā)展與商業(yè)模式創(chuàng)新必將引發(fā)新的社會議題,無論是算法是否受到言論自由的權(quán)利保護還是普遍失業(yè)對社會形成的挑戰(zhàn),它們都在客觀上要求公共政策做出應(yīng)對,而非片面的“無需批準式監(jiān)管”能夠處理。更重要的是,“無需批準式監(jiān)管”的潛在假設(shè)是事后監(jiān)管的有效性;然而,在事實上,正如2010年5月6日美國道瓊斯工業(yè)指數(shù)“瞬間崩盤”事件所揭示的,即使單個電子交易程序合規(guī)運行,當各個系統(tǒng)行為聚合在一起時反而卻造成了更大的危機。[23]在此種情形下,依賴于合規(guī)性判斷的“事后監(jiān)管”基本上難以有效實施。另一方面,人工智能本身的自主性和主體性使得建立在人類行為因果關(guān)系基礎(chǔ)上的“審慎監(jiān)管”邏輯存在天然缺陷:既然人類無法預(yù)知人工智能系統(tǒng)可能的行為或決策,開發(fā)者又如何證明人工智能系統(tǒng)的無害性?
正如本文所反復(fù)強調(diào)的,人工智能與其他革命性技術(shù)的不同之處,正是在于其所帶來的社會沖擊的綜合性和基礎(chǔ)性。人工智能并非單個領(lǐng)域、單個產(chǎn)業(yè)的技術(shù)突破,而是對于社會運行狀態(tài)的根本性變革;人工智能時代的崛起也并非一夜之功,而是建立在計算機革命、互聯(lián)網(wǎng)革命直至數(shù)字革命基礎(chǔ)上的“奇點”變革。因此,面對人工智能時代崛起所帶來的治理挑戰(zhàn),我們同樣應(yīng)該制定綜合性的公共政策框架,而非僅僅沿襲傳統(tǒng)治理邏輯,例如只是針對具體議題在“創(chuàng)新”與“安全”這個二元維度下進行艱難選擇。本文在第四部分從承認技術(shù)的主體性、重構(gòu)社會治理制度、推進人工智能全球治理這三方面提出了政策建議,并希望以此推動更深入地圍繞人工智能時代公共政策選擇的研究與討論。
四、人工智能時代的公共政策選擇
《新一代人工智能發(fā)展規(guī)劃》明確提出了到2030年我國人工智能發(fā)展的“三步走”目標,而在每一個階段,人工智能法律法規(guī)、倫理規(guī)范和政策體系的逐步建立與完善都是必不可少的重要內(nèi)容。面對人工智能時代崛起的治理挑戰(zhàn),究竟應(yīng)該如何重構(gòu)治理體系、創(chuàng)新治理機制、發(fā)展治理工具,是擺在決策者面前的重要難題。本文基于對人工智能基本概念和發(fā)展邏輯的梳理分析,結(jié)合各國已有政策的對比分析,提出以下三方面的改革思路,以為人工智能時代的公共選擇提供參考。
第一,人工智能發(fā)展的基石是算法與數(shù)據(jù),建立并完善圍繞算法和數(shù)據(jù)的治理體系與治理機制,是人工智能時代公共政策選擇的首要命題,也是應(yīng)對治理挑戰(zhàn)、賦予算法和數(shù)據(jù)以主體性的必然要求。(1)就算法治理而言,涉及的核心議題是算法的制定權(quán)及相應(yīng)的監(jiān)督程序問題。算法作為人工智能時代的主要規(guī)則,究竟誰有權(quán)并通過何種程序來加以制定,誰來對其進行監(jiān)督且又如何監(jiān)督?長久以來公眾針對社交媒體臉書(Facebook)的質(zhì)疑正體現(xiàn)了這一問題的重要性:公眾如何相信臉書向用戶自動推薦的新聞內(nèi)容不會摻雜特殊利益的取向?[24]當越來越多的人依賴定制化的新聞推送時,人工智能甚至?xí)绊懙娇偨y(tǒng)選舉。也正因為此,包括透明要求、開源要求在內(nèi)的諸多治理原則,應(yīng)當被納入到算法治理相關(guān)議題的考慮之中。(2)就數(shù)據(jù)治理而言,伴隨著人工智能越來越多地依賴于大規(guī)模數(shù)據(jù)的收集與利用,個人隱私的保護、數(shù)據(jù)價值的分配、數(shù)據(jù)安全等相關(guān)議題也必將成為公共政策的焦點。如何平衡不同價值需求、規(guī)范數(shù)據(jù)的分享與應(yīng)用,也同樣成為人工智能時代公共政策選擇的另一重要抓手。
第二,創(chuàng)新社會治理制度,進一步完善社會保障體系,在最大程度上緩解人工智能發(fā)展所可能帶來的不確定性沖擊。與歷史上的技術(shù)革命類似,人工智能的發(fā)展同樣會導(dǎo)致利益的分化與重構(gòu),而如何保證技術(shù)革命成本的承受者得到最大限度的彌補并使所有人都享有技術(shù)發(fā)展的“獲得感”,不僅是社會發(fā)展公平、正義的必然要求,也是促進技術(shù)革命更快完成的催化劑。就此而言,在人工智能相關(guān)公共政策的考量中,我們不僅應(yīng)該關(guān)注產(chǎn)業(yè)和經(jīng)濟政策,同時也應(yīng)該關(guān)注社會政策,因為只有后者的完善才能夠控制工人或企業(yè)家所承擔(dān)的風(fēng)險,并幫助他們判斷是否支持或抵制變革的發(fā)生。就具體的政策設(shè)計來說,為緩解人工智能所可能帶來的失業(yè)潮,基本收入制度的普遍建立可能應(yīng)該被提上討論議程了。“基本收入”是指政治共同體(如國家)向所有成員不加任何限制條件地支付一定數(shù)額的收入,以滿足其基本生活的需求。盡管存在“養(yǎng)懶漢”的質(zhì)疑,但有研究者已指出,自18世紀就開始構(gòu)想的基本收入制度很有可能反過來促進就業(yè)。[25]芬蘭政府已經(jīng)于2017年初開始了相關(guān)實驗,美國的一些州、瑞士也做出了一定探索。在人工智能時代尚未完全展現(xiàn)其“猙容”之前,創(chuàng)新社會治理機制、完善社會保障體系,可能是平衡技術(shù)創(chuàng)新與社會風(fēng)險的最佳路徑。
第三,構(gòu)建人工智能全球治理機制,以多種形式促進人工智能重大國際共性問題的解決,共同應(yīng)對開放性人工智能生產(chǎn)模式的全球性挑戰(zhàn)。人工智能的發(fā)展具有開放性和不確定性的特征,生產(chǎn)門檻的降低使得人工智能技術(shù)研發(fā)的跨國流動性很強,相關(guān)標準的制定、開放平臺的搭建、共享合作框架的形成,無不要求構(gòu)建相應(yīng)的全球治理機制。另一方面,跨境數(shù)據(jù)流動在廣度和深度上的快速發(fā)展成為了人工智能技術(shù)進步的直接推動力,但各國數(shù)據(jù)規(guī)制制度的巨大差異在制約跨境數(shù)據(jù)流動進一步發(fā)展的同時,也將影響人工智能時代的全面到來。[26]故此,創(chuàng)新全球治理機制,在承認各國制度差異的前提下尋找合作共享的可能性,便成為人工智能時代公共政策選擇的重要考量之一。就具體的機制設(shè)計而言,可以在人工智能全球治理機制的構(gòu)建中引入多利益相關(guān)模式;另一方面,為防止巨頭壟斷的形成,充分發(fā)揮主權(quán)國家作用的多邊主義模式同樣不可忽視。作為影響深遠的基礎(chǔ)性技術(shù)變革,互聯(lián)網(wǎng)全球治理機制的經(jīng)驗和教訓(xùn)值得人工智能發(fā)展所借鑒。
上述三方面從整體上對人工智能時代的公共政策框架做出了闡述。與傳統(tǒng)政策局限于“創(chuàng)新”與“安全”之間做出二維選擇不同,本文以更綜合的視角提出了未來公共政策選擇的可能路徑。就其內(nèi)在聯(lián)系來講,建立并完善圍繞算法和數(shù)據(jù)的治理體系是起點,其將重構(gòu)人工智能時代的規(guī)則與制度;創(chuàng)新社會治理機制并完善社會保障體系是底線,其將緩解人工智能所帶來的影響與波動;構(gòu)建全球治理機制則成為了制度性的基礎(chǔ)設(shè)施,推動各國在此之上共同走向人工智能時代的“人類命運共同體”。
五、結(jié)語
在經(jīng)歷了60余年的發(fā)展之后,人工智能終于在互聯(lián)網(wǎng)、大數(shù)據(jù)、機器學(xué)習(xí)等諸多技術(shù)取得突破的基礎(chǔ)上實現(xiàn)了騰飛。在未來的人類生活中,人工智能也必將扮演越來越重要的角色。對于這樣的圖景,我們自不必驚慌,但卻也不可掉以輕心。對于人工智能的治理,找到正確的方向并采取合理的措施,正是當下所應(yīng)該重視的政策議題。而本文的主旨也正在于此:打破長久以來人們對于人工智能的“籠統(tǒng)”式擔(dān)憂,指出人工智能技術(shù)發(fā)展的技術(shù)邏輯及其所引發(fā)的治理挑戰(zhàn),并在此基礎(chǔ)上提出相應(yīng)的政策選擇。人工智能治理的這三個基本問題,是重構(gòu)治理體系、創(chuàng)新治理機制、發(fā)展治理工具所必須思考的前提。伴隨著我國國家層面戰(zhàn)略規(guī)劃的出臺,我國人工智能的發(fā)展也必將躍上新臺階。在此背景下,深入探討人工智能治理的相關(guān)公共政策議題,對于助推一個人工智能時代的崛起而言,既有其必要性,也有其迫切性。(來源:中國行政管理 文/賈開 蔣余浩 編選:中國電子商務(wù)研究中心)
[參考文獻]
[1]國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知[EB/OL]. http://gov.cn/zhengce/content/2017-07/20/content_5211996.htm.
[2]霍金. AI可能成就或者終結(jié)人類文明[EB/OL].http://raincent.com/content-10-7672-1.html.
[3] Elon Musk. Artificial Intelligence is Our Biggest Existential Threat. https://theguardian.com/technology/2014/oct/27/elon-musk-artificial-intelligence-ai-biggest-existential-threat.
[4] Microsoft's Bill Gates Insists AI is A Threat. http://bbc.com/news/31047780. 2017-8-14.
[5] [以]赫拉利.人類簡史[M].北京:中信出版社,2014.
[6] The President in Conversation With MIT’s Joi Ito and WIRED’s Scott Dadich. https://wired.com/2016/10/president-obama-mit-joi-ito-interview/. 2017-8-14.
[7] Turing,A. M. Computing Machinery and Intelligence. Mind,1950,59(236).
[8] [9][10] McCarthy,J.What is Artificial Intelligence. URL:http://www-formal.stanford.edu/jmc/whatisai/whatisai.html.
[11] [12][13] [美]佩德羅-多明戈斯.終極算法:機器學(xué)習(xí)和人工智能如何重塑世界[M].黃芳萍譯.北京:中信出版社,2016.
[14] Benkler,Y. The Wealth of Networks:How Social Production Transforms Markets and Freedom. Yale University Press,2006.
[15] Foucoult,M. Discipline and Punish. A. Sheridan,Tr.,Paris,F(xiàn)R,Gallimard,1975.
[16] Srnicek,N.,& Williams,A. The Future isn't Working. Juncture,2015,22(3):243-247.
[17] Preparing for the Future of Artificial Intelligence. https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf. 2017-8-14.
[18]薛亮.“日本推動實現(xiàn)超智能社會‘社會5.0’”[EB/OL]. http://istis.sh.cn/list/list.aspx?id=10535.
[19] Thierer,A. Permissionless Innovation:The Continuing Case for Comprehensive Technological Freedom. Mercatus Center at George Mason University,2016.
[20] Artificial Intelligence:Opportunities and Implications for the Future of Decision Making.https://gov.uk/government/uploads/system/uploads/attachment_data/file/566075/gs-16-19-artificial-intelligence-ai-report.pdf.
[21]周衍冰.大數(shù)據(jù)產(chǎn)業(yè)在法國的發(fā)展及應(yīng)用[N].學(xué)習(xí)時報,2014-11-03.
[22] Thierer,A. D.,& Watney,C. J. Comment on the Federal Automated Vehicles Policy,2016.
[23] [美]杰瑞·卡普蘭.人工智能時代:人機共生下財富、工作與思維的大未來[M].杭州浙江人民出版社,2016.
[24] Marcel Rosenbach. How Google and Facebook Can Reshape Elections.http://spiegel.de/international/germany/google-and-facebook-could-help-decide-2017-german-election-a-1120156.html.
[25] Van Parijs,P. Basic Income:A Simple and Powerful Idea for the Twenty-first Century. Politics & Society,2004,32(1).
關(guān)鍵詞:高校;人工智能;倫理道德教育
中圖分類號:G642.0文獻標志碼:A文章編號:1674-9324(2019)41-0144-02
一、人工智能課程倫理考慮的基本內(nèi)涵
人工智能課程中進行倫理考慮,是在人工智能課程中有針對性地加入道德教育的元素。在方式上,可以借用西方的“隱形教育”方式。在內(nèi)容上,必須符合中國的人工智能發(fā)展態(tài)勢,更要受中國社會主義核心價值體系的引導(dǎo)。目前中國的人工智能課程,過度偏向于技術(shù)性。尤其是許多社會機構(gòu)提供的課程,更是偏向于功利性,目的在于讓學(xué)習(xí)課程的學(xué)習(xí)者快速獲得工作。因此,必須從源頭入手,對這些社會機構(gòu)進行一定的約束和規(guī)范,對人工智能課程內(nèi)容進行整體的架構(gòu)。
二、高校人工智能課程中倫理考慮的必要性
(一)我國對于科技工作者職業(yè)道德建設(shè)的要求
首先,科技工作者的職業(yè)道德建設(shè)是促進社會治理體系現(xiàn)代化的必然要求。加強社會治理制度建設(shè),一靠法治,二靠德治。中國正聚焦力量加強自主創(chuàng)新,科技是第一生產(chǎn)力。基于當代中國語境下,科技工作者的職業(yè)道德建設(shè)就至關(guān)重要。科技工作者對自己的社會責(zé)任與倫理責(zé)任應(yīng)該有著充分的理解,在科研活動中既要著眼于為社會提供科學(xué)技術(shù)上的新成果,同時也要強調(diào)在倫理道德建設(shè)中起到應(yīng)有的作用。
其次,從長期看,科技工作者的職業(yè)道德建設(shè)利于國家科技的發(fā)展,利于促進科技難題的解決。發(fā)展是連續(xù)和間斷的同一,科技發(fā)展不能一蹴而就。在面臨科技瓶頸問題時,就更要求科技工作者具有堅韌不拔的品質(zhì)和無私奉獻的精神。這些精神都是進行職業(yè)道德教育中的重要內(nèi)容,也是科技工作者承擔(dān)的社會角色中必不可少的特質(zhì)。
最后,高尚的職業(yè)道德是科技工作者奮進的不竭動力。一個科技工作者只有站在最廣大人民的立場上,奉獻自我才能成就事業(yè)。隨著全球化的發(fā)展,受西方“享樂主義”的負面影響,科技工作者只有更加堅守自我、承擔(dān)社會責(zé)任,才能具有不斷前進的精神支柱。
(二)對解決人工智能倫理困境的源頭性作用
隨著人工智能應(yīng)用領(lǐng)域的廣泛化,以及應(yīng)用群體的普及化,難以避免的帶來一些倫理問題上的困境。例如倫理學(xué)中經(jīng)典的“電車難題”,在當代科技發(fā)展中也出現(xiàn)了在人工智能領(lǐng)域的“無人車難題”。無人車產(chǎn)生事故的責(zé)任歸屬與分配就是目前很多學(xué)者在關(guān)注的倫理問題。人工智能的發(fā)展對當前的法律規(guī)制,還有現(xiàn)存的人倫規(guī)范都產(chǎn)生了挑戰(zhàn)。人工智能的未來發(fā)展方向,在操作性上要避免技術(shù)鴻溝,在設(shè)計過程中要堅持算法公開化、透明化,并且在出現(xiàn)數(shù)據(jù)漏洞時應(yīng)盡快地進行自我修復(fù)。這對于科技工作者自身的素質(zhì)提出了很高的要求,不但要求科技工作者自身的知識素質(zhì)與知識能力過硬,而且要求科技工作者要嚴于律己,具有較高的思想道德素質(zhì)。要求科技工作者對于人工智能的發(fā)展保持理性的態(tài)度,堅持為國為民。許多科幻電影和小說中都體現(xiàn)了未來人工智能發(fā)展到一定階段時,人與機器產(chǎn)生的情感迷思。作為科技工作者,在設(shè)計與調(diào)整過程中都應(yīng)保持情感中立,勇于承擔(dān)社會責(zé)任。目前我國正處于人工智能發(fā)展的初級階段,人工智能尚不能擁有自主意識,人工智能的行為責(zé)任必須要找到其背后的擁有自主意識的人。無論是現(xiàn)階段還是未來,作為人工智能產(chǎn)品開發(fā)者與設(shè)計者的科技工作者樹立正確的價值觀和承擔(dān)相應(yīng)的社會責(zé)任是十分必要的。科技工作者的知識層次與道德品質(zhì)在某種程度上說,是研發(fā)人工智能產(chǎn)品的起點。因此,對科技工作者的成長過程中進行持續(xù)的道德教育,使其樹立高尚的道德觀念,對于解決許多人工智能帶來的倫理困境都具有源頭性、基礎(chǔ)性的作用。
三、高校人工智能課程與倫理道德教育的結(jié)合方式探索
(一)高校人工智能課程資源的充分運用與更新
從資源形態(tài)上看,實物化資源與虛擬化資源,線上資源與線下資源都應(yīng)充分運用。隨著智能校園的普及,有基礎(chǔ)條件的地區(qū)與校園可以充分運用好身邊的人工智能。人工智能課程是一門理論與實踐相結(jié)合的課程,因此課程的內(nèi)容也不能僅停留在理論層面。除了對于學(xué)術(shù)資源的運用,也應(yīng)當結(jié)合實體的人工智能產(chǎn)品進行學(xué)習(xí)。但因為人工智能的發(fā)展程度還沒有普及化,人工智能機器人也遠沒有達到觸手可及的程度。因此運用新媒體技術(shù),通過虛擬現(xiàn)實的手段進行在教學(xué)過程中的知行結(jié)合是可以嘗試的路徑。VR技術(shù)在網(wǎng)絡(luò)設(shè)備硬件教學(xué)中可以節(jié)約成本,便于人工智能課堂的普及化。在理論教學(xué)中,可以通過與虛擬機器人的交互增強趣味性。VR技術(shù)有3個最突出的特點:交互性、沉浸性和構(gòu)想性。課程設(shè)置者可以充分借助VR的沉浸性設(shè)置相應(yīng)的場景,讓課程學(xué)習(xí)者通過對特定道德場景的判斷引出思考。這種新媒體手段既可以更新原有課堂知識的教學(xué)教法,更適合作為倫理教育走入人工智能課堂的重要媒介。
從資源時態(tài)上看,人工智能課程資源必須隨著人工智能的發(fā)展而不斷更新。從現(xiàn)實角度來看,最初開設(shè)人工智能課程時,其教學(xué)目標還是相對簡單的——即培養(yǎng)學(xué)生的創(chuàng)造性與知識能力。但隨著人工智能的普及應(yīng)用,產(chǎn)生了許多人工智能語境下的道德困境。從指導(dǎo)思想來看,我國逐步走向世界舞臺,隨著實力增強指導(dǎo)思想也是不斷變化的,新時代會提出新目標,為了實現(xiàn)中華民族的偉大復(fù)興,課程內(nèi)容的豐富也是十分必要的。因此,人工智能課程若要符合時代需要,就需要不斷地更新課程資源。人工智能這一學(xué)科是具有學(xué)科交叉性的,與之相關(guān)各個領(lǐng)域的最新前沿問題都需要結(jié)合相應(yīng)的道德教育,只有這樣才能適應(yīng)時代的發(fā)展。
(二)高校人工智能課程內(nèi)容的合理架構(gòu)
對于不同年齡層次的人工智能課程,必須考慮到不同群體的教育規(guī)律。提出合理的教育目標,用不同群體可以接受的方式方法才能達到最優(yōu)的教學(xué)效果。我國人工智能課程目前的課程架構(gòu)中,已經(jīng)有學(xué)者進行了分年齡層次的研究。人工智能課程可以規(guī)劃為專業(yè)性逐漸增強的、從邊緣到中心的課程層級系統(tǒng)。對于高校本科生和研究生來說,人工智能課程設(shè)置內(nèi)容必須具有專業(yè)性。在上文的課程體系建構(gòu)中添加了藝術(shù)、文學(xué)、哲學(xué)等內(nèi)容,其中包含對于人工智能倫理學(xué)的思考與認識。但在某種意義上這些青年的社會價值觀就代表了未來科技工作者的社會價值觀。因此在這一階段,人工智能課程的架構(gòu)與實施,國家應(yīng)加以引導(dǎo)和監(jiān)督。一方面需要建立統(tǒng)一標準的高校人工智能課程體系,另一方面在應(yīng)對課程具體內(nèi)容的落實方面給予一定程度的監(jiān)督。
(三)在高校人工智能課程教學(xué)過程中充分運用案例
首先應(yīng)充分運用學(xué)術(shù)案例,例如度量學(xué)習(xí),在其基礎(chǔ)上的遷移學(xué)習(xí),以及發(fā)表在《機器學(xué)習(xí)》、《數(shù)據(jù)挖掘》等頂級期刊上的論文。使課堂具有含金量,可以說這也是國家發(fā)展與關(guān)注的重點。通過學(xué)術(shù)性經(jīng)典案例的學(xué)習(xí)可以擁有不一樣的視角,通過歷史發(fā)展的角度去看人工智能技術(shù)的演變與發(fā)展。其次應(yīng)充分運用具體案例。在人工智能課程中對于許多道德問題,不應(yīng)抽象地去討論,而應(yīng)該具體地去討論。也可以讓學(xué)生與AI系統(tǒng)進行直接的問答,如:我們能保證它們穩(wěn)定可靠嗎?我們應(yīng)該如何去測試人工智能?人工智能課堂中既要包容學(xué)生多元化的答案,不壓抑創(chuàng)造性又要對于錯誤的思想進行思想轉(zhuǎn)化,這就需要教育者具體問題進行具體分析了。