從智能分級視角看人工智能法律人格之有無

來源:光明日報 作者:彭誠信 2024-09-13 23:27:53

  每一項重大科技應(yīng)用取得突破前后,均有對其理論上的持續(xù)爭論。著名小說《仿生人會夢見電子羊嗎?》引發(fā)的人與仿生人之間界限的討論雖產(chǎn)生于20世紀(jì),但一直延續(xù)至今,其蘊(yùn)含的法律問題是人工智能究竟是否具備法律人格。這一問題對外是研發(fā)與運(yùn)用人工智能的前提,對內(nèi)則是確立人工智能權(quán)利、義務(wù)乃至責(zé)任的基礎(chǔ)。圍繞此問題,光明日報理論版近期刊發(fā)了多篇文章,充分反映了反對說與支持說之間的爭鳴。但筆者認(rèn)為,此兩類觀點均有可供商榷之處,即都未能很好地針對不同級別人工智能的特質(zhì)來分析。在學(xué)術(shù)討論中,人工智能主要分為弱人工智能和強(qiáng)人工智能,其區(qū)別在于自身同人類智慧的距離。這種異質(zhì)性決定了不同人工智能各自法律人格的有無以及如何具體地賦予,但在判斷時均須遵循法律主體資格的一般要件原理。

  人工智能有無法律人格的判準(zhǔn)

  法律并非當(dāng)然地把某種自然存在(如自然人)或社會實在(如公司等)認(rèn)定為法律主體,而是通過一定的條件設(shè)置或認(rèn)可原則來判斷是否以及如何賦予該存在以特定的主體資格。符合條件與認(rèn)可原則者,即具備法律人格,反之則否。這只能是一種非此即彼的判斷,而不可能存在《有限法律主體:人工智能法律地位的合理選擇》一文提出的“有限性”這一中間狀態(tài)。簡言之,抽象的法律人格是不能附加條件或予以限制的,能夠限制的只能是具體的權(quán)利,而非人格(即主體資格)。人工智能這種非自然人的社會存在是否具有法律人格,端賴其能否滿足以下三方面要件。

  第一,意志能力要件,即能否把內(nèi)在思想通過外在行為表達(dá)出來。自然人的內(nèi)在意志往往通過其外在行為表達(dá)出來,無論該行為是明示的、默示的,還是沉默的。表征法人意志的則是團(tuán)體設(shè)立成員之間的共同信念,該共同信念便是法人意志能力的外在體現(xiàn)。判斷人工智能有無意志能力的標(biāo)準(zhǔn)在于:決定其發(fā)揮具體功能或完成特定任務(wù)的算法能否與設(shè)計者、生產(chǎn)者等相分離;或者說,人工智能本身能否自主地創(chuàng)設(shè)出新的算法或擺脫既有算法的約束。若人工智能仍完全受制于既有算法的束縛,那就難謂它有意志能力;若人工智能可以擺脫既有算法束縛,能夠自主地發(fā)揮特定功能,完成某種意志性行為,那就可以說它具有某種程度的意志能力,法律便可以賦予其主體資格,或至少具有這種可能。

  第二,物質(zhì)性要件,即是否擁有從事活動所需的財產(chǎn)或其他必要條件。物質(zhì)性要件可以是技能或身份,但更多的應(yīng)該是財產(chǎn)。對于人工智能來說,其物質(zhì)性要件可謂紛繁多樣,這完全取決于人工智能所要發(fā)揮的個體功能及社會功能。但無論如何,擁有財產(chǎn)是人工智能獲得法律人格的一個極其重要的要件,因為討論其是否具有法律人格,從最終意義上說還是在追問人工智能能否獨立承擔(dān)法律責(zé)任,尤其是財產(chǎn)性法律責(zé)任。

  第三,形式性要件。一個社會存在實體能否成為法律上的人,還取決于其是否符合法律的形式要件要求。法律通過一套認(rèn)可原則把客觀實在納入法律主體之中,自然人是隨著出生、通過人的存在而具有權(quán)利能力的,法人的權(quán)利能力則通過特定的認(rèn)可原則而授予。當(dāng)下,承認(rèn)非自然人主體資格的認(rèn)可原則主要有自由設(shè)立、準(zhǔn)則設(shè)立、行政許可、特許設(shè)立、強(qiáng)制設(shè)立等五種。主體的認(rèn)可原則反映著一個國家對非自然人主體賦予法律主體資格的寬嚴(yán)松緊程度,其本身就是一種法律價值判斷。

  人工智能法律人格的分級認(rèn)定

  近期刊發(fā)的幾篇文章,基本上都不加區(qū)分地肯定或否定所有人工智能的法律人格。但依據(jù)本文關(guān)于人工智能有無法律人格的判準(zhǔn),在現(xiàn)行法下,關(guān)于不同級別人工智能有無法律人格的問題,結(jié)論并不相同。

  第一,部分弱人工智能無法律人格,其應(yīng)被認(rèn)定為權(quán)利客體,具體表現(xiàn)為物、產(chǎn)品、服務(wù)等。在意志能力要件方面,即便是高級弱人工智能的“智能”仍比較固定且單一,其僅能在算法設(shè)置的任務(wù)范圍內(nèi)具備某種超出人類的“智能”。《人工智能成為法律主體不存在理論障礙》一文在論證人工智能具備法律人格時指出,“人工智能的自動化決策,是人類所‘投喂’大數(shù)據(jù)與計算機(jī)程序共同合力形成的結(jié)果,兩者均是人類智性的延續(xù)與‘放任’”,恰恰證明了弱人工智能難以產(chǎn)生自由意志。在物質(zhì)性要件方面,《有限法律主體:人工智能法律地位的合理選擇》一文雖主張“法律應(yīng)當(dāng)為人工智能創(chuàng)設(shè)特殊的責(zé)任承擔(dān)的機(jī)制,在一定限度內(nèi)以自己的財產(chǎn)獨立對受害人承擔(dān)責(zé)任”,但當(dāng)下還難以看到人工智能可以擁有自己的財產(chǎn),迄今也還沒有出現(xiàn)責(zé)令人工智能獨立承擔(dān)或與他人共同承擔(dān)侵權(quán)損害賠償?shù)确韶?zé)任的案例。即便人工智能發(fā)展的未來是讓其獨立或與其他主體共同承擔(dān)責(zé)任,但至今仍還沒有找到為人工智能注入“第一桶金”的現(xiàn)實路徑。在形式要件方面,法律通過何種形式來認(rèn)定弱人工智能具有法律人格,目前尚無制定法依據(jù)。因此,弱人工智能在現(xiàn)階段原則上被認(rèn)定為權(quán)利客體更妥。此做法并不妨礙區(qū)分具體情形解決其致害責(zé)任的分配問題。如自動駕駛汽車致害時,可能發(fā)生產(chǎn)品責(zé)任(民法典第1203條)與機(jī)動車交通事故責(zé)任(道路交通安全法第76條)的競合。

  其二,高級人工智能(包括強(qiáng)人工智能及部分高級弱人工智能)在特定條件下有可能被賦予法律人格?!镀瞥斯ぶ悄艹蔀榉芍黧w的臆想》一文指出,“人工智能系統(tǒng)的‘決策’基于大量的數(shù)據(jù)處理和模式識別,但這些‘決策’并不涉及自主的理性判斷”。但人工智能因其學(xué)習(xí)能力而在某些領(lǐng)域的應(yīng)用已經(jīng)超越人類的技術(shù)現(xiàn)實,顯然不同于人類既有的科技進(jìn)步。其導(dǎo)致的結(jié)果是,人工智能不再僅僅是工具,而是將“主體—客體”間單向的服務(wù)變?yōu)殡p向的交流,因而具備一定的自主性。這一根本性的變革,促使人類在制度設(shè)計時須將人工智能的智能程度及其帶來的不可預(yù)測性納入考慮范圍。若出現(xiàn)需要對特定的人工智能予以保護(hù)或使其承擔(dān)責(zé)任的具體情形,可將其擴(kuò)張解釋為法律主體。民法典第128條規(guī)定:“法律對未成年人、老年人、殘疾人、婦女、消費(fèi)者等的民事權(quán)利保護(hù)有特別規(guī)定的,依照其規(guī)定?!逼淞⒎康脑谟诒Wo(hù)該條列舉和未經(jīng)列舉群體的民事權(quán)益,基于此,該條之“等”可認(rèn)定為“等外等”,即在條文的列舉之外,還包括有待特別保護(hù)的其他群體。在現(xiàn)階段,司法實踐可將人工智能擴(kuò)張解釋進(jìn)該條的“等”字,適用該條對人工智能施加保護(hù)。

  人工智能法律人格的未來設(shè)想

  人工智能是否具備法律人格不能一概而論,僅通過擴(kuò)張解釋將部分人工智能納入法律主體行列,尚屬權(quán)宜之計。對于確有必要賦予法律人格的人工智能而言,未來可以采取準(zhǔn)則主義(含登記)使之獲得國家認(rèn)可。此模式的合理性,一方面是有利于國家對弱人工智能尤其是高級弱人工智能進(jìn)入社會實施更有效的控制;另一方面,人工智能國際標(biāo)準(zhǔn)正在確立并不斷完善,技術(shù)標(biāo)準(zhǔn)的確立為人工智能之分級和設(shè)立準(zhǔn)則的確立提供了依據(jù)。法人登記制度亦為人工智能登記提供了借鑒。

  若未來采用準(zhǔn)則主義肯認(rèn)人工智能的法律人格,尚需進(jìn)一步明確其取得主體地位的實質(zhì)性要件。在意志能力認(rèn)定方面,人工智能意志能力的認(rèn)定原則是其本身至少能夠適度擺脫固有算法的束縛,形成一定程度的自主學(xué)習(xí)與創(chuàng)造能力。這就需要結(jié)合國家或者特定國際組織有關(guān)人工智能的認(rèn)定標(biāo)準(zhǔn),尤其是建立在對人工智能具體智能分級的基礎(chǔ)上。在物質(zhì)性要件方面,人工智能應(yīng)該擁有一定的財產(chǎn)。對于其初始財產(chǎn)來源,當(dāng)下有兩種方式可供參考:一是為人工智能強(qiáng)制投保責(zé)任保險。保險在現(xiàn)代交通事故賠償中的作用已經(jīng)過實踐驗證,人工智能保險是解決人工智能財產(chǎn)責(zé)任承擔(dān)問題的現(xiàn)實選擇。二是設(shè)立人工智能儲備基金。對于那些不太可能造成重大生命和財產(chǎn)損失的人工智能(如Siri、人工智能家庭管家等),有學(xué)者建議應(yīng)對購買人加收責(zé)任附加費(fèi)以創(chuàng)立責(zé)任基金。如此,便可解決《人工智能不應(yīng)成為法律主體》一文提及的人工智能因無獨立財產(chǎn)從而不具備責(zé)任能力的問題。

  面對各類人工智能的社會存在樣態(tài)、是否準(zhǔn)許特定種類人工智能的存在、存在后如何規(guī)制其行為以及相關(guān)法律爭議如何解決等問題,《破除人工智能成為法律主體的臆想》一文主張的“在現(xiàn)有法律體系下解釋和完善法律”誠然是一種可選方案。但是,作為一個大國,尤其是將發(fā)展人工智能列為國家戰(zhàn)略的大國,應(yīng)在人工智能立法方面做出率先嘗試,從而可更為有效地引導(dǎo)人工智能的良性發(fā)展?;诖?,我國極有必要制定“人工智能法”,立法目標(biāo)包括:建立人工智能倫理委員會,確保倫理道德關(guān)系不受破壞;建立全流程監(jiān)管體系,確保從研究到應(yīng)用的負(fù)面效應(yīng)可控;確定寬容審慎的監(jiān)管原則、明晰法律責(zé)任制度;建立國家層級的人工智能公共專利池,加速技術(shù)成果商業(yè)轉(zhuǎn)化速度與競爭優(yōu)勢等。其中也有必要對人工智能的法律人格問題做出回應(yīng)。

  總之,人工智能發(fā)展能否實現(xiàn)《人工智能全球治理上海宣言》中“賦能人類社會發(fā)展”的壯志,必須回答人工智能是否具有法律人格的重大爭議。主體制度本身是一種價值判斷,是否賦予人工智能法律人格,在根源上取決于如何平衡開發(fā)者、制造商、所有者、使用者以及第三人(受害人)等主體之間的利益關(guān)系。始終要注意的是,人工智能本質(zhì)為智慧工具,即使人工智能具有自我意志也無法改變其服務(wù)社會與自然人類發(fā)展的屬性。無論是否賦予人工智能法律人格,或者賦予人工智能何種法律人格,其目的或目標(biāo)都應(yīng)是關(guān)心與關(guān)愛自然人類及自然生態(tài)的健康發(fā)展與成長。否則,一切討論既無法律意義,也無倫理價值。

 ?。ㄗ髡撸号碚\信,系上海交通大學(xué)凱原法學(xué)院院長、教授)

標(biāo)簽 -
網(wǎng)站編輯 - 王慧 張盼 審核 - 王兆斌
010090270010000000000000011100001130202097