新聞詳情頁
民革中央網站>>稿件上傳>>團結雜志>>202006
人工智能體應具有刑事主體資格嗎     孫晶晶    2021年03月26日11:29

當人類漸次進入強人工智能時代時、享受人工智能帶來的便利時,由人工智能引發的事件也層出不窮。如據報道,2019年末,英格蘭唐卡斯特29歲護理人員丹妮·莫瑞特在做家務時,決定借助智能音箱查詢一些關於心臟的問題,但是,該智能音箱給的答案卻是:“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進你的心臟。”這被認為是一起人工智能勸人自殺的事件。此外,還有人工智能批量創作假新聞、AI換臉、自動駕駛事故,等等,諸多事情的發生,引發了人們對於人工智能發展所帶來的法律問題的思考。

  其中最重要的一個就是,該不該對人工智能體進行刑事主體立法?

  根據人工智能是否可以脫離人類設計和編制的程序自主實施行為,智能機器人可以被劃分為弱智能機器人和強智能機器人。相應的,對於人工智能所存在的刑事風險主要表現為三種:第一,會導致一些傳統犯罪的危害性發生“數量變化”﹔第二,引起新的犯罪形式﹔第三,人工智能在自主行為之下,獨立實施的嚴重危害社會的犯罪行為(孫浩,2019)。對於弱人工智能機器人所引起的法律問題,人們趨向於認為弱人工智能不具有獨立的意識,受制於一系列的設計和編程所設定的行為的影響,所引發的致人傷亡等情況的發生是由於編程的錯亂所導致的。這體現的是人類的意志而非自身的意志(劉憲權,房慧穎,2019),應該由設計者或使用者承擔相應的責任。弱人工智能產生的刑事法律考量,本文暫不做過多論述。而強人工智能時代的刑事法律問題,也即對於科學家所預言的,隨著人工智能技術的進一步發展,人工智能體可能產生獨立的意志和意識(劉憲權,房慧穎,2018),此時,是否需要賦予人工智能體獨立的犯罪主體地位,是否需要重塑刑事法律的體系?持肯定說的學者們認為,隨著科學技術的發展進步,人工智能最終會具有自我獨立意識,更多的參與到社會生活中,對人類生活產生較大的影響﹔而持否定說的學者們則認為,對於一個會不會發生存在不確定的事物進行立法上的考量,有違法律的穩定性和安定性。

  筆者認為,對人工智能進行刑事主體立法並不具備條件。

  第一,從法律主體上來看,人工智能體不具備法律主體特性。關於人工智能作為刑事犯罪主體的觀點,理論上主要有兩種:一是主體說,二是擬制人格說。

  對於“主體說”,筆者認為產生了人工智能體事實上的依附於人類的客體地位與法律上獨立人格的主體地位的偏離。法學對於法律地位相關研究往往基於主體、客體二分的思維模式展開(張力,陳鵬,2018),形成了“主-客體”二分的法學研究范式,法律主體是享有權利並承擔義務的,而受制於人類約束的智能機器人則天然的成為客體一方。雖然人工智能發展到一定程度,能夠具備獨立的自我意識,但其終究需要受制於人類的約束,人類不可能創造一個完全脫離約束的人工智能。而法律主體的“自主性”要求人能夠自主合理安排自己的生活計劃,“自律性”要求法律主體是能夠自我負責的生命主體,既然強人工智能體在事實上不能脫離人類的控制,則無法與人類處於同等的法律人格地位。

  對於“擬制人格說”,人工智能法律主體地位的擬制不同於“法人”的法律主體擬制。“法人”的確立是國家為了經濟目的做出的舉措,作為擬制人格的“法人”實施犯罪,其意志的實現是通過自然人的合意達至的,其承擔責任的基礎,是通過法人的合意機關做出決定,所實施的犯罪行為目的,是因為法人的整體利益,而非個人利益,並且承擔責任的法人具有獨立財產。而人工智能機器人與“法人”的擬制法律人格不具有同屬性。

  第二,從法律行為上看,人工智能體不具備自由意志。刑事立法上,刑法通過懲罰自由意志支配下實施了危害社會行為的行為人,以維護社會安全秩序。那麼,強人工智能是否具備自由意志?其所具備的自由意志是否是刑法所規定的自由意志?人工智能作為由人所創造的事物,通過事先進行的程序編碼,聽從程序的指令實施相應的行為,即使具有獨立意識,也應當是在程序編程范圍內進行,否則會違背人類所設計人工智能機器人的初衷。並且,機器人如若能夠基於自由意志實施犯罪行為,那何談期望其能夠在自由意志支配下接受來自人類的法律的制裁。因此,這種受制於他人意志影響的自由意志,不應作為刑事法律主體進行評價的自由意志,所以,對人工智能體進行刑事主體立法也是不需要的。

  第三,從刑罰預防功能上看,賦予人工智能刑事主體地位無必要。刑罰的特殊預防是對實施犯罪的人施加某種痛苦,使其感知到實施犯罪行為所應付出的代價,從而迫使其對自身不法行為產生符合法律價值取向的正確認知,規范其后續的行為按照法律的要求進行。對於自然人而言,刑法通過對於其人身或財產施以不利益從而促使其趨利避害,規制自己的行為﹔對於法人而言,其自由意志也是通過自然人主體做出,刑法通過剝奪其財產,使形成法人意志的各自然人通過衡量犯罪將產生的代價,進而規制自己的行為。對於人工智能體,無法通過刪除數據、修改程序、永久銷毀等方式,使其他人工智能產生恐懼心理從而合理規制自己的行為。

  此外,刑罰是剝奪犯罪人一定利益的措施,這種刑罰的不利益是社會公眾為了共同的安全所共同認可的,而人工智能體的行為以及對其施以刑罰的不利益,完全是基於人類的利益所建構的。這種不利益由人類基於其利益進行價值判斷及衡量,因而不具有刑罰的意義。

  第四,從實踐需要角度上看,人工智能主體立法過於超驗。“法律的生命在於經驗而不在於邏輯。”立法需要一定的前瞻性考量,其前瞻性的基礎在於,隨著社會發展及新事物的出現,提前對某些行為進行立法上的規制。而具有獨立意志的人工智能體這個新事物能否出現,科學上仍存在難以克服的技術問題。法律作為一種制度上層建筑,在作為經濟基礎的科學技術還未達至現實的情況下,我們必須去考慮法律過早的進行預判是否真的有其必要性。

  那麼,在現有條件下,該如何規制人工智能犯罪呢?

  人工智能體作為由人類所創造的事物,創造性的基本屬性就決定了人工智能體的客體性質,人類創造人工智能的目的不是為了創造一個與人類具有同等屬性的物種,而是基於人類生活的便利。故在反映人類文化、秩序等的法律上,不可能出現介於主體與客體之間的類別。人工智能體在法律層面隻能是主體權利指向的客體存在。刑事法律應當保持其基本的謙抑性,在現有框架之下應對“強人工智能時代”到來之際的立法挑戰。

  首先,歸責要便於刑事風險的防控。作為受制於人類設置的算法支配的人工智能體,如果在編程之外實施了法益侵害的行為,應依現有刑法體系去尋求解決之道,而非一味去強調人工智能的主體立法,破環現有理論框架。如果人類制造人工智能機器人最初設定的是“與人無害”的模式,但在后期運行過程中,人工智能基於算法的支配在編程之外實施了法益侵害的行為,這表明了人類的技術依然不成熟。人類為機器人設定的框架受到人工智能機器人的突破,此時被非難的對象應當是人類自己(冀洋,2019)。根據人工智能機器人的設計者、持有者是否具有有責性,以及期待可能性來進行刑事層面的歸責,更有利於防控風險。

  其次,可通過法律解釋、增加刑法罪名的方式規制。將人工智能體作為客體,在其超越算法及編程設定的模式之外實施的侵害行為,可以通過對現有法律進行符合時代發展以及解釋規則的方式進行解釋。在現有解釋無法函攝的情況下,可以通過完善立法,對人工智能機器人超越編程之外行為的相關責任人的過失性犯罪進行規范。對於超越人類技術之外的情況,則刑法應當保持其應有的謙抑性,通過其它法律追究相關責任人的責任。■

 (孫晶晶,蘭州大學法學院刑法學碩士研究生/責編 劉玉霞)

專題推薦

  • 民革微信公眾號

    友情鏈接

    中共中央統戰部| 全國政協辦公廳| 中央社會主義學院| 中國民主同盟| 中國民主建國會| 中國民主促進會| 中國農工民主黨|
    中國致公黨| 九三學社| 台灣民主自治同盟| 全國工商聯| 歐美同學會| 黃埔軍校同學會| 中華職教社| 新華網| 中新社|
    人民網| 團結網| 人民政協報| 中國政協新聞網| 中華工商時報| 中國網中國政協頻道| 中華南社學壇| 畢節統一戰線|