自從1956年美國計算機科學家約翰·麥卡錫在達特茅斯會議提出人工智能這一概念以來,人工智能(AI)已經發展了60多年,在此過程中歷經“三起兩落”。2016年AlphaGo戰勝李世石事件,將人們對人工智能的關注推向高潮。2017年,人工智能首次被寫入政府工作報告,同年7月,國務院印發《新一代人工智能發展規劃》,提出“人工智能的迅速發展將深刻改變人類社會生活、改變世界”“人工智能成為國際競爭的新焦點”。隨著我國互聯網、大數據、云計算等領域的快速發展,人工智能的發展時機已經成熟。預計在不久的將來,人工智能將通過交通出行、看病就醫、金融服務、教育培訓等方面,融入每個人的生活。
人工智能在發展進程中主要面臨兩個問題,即技術問題和相關的倫理與法律問題。從某種程度上來說,人工智能倫理與法律問題的重要性要超過其技術問題,就醫療領域而言更是如此。發展人工智能應該以人類社會的穩定與福祉為前提,發展醫學人工智能的目的脫離不開醫學本身,即協助醫生為人類解除病痛、恢復健康。近年來,隨著人工智能技術的突飛猛進,其在醫療領域的應用也取得了重大突破。目前,人工智能已廣泛應用于疾病的預防、診斷、治療,風險監測,健康管理,新藥開發等領域,人工智能已經在英國、美國等發達國家的各類醫療機構中全面展開應用。人工智能技術在醫療領域的應用和發展,也帶來了一系列法律問題,其中最為主要的當屬患者醫療健康數據管理問題和醫療損害責任分擔問題。
醫學AI的數據規范與隱私保護
智能移動終端和可穿戴設備收集了大量與患者相關的醫療健康數據,這些寶貴的數據資源在科研領域和商業領域都有巨大價值。但大量數據的匯聚也存在很大風險,一旦數據泄露,被不法分子利用,將會給人們的生命財產安全造成巨大損失。如何在保護患者個人隱私的同時安全合理地利用這些資源,就成為我們需要重點考慮的問題。
1996年,美國國會頒布了《健康保險攜帶和責任法案》(Health Insurance Portability And Accountability Act, HIPAA),旨在保護患者隱私信息的安全,并維護員工、客戶和利益相關方數據的完整性,明確了患者對自己的健康狀況有隱私權,建立起保護病人隱私的法律框架和法律標準,提升了整個衛生行業的標準化水平。但該法案的受用范圍有限,僅對醫療機構提出了要求,制藥企業、公共衛生機構等不受HIPAA的規制。后來根據HIPAA的授權,美國健康與人類服務部(Human And Health Service, HHS)制定了《HIPAA隱私規則》(以下簡稱《規則》),主要保護“可識別為個人身份的健康信息”(Individually Identifiable Health Information),規定了個人健康信息如何“去身份化”,以便更好地保護患者隱私。
2016年4月,歐洲議會投票通過《通用數據保護條例》(General Data Protection Regulation,GDPR),該條例保障了個人信息數據隱私,也為新技術研發過程中的數據信息處理提供了一定的標準和規范。有研究表明,GDPR對人工智能應用及發展的影響很大,它一定程度上阻礙了人工智能、數字經濟等新技術、新事物在歐盟的發展,給企業經營增加了負擔和不確定性。
英國政府在《英國政府回應上議院人工智能特別委員會關于人工智能的報告:準備,意愿和能夠?》(Government Response To House Of Lords Artificial Intelligence Select Committee’s Report On ?AI In The UK: Ready, Willing And Able?)中提出,建立和維持公眾對其數據安全使用的信任對人工智能的廣泛應用至關重要。在歐盟GDPR的影響下,英國通過了《數據保護法案2018》(Data Protection Act 2018),該法案大力支持數據在人工智能和機器學習中的安全使用,同時也包含一些必要的保障措施,確保有嚴格的規定來規范數據的自動化處理過程。
我國也高度重視數據規范使用及個人隱私保護。2015年8月,國務院印發《促進大數據發展行動綱要》,高度重視數據共享、數據安全和隱私保護。綱要明確了數據共享的范圍邊界和使用方式,厘清了數據共享的義務和權利,加強了數據安全保障和隱私保護。2016年6月,國務院辦公廳印發《關于促進和規范健康醫療大數據應用發展的指導意見》,旨在營造一個互聯融通、開放共享的良好數據環境,為數據規范化管理奠定了基礎。2018年7月,國家衛健委發布了《國家健康醫療大數據標準、安全和服務管理辦法(試行)》,該辦法規范了大數據的標準管理及安全管理。2019年11月,工業和信息化部曾開展為期兩個月的APP侵犯用戶權益專項整治行動,重點整治APP違規收集用戶個人信息、違規使用用戶個人信息等突出問題,結合企業、社會、政府多方力量規范行業管理。
人工智能醫療機器人能夠收集使用者的基因、病歷、健康狀況等重要信息,這些信息一旦泄露可能會給患者帶來巨大不便。在人工智能時代,建立行業規范以保護患者健康數據至關重要,這不僅是對個人隱私權的尊重,更是對社會整體利益的保護。然而,過于嚴苛的數據保護可能會阻礙人工智能的發展,歐盟GDPR就是一個很好的例子,那么,如何兼顧數據保護和科技發展呢?
2014年,加拿大提出了共享匿名數據不需要征得同意的聲明,其在政策聲明修正案中提到,完全依賴于二次使用不可識別信息的研究不需要征得同意。在歐盟GDPR中也提到,當一項任務“符合公眾利益”時,可以在未經本人知情同意的情況下處理個人數據。這些規定給予我們一定啟示,即在樣本量大到回顧性獲得患者同意不現實時,可以從特定數據使用的“知情同意”過渡到“廣泛同意”“選擇退出同意”或“推定同意”。
在法律上,當受到法律保護的兩種權利發生沖突時,會比較兩種權利背后要保護的法益,優先考慮法益較重的權利。當醫學人工智能的發展與應用旨在促進人類的健康與幸福時,在保證數據安全且不會對他人造成傷害的前提下,個人隱私權應當做出一定讓步,從而達到兩者之間的平衡,在不損害個人權益的前提下推動技術進步。
另外,作為互聯網法律基礎制度之一的“避風港規則”也能給我們一定啟示。建立數據集的過程中,當逐個獲取數據主體的同意成本過高或不現實時,我們可以先收集處理,在數據主體發出選擇退出同意的請求時,再將數據從數據集中清除,在尊重數據主體意愿的前提下對數據進行收集處理、研究分析,既保證患者充分行使自己的權利,又保證醫學人工智能技術的發展不受阻。
醫學AI的損害責任賠償
醫學人工智能最主要的應用體現在醫療機器人和智能醫療診斷方面。如果醫療機器人和智能醫療診斷系統在使用過程中,由于系統故障或者電力供應方面出現問題等原因做出錯誤診斷或行為從而導致醫療事故的發生,且對患者造成醫療損害時,如何判定醫療損害責任?人工智能本身是否可以承擔損害責任呢?醫學人工智能的法律主體地位是人工智能發展的終極思考問題,相關方面的討論從未停止,然而,目前人工智能的發展還處在弱人工智能階段,現在以及未來很長一段時間內,人工智能都將是從屬于人類的工具。因此,應將其當作產品來看待,損害責任的承擔者將在該產品的生產者、設計者、所有者、使用者中產生,但由于人工智能算法的不透明性和監管制度的不完善,對利益相關者進行公平公正的責任劃分存在很大困難。
如何讓人工智能在確保安全的前提下進入我們的生活呢?對于如何監管人工智能在醫學領域中的應用,有學者強調人工智能算法的透明化更利于監管,但也有反對意見指出,首先,算法程序本身具有很高的專業壁壘,大多數非專業人士讀不懂,只能依靠算法程序行業自我監督;其次,在如今人工智能深度學習的情況下,代碼編寫者可能也無法完全準確預測其結果;最后,代碼是編寫者智慧的結晶,甚至有可能是科技公司的安身立命之本,如果隨意公開,可能會引發知識產權、商業機密等一系列法律問題。另有學者建議,可以將監管前置化,把對于醫學人工智能產品的監管轉為對其生產企業的監管,為此類企業設置壁壘,讓有良好信譽的企業對其產品負責,但如此一來,很可能造成大企業壟斷的局面,小型科技公司將缺乏競爭力,不利于良好人工智能產業環境的營造。確定醫療損害賠償責任實質上是醫學人工智能的監管問題,如何科學合理地監管醫學人工智能仍然有待研究。
人工智能以人為本的倫理原則
倫理原則決定著技術的發展方向,目前人工智能相關的法律尚未出臺,需要倫理準則來規范其應用發展。在這方面,歐盟走在了世界前列,2018年4月,歐盟委員會發布政策文件《歐盟人工智能》(Artificial Intelligent For Europe),提出以人為本的人工智能發展路徑,旨在提升歐盟科研水平和產業能力,從而可以更好地應對人工智能和機器人帶來的技術、倫理、法律等方面挑戰,讓人工智能更好地服務于歐洲社會和經濟的發展。2019年4月,歐盟先后發布了兩份重要文件——《可信AI倫理指南》(Ethics Guidelines For Trustworthy AI)和《算法責任與透明治理框架》(A Governance Framework For Algorithmic Accountability And Transparency)。
中國發展研究基金會在其發布的報告《未來基石——人工智能的社會角色與倫理》中指出,要通過各界合作建立一套切實可行的指導原則,鼓勵發展以人為本的人工智能。以人為本是人工智能發展的基本倫理要求,任何一項技術的發展進步都是以促進人類社會的進步、增進人們幸福感為宗旨的,人工智能技術也不例外,必須保證它符合我們的倫理道德,且不會對人類造成傷害,這是醫學人工智能進步和發展的前提。