“AI+醫療”:便捷與去九宮格會議風險并存_中國網


醫院上線AI系統輔助問診陪診 線上平臺“AI開處方”或越界

早上8點,四川省綿陽市游仙區忠興鎮興合村村醫宋文卓來到衛生室,第一件事就是打開電腦登錄AI(人工智能)輔助診療系統,這是他近段時間養成的一個新習慣。

“宋醫生,我心跳有點快,感覺上不來氣,偶爾還會咳嗽幾聲。”衛生室剛開門,年近九旬的村民涂婆婆便在老伴的陪同下前來看診。宋文卓一邊詢問癥狀,一邊將病情輸入系統,然后點擊AI輔診按鈕,系統迅速與擁有海量多發病、常見病等病例的國家核心知識庫對接,通過提取和分析患者的歷史病歷信息,給出“急性上呼吸道感染”等診斷建議。宋文卓結合自己的臨床經驗進行綜合評估,最終確定涂婆婆是急性上呼吸道感染。

隨后,系統根據醫生的選擇,給出了推薦用藥,列出推薦依瑜伽教室據、檢查建議等。宋文卓參考選定治療藥物,讓老人先吃藥觀察。

在宋文卓看來,AI輔診系統的應用,不僅提高了診斷的準確性和效率,還能幫助醫生更好地應對復雜病例,降低誤診漏診風險,看病用藥也更加安全放心。

AI輔助診療系統在綿陽市游仙區基層醫療機構的應用,是我國推進“AI+醫療”的一個生動縮影。《“十四五”醫療裝備產業發展規劃》明確提出加快智能醫療裝備發展;《關于進一步完善醫療衛生服務體系的意見》提出發展“互聯網+醫療健康”,加快推進互聯網、人工智能等在醫療衛生領九宮格域中的應用……近年來,我國不斷加強頂層設計,推進“AI+醫療”的發展。

多名業內人士和九宮格專家在接受《法治日報》記者采訪時指出,醫療領域已經成為探索AI應用的重要場所,目前在一些醫院主要應用于分導診、預問診、病歷生成等場景,助力患者就醫更加便捷,提升了醫療服務質量,未來AI輔助診療將會成為一種趨勢,但也需要警惕背后隱藏的法律風險,這些風險不僅涉及患者個人隱私保護,還關系到算法透明度和公平性等問題。

多地上線AI輔診

提升患者就診體驗

近日,記者來到北京大學人民醫院進行甲狀腺和瘢痕檢查,檢查項目包括B超、血液檢查等。繳費完成后,醫生提醒可在系統預約檢查時間。記者打開手機,像“自助值機”一樣,在可選時間段,把檢查項目約在相對集中的時間,這樣就可以“一次跑完”,在最短的時間內完成所有檢查,避免了因現場排隊改約和檢查時間不同而帶來的反復奔波。

這只是AI輔助醫療的一個縮影。記者梳理公開資料發現,“AI+醫療”目前已在多個醫院落地。

在華中科技大學同濟醫學院附屬協和醫院,如果患者不知道掛哪個科室,AI可以來幫忙。

該院今年5月推出了“AI智慧門診”,涵蓋智能分導診、智能加號等功能。以彼時的“智能加號”功能為例:患者可點擊“掛號服務”“在線掛號”,進入需要預約的科室,如果選擇的專家號“滿診”,則可點擊下方的“申請加號”,在跳轉頁面選擇該專家的加號日期。確定免費預約后,AI會自動發起對話,詢問病情等相關情況,然后生成“病情卡片”,再綜合評估病情嚴重程度,判斷加號資格,最后發送給專家確定是否通過。

此外,該院還推出“智能候診室”功能。患者掛號后,由“醫生數字人”與患者先進行溝通,提前了解患者癥狀、病程等,為醫生面診做準備。

在浙江省人民醫院,數字健康人“安診兒”可以陪伴患者就診。

據了解,“安診兒”可以為患者提供覆蓋就醫前、中、后的AI陪診服務。診前,患者可以向其描述自己的癥狀,“安診兒”根據癥狀為患者匹配科室和醫生,幫助患者預約掛號;診中,“安診兒”可合理安排就診流程,全程提供AR智能導航,還可以讓患者在線上直接取號,并提供叫號提醒,甚至能在支付寶上完成醫保繳費,節約患者的就醫時間;診后,患者離開醫院,其還會繼續提供電子病歷、處方和報告查詢等服務。

在北京友誼醫院,AI能幫醫生寫病歷。

今年5月,云知聲門診病歷生成系統在北京友誼醫院應用。該系統能在復雜的醫院環境中識別醫患對話,精準捕捉關鍵信息,分離醫患角色,并從中剔除與病情無關的內容,生成專業術語表達的信息摘要,以及符合病歷書寫規范要求的門診電子病歷。數據顯示,在門診病歷生成系統的幫助下,北京友誼醫院相關科室門診病例錄入效率大幅提升,醫生問診時間大幅縮短。

法律風險不容忽視

警惕算法歧視問題

多名受訪的業內人士指出,人工智能在醫療領域的廣泛應用,能為患者提供更便捷的服務,提高了醫療服務的效率和精準度,讓優質醫療資源更普惠,但其背后的法律風險也不容忽視。

在山西大學法學院講師陳川看來,傳統醫療診斷過程強調醫生對患者人格尊嚴和自主權的尊重與保護,醫生在作出醫療決策時,需綜合考慮患者的既往病史和當前癥狀,并依照相關法律法規與倫理規范,制定適宜的治療方案。然而,醫療人工智能存在“自動化偏見”風險,即醫生在診斷過程中可能會過度依賴人工智能技術,從而忽略自身專業判斷和對患者個體需求的考慮。這種過度依賴可能導致醫生將困難的醫療決策不恰當地交給人工智能處理。當醫生過度依賴人工智能時,患者的治療決策可能被剝奪,轉而交由機器進行處理,導致患者失去對自身健康管理的自主權。

此外,算法透明度不足和算法歧視問題也不容忽視。“雖然2023年7月國家網信辦聯合國家發展改革委等部門公布的《生成式人工智能服務管理暫行辦法》提出了算法透明性要求,但在具體實施過程中,算法的實際工作原理和決策過程往往難以被外界理解和監督。由于算法透明度不足,患者無法了解醫療人工智能是如何得出診斷結論的,導致其知情權和選擇權無法得到充分保障,可能會侵犯患者的知情同意權和自主決定權。”陳川說。

她提出,算法歧視問題還會導致不同地區在醫療資源上的不平等現象。不同開發者在訓練算法時可能無意間引入偏見,導致生成式人工智能在面對不同群體患者時作出歧視性決策。例如,某些醫療人工智能系統在篩查病人時時租空間,診斷結果不準確或存在系統性低估。再比如,算法模型的訓練數據如果主要來自某些特定群體,可能會導致其面對特殊群體時產生偏見。

陳川認為,目前,人工智能在醫療領域的應用仍處于探索階段,易因誤診、數據泄露等行為引發問責和歸責問題。我國民法典規定醫療損害責任適用過錯責任原則,也考慮到醫療器械所致損害的責任承擔問題。但人工智能能夠獨立生成醫療診斷結果或建議,因此在現行法律框架下,對醫療人工智能應用的追責十分復雜,傳統的責任形式難以簡單套用到醫療人工智能上。

線上購藥本末倒置

審核環節形同虛設

除了“AI+醫療”作為一種新興模式在實際應用過程中可能存在一定法律風險外,一些線上醫療問診、線上購藥平臺在引入AI輔助后,雖然給患者帶來便捷,但也暴露出不少問題。

記者在調查中發現,一些互聯網醫療平臺采用“先選購藥品,再因藥配方,甚至由人工智能軟件自動生成處方”這樣本末倒置的小班教學操作方式。

記者前不久在某購藥平臺下單處方藥骨化三醇軟膠囊后,平臺提示“請選擇線下已確診疾病”。記者在“疾病欄”隨機勾選了幾項,“處方/病歷/檢查報告欄”空著,并確認“已確診此疾病并使用過該藥,且無過敏史、無相關禁忌證和不良反應”,很快便通過了驗證,提交清單后,系統跳至問診版塊。

緊接著,有“醫師”接診,連續發來數條信息,其中第一條強調“互聯網醫院只對復診用戶提供醫療服務”,后續幾條信息均為確認有無過敏史或處于特殊時期。在記者沒有回復的情況下,對方就發來一張處方單和購買鏈接。

北京市民楊木(化名)也有過類似經歷,他懷疑屏幕背后接診的不是真的執業醫師:“在××平臺購買處方藥時,感覺對方跟機器人沒有差別,只要打字過去,對方就會在幾秒鐘內迅速同意,根本沒有給出任何專業意見。”有一次,他故意描述一些不是欲購藥品適應病癥的情況,結果對方仍然很快開了處方。

多名業內人士認為,“隔空”診療并不適合所有患者,常見病、慢性病的復診,是較長時間以來互聯網診療的定位。不過,對于何為復診,業內一直缺少具體標準,導致出現一些監管真空。

“假如是正規互聯網醫院,有執業資格的醫生開具的電子處方,應該有醫生的簽名、互聯網醫院電子章。不排除有些小型互聯網醫療平臺存在用人工智能、機器人等工具自動生成處方,一些大平臺會用AI等來輔助醫生問診,比如問病人幾歲、哪里不舒服等,但是處方必須要求醫生來開。”北京某三甲醫院一劉姓醫生說。

他還注意到,不少平臺為謀取利益,采用“AI開處方,客戶直接取藥”的模式,處方開具、審核環節形同虛設,要么直接跳過開具處方這一流程,要么對用戶上傳的處方并不實際審核,這類行為嚴重違反了我國藥品管理制度,也給患者用藥安全埋下風險隱患。

在線上健康平臺咨詢問診會不會泄露個人信息,也是多名受訪患者提出的疑問。

有一次,楊木的后背上起了不少紅疹子,便在某健康平臺進行問診,結果沒過幾天,他就陸續接到多個廣告電話和短信,有詢問是否需要植發的、有推銷護膚產品的,甚至還有借貸公司打來的推銷電話。

“問診時,平臺采集的個人信息和健康情況能不能保存好,這些信息會不會流向第三方?”楊木很是擔心。

此前,工信部曾通報過多個互聯網醫療App在個人信息收集及使用方面存在嚴重問題,包括超范圍采集個人隱私信息、未經本人同意向他人提供個人信息、收集與醫療服務無關的個人信息等。

“與其他類型App相比,醫療類App泄露個人信息可能會導致更嚴重的法律問題。如果個人健康信息被泄露,不法分子可能利用這些信息實施精準詐騙,比如利用‘病急亂投醫’的心理向患者非法售賣或推廣藥品。”前述劉醫生說。

完善相關法律框架

切實保障患者權益

受訪專家指出,為了有效應對“AI+醫療”在實際應用中潛在的法律風險,需要從法律和政策兩個層面進行系統化完善。只有建立健全法律框架和監管機制,明確醫療大模型的責任歸屬和數據使用規范,才能在推動醫療人工智能發展的同時,切實保障患者的合法權益。

“首先要建立完善醫療人工智能法律框架。目前,《生成式人工智能服務管理暫行辦法》未涉及醫療領域人工智能規定,需要在其基礎上結合醫療領域的特點制定相關法律法規,突出強調醫療人工智能的輔助作用。”陳川說,為了幫助醫療工作人員、患者更好地使用人工智能系統、了解人工智能得出診斷結果的運行機制,我國可以配套制定醫療人工智能使用指南,以增強醫療人工智能系統及其結果的可解釋性;還需完善其他法律規定,數據安全法、《涉及人的生命科學和醫學研究倫理審查辦法》等為制定醫療人工智能管理辦法提供了基礎,應依據人工智能發展現狀出臺適用醫療人工智能的管理辦法。

陳川還提到,強化醫療人工智能算法監管刻不容緩。一方面,為確保醫療人工智能的安全性和可靠性,應成立算法審查專門機構,對醫療人工智能進行嚴格的安全性、透明性、倫理性審查;另一方面,基于數據的動態性和人工智能技術的不斷迭代升級,應要求研發者提前研判算法應用過程中產生的安全風險并提出針對性應對措施,在算法生命周期內定期開展算法風險監測工作,針對算法的數據使用、應用場景、影響效果等進行自我安全評估。此外,可開啟公眾監督舉報、監管部門巡查等多種措施。

北京中醫藥大學法律系教授鄧勇也認為,隨著醫療大模型的發展,這一產業合規運營與監管顯得越發重要,需要確定自身的產品定位并獲取對應的資質,避免無資質開展相應活動。“合規方面,首要應當確定自身的產品定位,如屬于互聯網診療產品的,需要聯系或建立對應的實體醫療機構并申請設置相應的互聯網醫院,并在醫師資源、病歷管理、藥品配送、處方開具上滿足相應要求,如僅作健康管理,不涉及診療活動的,必須明確自身產品不具有‘醫療目的’,僅‘預期用于健康管理、目標人群為健康人群、記錄統計健康信息’用。”

他提出,還應當采取數據清洗等方式確保去除公開數據中的違法和不良信息及個人信息,保證訓練數據合法合規。醫療大模型收集用戶數據的要求,需要遵循合法、正當、必要的原則,不收集與所提供服務無關的個人信息。

“醫療大模型收集用戶數據的紅線行為包括:未公開收集使用規則;未明示收集使用個人信息的目的、方式和范圍;未經用戶同意收集使用個人信息;違反必要原則,收集與其提供的服務無關的個人信息;未經同意向他人提供個人信息;未按法律規定提供刪除或更正個人信息功能或未公布投訴、舉報方式等信息。”鄧勇說,收集互聯網公九宮格開數據時,為確保其合法合規,還需要履行告知同意程序、匿名化程序、提供拒絕渠道等操作。此外,應當注重數據標注機制,通過標注防止生成色情暴力、歧視性信息等違法和不良內容,實現內容安全。

針對線上醫療問診暴露出的問題,陳川認為,亟須明確人工智能的法律責任,建立科學合理的責任分配機制,強化醫務人員的主體責任,明確AI處于輔助性地位,細化各領域參與者的責任,不能將醫療診斷徹底交給AI,應遵循“事前預防—事中監控—事后問責”的原則。“醫務人員在行醫過程中須履行注意義務,即醫務人員須注意識別和鑒定AI診斷結果,否則應當承擔責任。”(文麗娟 實習生 張廣龍)


發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *