聊天機器人越來越成為世界各地醫(yī)療保健的一部分,但它們是否鼓勵偏見?這就是科羅拉多大學醫(yī)學院的研究人員在深入研究患者使用模擬對話的人工智能 (AI) 程序時所提出的問題。
“有時被忽視的是聊天機器人的樣子——它的化身,”研究人員在發(fā)表于《內科醫(yī)學年鑒》的一篇新論文中寫道。“當前的聊天機器人化身從不露面的衛(wèi)生系統(tǒng)徽標到卡通人物或類人漫畫不等。聊天機器人有一天可能成為患者醫(yī)生的數(shù)字化版本,具有該醫(yī)生的肖像和聲音。聊天機器人化身遠非無害的設計決定,而是提出了新的道德規(guī)范關于助推和偏見的問題。”
這篇題為“不僅僅是一張漂亮的臉蛋?聊天機器人中的輕推和偏見”的論文挑戰(zhàn)研究人員和醫(yī)療保健專業(yè)人員通過健康公平的視角仔細檢查聊天機器人,并調查該技術是否真正改善了患者的治療效果。
2021 年,Greenwall 基金會授予 CU Division of General Internal Medicine 副教授 Matthew DeCamp 醫(yī)學博士和他在 CU 醫(yī)學院的研究人員團隊研究圍繞聊天機器人的倫理問題。研究團隊還包括醫(yī)學博士、MBA 醫(yī)學博士 Annie Moore 教授、Joyce 和 Dick Brown 捐贈的患者體驗同情教授、即將入學的醫(yī)學生 Marlee Akerson 以及 UCHealth 體驗和創(chuàng)新經理 Matt Andazola。
“如果聊天機器人是患者對醫(yī)療保健系統(tǒng)的所謂‘第一次接觸’,我們真的需要了解他們的體驗以及對信任和同情心的影響,”摩爾說。
到目前為止,該團隊已經調查了 300 多人并采訪了另外 30 人,了解他們與醫(yī)療保健相關的聊天機器人的互動情況。對于領導調查工作的 Akerson 來說,這是她第一次接觸生物倫理學研究。
“我很高興我有機會在生物倫理學和人文科學中心工作,更讓我興奮的是我可以在CU讀醫(yī)的同時繼續(xù)這項工作,”她說。
標簽:
免責聲明:本文由用戶上傳,如有侵權請聯(lián)系刪除!