醫療自診依賴 AI 聊天機器人存風險,專家呼吁謹慎使用快訊
聊天機器人不僅使參與者更難識別相關的健康狀況,越來越多的人開始借助像 ChatGPT 這樣的人工智能聊天機器人來進行醫療自診,人們在向聊天機器人提供信息時。
IT之家 5 月 6 日消息,在醫療資源緊張、等待時間長、成本不斷攀升的背景下,越來越多的人開始借助像 ChatGPT 這樣的人工智能聊天機器人來進行醫療自診。據一項最新調查顯示,大約六分之一的美國成年人每月至少會使用一次聊天機器人獲取健康建議。
然而,過度信任聊天機器人的輸出結果可能會帶來風險。最近一項由牛津大學主導的研究指出,人們在向聊天機器人提供信息時,往往難以提供能夠獲得最佳健康建議的關鍵信息。
“研究揭示了雙向溝通的障礙。”牛津互聯網研究所研究生項目主任、該研究的共同作者亞當?馬赫迪(Adam Mahdi)在接受 TechCrunch 采訪時表示,“使用聊天機器人的人并沒有比依靠傳統方法(如在線搜索或自己的判斷)的人做出更好的決策?!?/p>
據IT之家了解,為了開展這項研究,研究人員招募了大約 1300 名英國參與者,并向他們提供了由一組醫生編寫的醫療場景。參與者需要在這些場景中識別潛在的健康狀況,并使用聊天機器人以及他們自己的方法來確定可能的行動方案(例如,去看醫生或去醫院)。
在研究中,參與者使用了為 ChatGPT 提供支持的默認人工智能模型 GPT-4o,以及 Cohere 的 Command R + 和 Meta 的 Llama 3。研究結果顯示,聊天機器人不僅使參與者更難識別相關的健康狀況,還讓他們更有可能低估自己所識別出的健康狀況的嚴重程度。
馬赫迪指出,參與者在向聊天機器人提問時常常遺漏關鍵細節,或者收到難以解讀的答案?!八麄儚牧奶鞕C器人那里得到的回答常常是好壞參半的建議。”他補充道,“目前對聊天機器人的評估方法并沒有反映出與人類用戶互動的復雜性。”
與此同時,科技公司正不斷推動將人工智能作為改善健康狀況的一種手段。據報道,蘋果正在開發一款能夠提供與運動、飲食和睡眠相關建議的人工智能工具;亞馬遜正在探索一種基于人工智能的方法,用于分析醫療數據庫中的“健康社會決定因素”;微軟則在協助構建人工智能,以對患者發送給護理提供者的消息進行初步分類。
但無論是專業人士還是患者,對于人工智能是否已準備好用于高風險健康應用都存在分歧。美國醫學協會建議醫生不要使用 ChatGPT 等聊天機器人協助臨床決策,而包括 OpenAI 在內的主要人工智能公司也警告不要根據聊天機器人的輸出結果進行診斷。
“我們建議在做出醫療決策時依賴可信的信息來源?!瘪R赫迪表示,“就像新藥物的臨床試驗一樣,在部署聊天機器人系統之前,應該先在現實世界中進行測試?!?/p>
1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。