生成式人工智能工具,如 ChatGPT(一種人工智能驅(qū)動的語言工具)和 Midjourney(一種人工智能驅(qū)動的圖像生成器),可以為各種殘疾人士提供潛在幫助。這些工具可以總結(jié)內(nèi)容、撰寫消息或描述圖像。然而,這種潛力的程度是一個懸而未決的問題,因為除了經(jīng)常出現(xiàn)錯誤和基本推理失敗之外,這些工具還可能延續(xù)能力歧視偏見。
今年,華盛頓大學(xué)的七名研究人員利用他們自己作為殘疾人和非殘疾人的經(jīng)歷進(jìn)行了為期三個月的自民族志研究,以測試人工智能工具的可訪問性實用性。盡管研究人員發(fā)現(xiàn)這些工具很有用,但他們也發(fā)現(xiàn)人工智能工具在大多數(shù)用例中都存在重大問題,無論是生成圖像、編寫 Slack 消息、總結(jié)寫作還是試圖提高文檔的可訪問性。
該團(tuán)隊于 10 月 22 日在紐約舉行 的ASSETS 2023 會議上公布了其研究結(jié)果。
“當(dāng)技術(shù)迅速變化時,殘疾人總是有被拋在后面的風(fēng)險,”資深作者、華盛頓大學(xué)保羅·G·艾倫計算機(jī)科學(xué)與工程學(xué)院教授詹妮弗·曼考夫(Jennifer Mankoff)說。“我非常相信第一人稱賬戶能夠幫助我們理解事物。因為我們團(tuán)隊中有很多人可以像殘疾人一樣體驗人工智能,并了解哪些有效,哪些無效,所以我們認(rèn)為我們有一個獨特的機(jī)會來講述一個故事并了解這一點。”
該小組以七個小片段的形式展示了其研究成果,通常將經(jīng)驗合并到單個賬戶中以保持匿名。例如,在第一個帳戶中,患有間歇性腦霧的“Mia”部署了總結(jié) PDF 的 ChatPDF.com 來幫助工作。雖然該工具有時是準(zhǔn)確的,但它經(jīng)常給出“完全錯誤的答案”。
在一個案例中,該工具既不準(zhǔn)確,又存在體能歧視,將一篇論文的論點改變?yōu)槁犉饋硌芯咳藛T應(yīng)該與護(hù)理人員交談,而不是與慢性病患者交談。“米婭”能夠捕捉到這一點,因為研究人員非常了解這篇論文,但曼科夫表示,這種微妙的錯誤是使用人工智能的一些“最陰險”的問題,因為它們很容易被忽視。
標(biāo)簽:
免責(zé)聲明:本文由用戶上傳,如有侵權(quán)請聯(lián)系刪除!