生成式人工智能工具,如 ChatGPT(一种人工智能驱动的语言工具)和 Midjourney(一种人工智能驱动的图像生成器),可以为各种残疾人士提供潜
生成式人工智能工具,如 ChatGPT(一种人工智能驱动的语言工具)和 Midjourney(一种人工智能驱动的图像生成器),可以为各种残疾人士提供潜在帮助。这些工具可以总结内容、撰写消息或描述图像。然而,这种潜力的程度是一个悬而未决的问题,因为除了经常出现错误和基本推理失败之外,这些工具还可能使能力主义偏见永久化。
今年,华盛顿大学的七名研究人员利用他们自己作为残疾人和非残疾人的经历进行了为期三个月的自民族志研究,以测试人工智能工具的可访问性实用性。尽管研究人员发现这些工具很有用,但他们也发现人工智能工具在大多数用例中都存在重大问题,无论是生成图像、编写 Slack 消息、总结写作还是试图提高文档的可访问性。
该团队于 10 月 22 日在纽约举行的ASSETS 2023会议上公布了其研究结果。
“当技术快速变化时,残疾人总是有被抛在后面的风险,”资深作者、华盛顿大学保罗·G·艾伦计算机科学与工程学院教授Jennifer Mankoff说。“我非常相信第一人称视角能够帮助我们理解事物的价值。因为我们团队中有很多人可以像残疾人一样体验人工智能,并了解哪些有效、哪些无效,所以我们认为我们有一个独特的机会来讲述一个故事并了解这一点。”
该小组以七个小片段的形式展示了其研究成果,通常将经验合并到单个账户中以保持匿名。例如,在第一个帐户中,患有间歇性脑雾的“Mia”部署了总结 PDF 的 ChatPDF.com 来帮助工作。虽然该工具有时是准确的,但它经常给出“完全错误的答案”。在一个案例中,该工具既不准确,又存在体能歧视,将一篇论文的论点改变为听起来研究人员应该与护理人员交谈,而不是与慢性病患者交谈。“米娅”能够捕捉到这一点,因为研究人员非常了解这篇论文,但曼科夫表示,这种微妙的错误是使用人工智能的一些“最阴险”的问题,因为它们很容易被忽视。
然而在同一个小插曲中,“米娅”在经历脑雾的同时,使用聊天机器人为他们正在撰写的论文创建和格式化参考文献。仍然会犯错误,但该技术在这种情况下被证明是有用的。
曼考夫曾公开谈论自己患有莱姆病,他对这篇报道做出了贡献。“使用人工智能来完成这项任务仍然需要工作,但它减轻了认知负担。通过从‘生成’任务切换到‘验证’任务,我能够避免我面临的一些可访问性问题,”曼科夫说。
研究人员选择的其他测试的结果同样好坏参半:
一位患有自闭症的作者发现人工智能有助于在工作中编写 Slack 消息,而无需花费太多时间在措辞上。同行们发现这些消息是“机械化的”,但该工具仍然让作者对这些互动感到更有信心。
三位作者尝试使用人工智能工具来提高内容的可访问性,例如研究论文的表格或课程的幻灯片。人工智能程序能够规定可访问性规则,但在创建内容时无法一致地应用它们。
图像生成人工智能工具帮助一位患有失语症(无法形象化)的作者解读书中的图像。然而,当他们使用人工智能工具创建“各种残疾的人在聚会上看起来很高兴但不是”的插图时,该程序只能让人想起聚会上人们的令人担忧的图像,其中包括残疾歧视的不协调之处,例如一只没有实体的手搁在没有实体的假腿上。
主要作者、艾伦学院的威斯康星大学博士生凯特·格拉兹科 (Kate Glazko)表示:“根据任务的不同,结果和结果的差异如此之大,令我感到惊讶。” “在某些情况下,例如创建一张残疾人看起来很高兴的照片,即使有特定的提示 -你能做到这一点吗?——结果没有达到作者想要的效果。”
研究人员指出,需要做更多的工作来找到研究揭示的问题的解决方案。一个特别复杂的问题涉及为残疾人开发新的方法来验证人工智能工具的产品,因为在许多情况下,当人工智能用于可访问性时,源文档或人工智能生成的结果都无法访问。这发生在 ChatPDF 给“Mia”的能力主义摘要中,而法定失明的“Jay”使用人工智能工具生成数据可视化代码。他本人无法验证结果,但一位同事表示“根本没有任何意义”。曼科夫说,人工智能引起的错误的频率“使得对可访问验证的研究变得尤为重要。”
曼考夫还计划研究方法来记录人工智能生成的内容中存在的能力歧视和不可访问性,并调查其他领域的问题,例如人工智能编写的代码。
Glazko 说:“每当软件工程实践发生变化时,如果没有良好的默认设置,应用程序和网站就会面临变得难以访问的风险。” “例如,如果默认情况下可以访问人工智能生成的代码,这可以帮助开发人员了解并提高其应用程序和网站的可访问性。”
声明本站所有作品图文均由用户自行上传分享,仅供网友学习交流。若您的权利被侵害,请联系我们