人工智能应用程序以人为本的设计
随着人工智能 (AI) 越来越多地嵌入到软件产品中,人工智能应用中对以人为本的设计 (HCD) 的需求从未如此强烈。虽然人工智能带来了自动化、智能和个性化,但它也给用户体验带来了复杂性、不透明性和不可预测性。以人为本的设计是一种将人而不是技术置于产品开发核心的设计理念。当应用于人工智能时,HCD 可确保系统可理解、值得信赖、具有包容性并与人类目标保持一致。本研究探讨了如何将以人为本的设计原则应用于人工智能应用,将同理心与算法能力相结合,创建有效且合乎道德地为用户服务的界面。
什么是以人为本的设计?
以人为本的设计是一种迭代设计方法,强调在整个设计和开发过程中理解用户的需求、行为和环境。它鼓励跨职能协作、与真实用户进行测试以及对反馈的响应。当应用于人工智能时,HCD 变得至关重要,因为它解决了智能系统的技术和道德维度。
为什么人工智能需要以人为本的设计
人工智能应用程序通常涉及用户可能无法完全理解或控制的自主行为、预测建模和自适应界面功能。如果没有 HCD,人工智能将面临以下风险:
-
令人困惑:
用户很难理解为什么人工智能会以某种方式表现。
-
不值得信赖:
错误或意外结果会削弱信心。
-
有偏见:
如果没有多样化的测试,模型可能会延续不平等。
-
剥夺权力:
过度自动化可能会消除重要的人力机构。
HCD 确保人工智能仍然是增强人类能力的工具,而不是取代或削弱人类能力。
以人为本的人工智能设计的关键原则
1.从人类需求开始,而不是算法
与其从人工智能能做什么开始,不如从用户需要什么开始。通过用户研究来解决问题,而不是通过数据可用性或技术新颖性。使用人种学研究、情境访谈和旅程地图等方法来发现现实世界的痛点。
2. 透明度和可解释性设计
人工智能系统通常充当黑匣子。以人为本的设计要求系统如何工作清晰。提供解释、置信度指标以及预测或决策的推理。这不仅提高了可用性,还建立了用户信任。
3. 增强用户控制和反馈能力
用户必须感觉自己处于掌控之中。提供撤消选项、调整自动化级别的滑块以及覆盖或纠正 AI 输出的机制。让用户提供反馈,以帮助模型随着时间的推移进行学习和改进。
4. 构建包容性和可访问性
人工智能系统必须针对不同的用户群体进行设计。测试不同的人口统计、能力和文化背景。确保有视觉、听觉、运动或认知障碍的用户可以访问界面。包容性设计还意味着认识到不同的用户对于人工智能的工作方式可能有不同的心理模型。
5. 通过一致性和清晰度进行信任设计
确保人工智能行为是可预测的。预先沟通系统限制。避免夸大能力。通过一致的 UI 模式、语言和视觉提示强化值得信赖的行为。
6. 为故障状态和边缘情况制定计划
以人为本的人工智能预计会失败。始终提供有意义的错误消息、手动控制的后备措施以及清晰的升级路径。当置信度较低时使用优雅降级,并在结果可能不可靠时提醒用户。
以人为本的人工智能设计流程
将 HCD 应用于人工智能应用涉及到使熟悉的设计流程适应智能行为的复杂性。建议的方法包括:
1. 发现
-
进行用户研究以确定人类需求
-
绘制用户旅程并确定人工智能可以提供帮助的决策点
-
调查用户对自动化和人工智能的态度
2. 定义
-
使技术可行性与人类愿望保持一致
-
围绕透明度、控制和反馈制定清晰的设计原则
-
根据用户目标和隐私期望制定数据要求
3. 设计
-
创建人工智能行为的原型(例如推荐、预测、生成)
-
使用微观文案解释置信度、不确定性或模型推理
-
设计支持用户覆盖、更正和逐步自动化的界面
4. 开发
-
与人工智能工程师合作,将设计原则嵌入模型架构中
-
确保模型接受包容性和代表性数据的训练
-
开发用于监控性能、公平性和用户信任指标的仪表板
5. 测试和迭代
-
与不同的参与者进行可用性测试
-
使用参与式设计会议来完善 AI 反馈和 UI 选择
-
监控真实世界的使用数据以识别混乱、摩擦或不信任
人工智能应用中常见的用户体验模式
1. 自信表现
显示 AI 对结果的确定性(�90% 置信度�、�低确定性�)。使用阴影条、标签或颜色代码等视觉提示来清楚地传达这一点。
2.�为什么会出现这个结果?�友情链接
为建议或预测提供可扩展的解释。例如,�推荐这篇文章是因为您阅读了有关气候变化的类似内容。�
3. 可编辑的输出
对于生成式人工智能(例如人工智能写作助手),允许用户编辑、重新生成或拒绝结果。提供多个版本并允许用户提供质量反馈。
4. 可切换的自主权
让用户在手动、辅助和全自动模式之间进行选择。示例:日历安排人工智能,允许拖放编辑或全自动安排。
5. 视觉模型反馈
对于图像分类或对象检测,使用边界框、热图或叠加层来显示 AI 关注的内容。这使得解释更加直观。
以人为本的人工智能的伦理设计
人工智能的 HCD 也必须有道德基础。考虑以下几点:
-
公平性:
测试对不同用户组的偏见和不同影响
-
隐私:
仅收集您需要的数据并解释您需要它的原因
-
透明度:
清楚地标记人工智能生成的内容和决策
-
责任:
当人工智能出错时定义谁负责
这些原则超越了可用性,它们确保人工智能系统符合社会价值观并保护人类尊严。
案例研究:Google 人工智能驱动的智能撰写
Gmail 中的智能撰写会在您键入时建议句子补全。它通过以下方式展示 HCD:
-
为人工智能生成的建议提供微妙的视觉提示(灰色文本)
-
允许通过按键轻松接受或拒绝
-
从用户行为中学习以个性化未来的建议
-
通过选择加入设置尊重隐私和用户控制
通过在尊重用户自主权的同时提供不显眼的帮助,Smart Compose 体现了以人为本的人工智能设计。
衡量以人为本的人工智能的成功
除了典型指标(转化率、参与度)之外,还可以衡量:
-
用户信任:
用户是否愿意依赖人工智能?
-
理解:
用户了解人工智能是如何工作的吗?
-
控制:
用户是否可以覆盖、更正或选择退出自动化?
-
公平感:
用户是否觉得系统平等对待他们?
结合使用调查、行为分析和定性反馈来评估这些维度。
清单:人工智能应用程序以人为本的设计
-
您是否对人工智能的用户需求和担忧进行过研究?
-
用户能否理解、质疑或纠正人工智能决策?
-
人工智能的目的、范围和逻辑是否清晰传达?
-
该系统是否具有包容性并且可供所有用户使用?
-
您是否正在测试意外偏差和边缘情况?
-
设计中是否嵌入了隐私、道德和同意?
结论
以人为本的设计不仅仅是一种理念,也是人工智能产品开发的必要条件。通过关注人类的真实需求,在互动中建立透明度和控制力,以及包容性和信任的设计,我们可以确保人工智能仍然是赋权的力量。随着智能系统能力的增强,HCD 确保技术始终是人类的合作伙伴而不是替代品。人工智能的未来不仅仅是智能,更是智能。这是关于同理心、责任和以用户为中心的创新。