人类行为建模-认知方法和不确定性二
概论
未来人类和人工智能一起工作,相互理解,彼此预测行为和意图。
以人为中心的人工智能(HCAI)是这个远景的主要因素。
人工智能将需要在上下文中解释人类行为,以便更好地与用户互动,理解他们的行为,预测他们的选择,并最终在人类直接执行的行为和授权给人工智能的行为之间进行协调。
目前研究方法,复制神经通路,试图复制支持推理的神经物理过程
应用领域和相关示例
1.驾驶员预测与自动驾驶
2.游戏与教学中的人工智能
3.基于Agent的建模
有限理性与认知局限
认知启发法
概念
有限理性描述了人类在决策者认知局限的约束下做出理性选择的概念[6,109,117]。这些限制反映了人类计算能力/能力和知识的假设限制或缺陷
人们会为了效率而牺牲解决方案的精确性或最优性
人类根据问题的背景和认知系统的局限性使用两种推理系统。假设两个层次以不同的速度、保真度、认知成本等处理问题。这些区别基于这样一种信念:当次优解决方案的代价很小,或者当达到更高精度解决方案的时间或认知负担太大时,人类倾向于使用成本较低的推理系统
案例:
满足感:使用足够的选项,而不是最佳选项
影响:基于直觉或“直觉”做出决定
模拟:根据想象结果的容易程度来估计结果的可能性
可用性:根据对类似过去事件的回忆强度来估计未来事件的可能性
表示:当你注意到X在某种程度上与Y相似时,假设X与Y相同。”
联想:基于单词联想和记忆、意义,或它们引发的印象•乐观偏见:在危险情况下低估自身风险、高估自身控制能力的倾向
事后偏见:将成功事件视为自己的决定,而将失败视为运气不佳或他人的决定损失和风险厌恶:通过维持现状来避免风险和损失
要么全有,要么全无:通过将遥远的可能性视为甚至不可能来简化决策
认知/生物学上合理的表述
为了实现通用人工智能(即达到人类水平的智能),已经有许多方法受到认知机制的启发,使人类能够观察到智能
学习方法。认知架构中的学习可以通过多种方式进行,包括:陈述式、程序式、联想式等
最近的研究调查了认知启发表征和RL主题之间的密切关系
注意力
解释
人类和其他生物并不能处理所有可用的感知信息。相反,他们利用认知和行为系统,通过对信息的客观或主观选择,降低感知的复杂性。这种选择性或偏见被称为注意力,一个基本的解释是,我们的环境提供的刺激超过了我们对环境的合理处理速度,这一事实证明了生物对注意力的需求是合理的
自-注意力机制
博弈论
博弈论关注的是当环境涉及一群个体时,选择的相互依赖性
不确定性和非理性
量子表示法
陈述和理解中的偏见和公平
偏见人类表现出多种形式和来源的偏见。在一种情况下,人类可以证明对数据、概率、信心等的解释存在偏差
偏见的另一个方面可能是注意力不集中
模型算法的公平性
结论
本文完成了对以人为中心的人工智能系统中人类行为建模方法的调查,补充了中涉及的领域。总的来说,人类行为建模被视为未来自治和自适应系统的基石,它可以释放人类和协同工作的人工智能代理之间的完全集成
我们相信,在未来几年里,这一领域将成为最活跃的领域之一,跨越自治和自适应系统、普适环境和高级人工智能代理。
信息集聚地