AI背责的问题涉及到道德和法律责任,目前,AI通常被视为一种工具,其责任归属于开发和使用这些工具的人。
随着AI技术的发展,这个问题可能会变得更加复杂、更突出,这些问题也不是AI可以背责的,这是因为:
-
随着AI系统变得更加智能和自主,很难判断某个决定或行为是AI自主做出的,还是在设计者的控制之下,这使得追究责任变得困难。
-
如果将所有责任都推到AI系统上,也不公平,因为AI的行为还是受到人类设计者、训练数据、感知数据等因素的影响。
下面是一些会变得更复杂的问题。
隐私泄漏
AI技术在处理个人数据时需要遵循隐私保护原则。未来,AI可能会受到更严格的法规限制,以确保数据被合理使用,遵守用户隐私权。
图:一名女子在地铁内拍摄了一张自己的照片,并将其上传到社交媒体上。然而,令人震惊的是,在不久后,这张照片被一些不明身份的人通过某种AI技术“一键脱衣”,呈现出了女子的裸体照片。
武器化AI
很多人担心AI在军事和武器方面的应用,尤其是自主武器(例如无人机和机器人),未来在这方面,AI可能会受到很多限制。
图:流浪地球2 失控的无人机蜂群
生死攸关的决定
AI不应参与涉及生命和死亡决策的过程,因为AI缺乏人类所具有的道德和情感能力。
比如:AI不应决定患者是否接受特定治疗或什么时候停止生命维持。
图:急诊抢救
涉及高风险的决定
比如:控制重要基础设施,如果出现故障或错误,后果可能极为严重。
这样场景下,辅助决策是可以的,但是决定是不能的。
图:流浪地球2 太空电梯坠落
歧视与偏见
AI算法可能会放大现有的社会不平等和偏见。未来,AI在决策过程中可能需要遵循更严格的道德和法律准则,以确保其不会加剧社会分化和歧视。
这些影响公共政策或资源分配的决定。需要广泛征集不同阶层和群体的意见,AI是难以胜任的。
图:COMPAS 是一种在美国广泛使用的算法,通过预测罪犯再次犯罪的可能性来指导判刑,而这个算法或许是最臭名昭著的人工智能偏见。根据美国新闻机构 ProPublica 在 2016 年 5 月的报道,COMPAS 算法存在明显的「偏见」。根据分析, 该系统预测的黑人被告再次犯罪的风险要远远高于白人,甚至达到了后者的两倍。
AI背不了责,但是又想用,那该如何办?
一个简单的类比就是我们看看现代公司的领导是如何管理员工的?
合理授权、把握大方向、定时Review及复盘。
这些是典型的管理套路。
对应的AI时代,就会有AI协助做上面工作,类似有干活的AI和监工的AI做对抗。
AI时代,监理和工人都是AI,显然不需要上面的比率。
软件研发领域,这个监控的AI有点类似架构师的角色,这是因为架构师的核心职责之一就是负责打通管理层和底层开发者通道,如果把一个企业比喻成一个电梯,架构师就是不断乘坐电梯在底层开发者和高层管理者反复穿梭的人,架构师通过专业技能将高层经营战略转为技术语言指导开发工程师,反过来向管理者传达和解释技术。架构师承担呈上起下的角色,我称之为架构师电梯。
图:软件架构电梯
总结
AI背不了责,需要人来背责,这样人就需要能把控AI。
如何把控?就是要抓大放小,把握大方向,关键点Review。
这些都必须借助另外的AI,这样干活的AI和监工的AI就会不断对抗,不断演进,道高一尺,魔高一丈,互相促进,不断进步。