对于科幻作家阿西莫夫上世纪设计、防止机器人失控的著名“机器人三定律”,业界早已认识到其局限性。“机器人三定律,历史上看贡献很大,但现在停留在三定律上,已远远不够。”专家近日接受记者采访时这样说。
新局面,呼吁伦理新原则
科学家先前一直希望以最简单的办法,确保以机器人为代表的人工智能不给人类带来任何威胁。“机器人三定律”规定:机器人不能伤害人类;它们必须服从于人类;它们必须保护自己。后来还加入了“第零定律”:机器人不得伤害人类整体,不得因不作为使人类整体受到伤害。
“机器人不能伤害人,但机器人会以什么方式伤害到人?这种伤害有多大?伤害可能以什么形式出现?什么时候可能发生?怎样避免?这些问题在今天要么需要细化,要么需要有更具体的原则来防范,而不能停留在七八十年前的认识水平。”中国人工智能学会AI伦理专业委员会负责人、中国科学技术大学机器人实验室主任陈小平教授说。
全球知名的艾伦人工智能研究所首席执行官埃齐奥尼两年前就在一次演讲中呼吁更新“机器人三定律”。他还提出,人工智能系统必须遵守适用于其操作人员的所有法律条文;人工智能系统必须明确表示它不是人类;未经信息来源明确许可,人工智能系统不能保留或披露机密信息等。在当时,这些颇有新意的意见引发业界热议。
美国人工智能伦理领域知名学者、麻省理工学院教授泰格马克近年推广的“AI有益运动”提出,需有新伦理原则确保未来人工智能和人类的目标一致。这项活动曾获得霍金等众多全球顶级科学家以及知名IT企业支持。
“人工智能在乘数效应的推动下会变得越来越强大,留给人类试错的空间将越来越小。”泰格马克说。
人为本,全球探路新伦理
当前全球对人工智能新伦理的研究日趋活跃。不少人对人工智能心存芥蒂,多半来自其高速发展带来的未知性,“保护人类”成为首当其冲的关切。
“必须确保人工智能以人为本的发展方向。”阿祖莱呼吁。
美国机器智能研究院奠基人尤德科夫斯基提出了“友好人工智能”的概念,认为“友善”从设计伊始就应当被注入机器的智能系统中。
新伦理原则不断提出,但突出以人为本的理念始终不变。百度公司创始人李彦宏在2018年中国国际大数据产业博览会上提出了“人工智能伦理四原则”,首要原则就是安全可控。
美国电气和电子工程师协会规定,人工智能要优先考虑对人类和自然环境的好处的最大化。
新的伦理原则制定也正提上各国政府的议事日程。
中国政府2017年7月发布《新一代人工智能发展规划》时就指出,建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力;2018年4月,欧盟委员会发布的文件《欧盟人工智能》提出,需要考虑建立适当的伦理和法律框架,以便为技术创新提供法律保障;今年2月11日,美国总统特朗普签署行政令,启动“美国人工智能倡议”,该倡议的五大重点之一便是制定与伦理有关联的人工智能治理标准。
存忧虑,跨界共商新问题
陈小平呼吁,为规避人工智能发展过程中的伦理道德风险,人工智能学术界和产业界,以及伦理、哲学、法律等社会学科各界应参与原则制定并紧密合作。
他认为,虽然从短期看还没有证据指向人工智能有重大风险,但依然存在隐私泄露、技术滥用等问题。而无人驾驶、服务类机器人的伦理原则也须尽快探讨制定。
美国电气和电子工程师协会还规定,为了解决过错问题,避免公众困惑,人工智能系统必须在程序层面具有可追责性,证明其为什么以特定方式运作。
“就长期来看,不能等到出现了严重的问题,再制定措施去防止。”陈小平认为,人工智能和其他技术的特点不一样,很多人工智能技术具有自主性。例如自主机器人在现实社会中具有物理行动能力,如果没有适当的防范措施,一旦出现严重问题,可能危害较大。
陈小平希望更多人参与人工智能伦理研究,尤其是科学家和工程师,因为恰恰他们最了解问题的根源、危险可能发生的方式、细节和相关技术进展,“他们不说,外界只能去猜,难以得出正确的判断和适当的应对措施”。
他还提醒,在防范风险的同时应该注意平衡,避免因为过度限制或使用不合适的降低风险方式造成遏制产业发展的副作用。