英国标准协会发布机器人道德标准 确保符合人类社会准则

分享到:
51
下一篇 >
知名科幻小说家Isaac Asimov曾提出机器人三大定律:不能伤害人类、**服从人类命令及保护自己。有鉴于科技快速发展,机器人已不再仅存于科幻小说中,英国标准协会(British Standards Institute;BSI)发布比机器人三大定律更复杂成熟的机器人伦理指南,以协助***评估机器人的道德风险。

根据英国卫报(The Guardian)报导,BSI在Social Robotics and AI大会上发表《机器人和机器系统的伦理设计和应用指南》(Guide to the ethical design and application of robots and robotic systems),*终目的是确保智能型机器人能符合人类社会现有的道德规范。

英国西英格兰大学(University of the West of England)机器人学教授Alan Winfield表示,这是首项有关机器人伦理设计的公开标准。

指南内容包括机器人欺骗人类、人类过度依赖机器人、机器人具超越权限的自学能力等等,都是制造商应纳入考量的危险因素。

指南一开头先列出机器人伦理的大原则,包括机器人的设计目的并非为了杀死或伤害人类、人类为负责任的主体而非机器人,以及须规定谁应为机器人的行为负责。

该指南也讨论部分更具争议性的主题,例如,人类能否对机器人产生感情,尤其是专门设计与小孩和老人互动的机器人。

英国谢菲尔德大学(University of Sheffield)机器人学教授Noel Sharkey认为,机器人并无感情,但人类有时会忘记这件事,这就是一个机器人会在无意间欺骗人类的例子。Sharkey举了个例子,*近有项研究在幼稚园放置一台小型机器人,小孩都很喜欢,甚至认为机器人比家里的宠物更聪明,这就显示出人类会对机器人产生感情。

指南建议设计者致力于透明化机器人的功能。但科学家认为,这在现实中很难执行,因为人无法确实了解人工智能(AI)系统做决定的依据。

例如,AI执行特定任务时,并非利用固定程式完成任务,而是透过数百万次学习和尝试,才找出成功的解决方法。这种学习和决策过程,有时连设计者都预想不到,也无法理解。

指南里也提到,许多深度学习系统是利用网路资料做训练,由于这些资料本身可能就存有偏见,可能导致机器人产生性别或种族歧视,甚至直接影响其技术应用。

这点亦会导致机器人未来在医疗应用上产生风险。机器人在诊断女性和少数族裔时,系统较不熟悉。例如,语音识别系统较难理解女性的声音,另外比起白种人的脸孔,脸部识别系统较难识别黑人的脸孔。

Sharkey教授表示,机器人身上应安装黑盒子记录其行为,若机器人有种族歧视问题,可立刻将其关机,停止使用。

该指南也提到,人类若长期习惯由机器人获得正确解答,就会信任它而懒得思考,但人类习惯后,不代表机器人每次提供的答案都会正确,这就是过度依赖机器人可能造成的问题,不过指南中并未提供确切可遵循的准则。

你可能感兴趣: 行业标准 机器人
无觅相关文章插件,快速提升流量