北美首页  |  新闻  |  时尚  |  大陆  |  台湾  |  美国  |  娱乐  |  体育  |  财经  |  图片  |  移民  |  微博  |  健康

六成人工智慧工程师害怕自己产品会危害世界

http://dailynews.sina.com   2019年07月10日 04:36   中国日报

 

AI 工程师与性爱机器人

 

AI 机器人苏菲亚


(综合报导)一份调查报告指出,59% 的 AI 相关工作人员,担心自己开发的产品可能对社会造成不良影响,并且每 6 个 AI 工程师就有一个为了道德因素而离职。

人工智慧将会改变人类的未来,这个潘朵拉的盒子已经无法再盖上,当我们享用著 AI 从方方面面带给我们的好处时,许多人更担心的是 AI 可能带来的坏处,更令人惊讶的是,这些不是其他人,而是催生人工智慧持续进化的开发者们。
调查报告指出,在 1,010 位科技领域员工里,AI 开发者中,高达 59% 认为他们正在开发的产品,可能会对社会有害,在其他科技业工作者中,这个比率只有 28%。并且在交叉分析后得知,有 16% 的 AI 工作者,因为良心不安而离职。
在受访者的回应中,最主要的忧虑包括:
对于人群过度的监控
缺乏安全机制
太著重科技而忽略人与人的沟通
自动化造成的失业冲击
这项科技会让社会更加分裂
商业与财务考量远胜于道德争议
有趣的是,当这些高科技工作者碰到潜在有争议性的问题时,39% 是依据自己内心的道德标准,38% 会上网搜寻相关问题,35% 选择与同事讨论,会参考公司政策与产业规范的,都不到三成。
这一部分可归因于产品非常前端,公司政策与业界标准尚未跟上,然而更大的可能是,公司政策完全没有在相关议题上,提出明确立场。因此有高达 78% 的工作者期望能够有一套相关的行为准则,甚至愿意参加工作坊来帮助他们面对这些问题,同时也期待有一套关于创新科技的框架,让他们参考。
对于所有科技公司而言,最值得注意的是,在因为担心不良后果而离职的员工中,有半数认为,公司政策与行为规范是最能够帮助他们面对这些潜在问题的解方。
换句话说,想要留住这些顶尖人才的其中一个重点,是公司自身要对创新科技的价值、行为规范提出一套明确的说法,让开发者在面临道德困境时,有所依靠。

科技工作者如同一般劳工,他们当然在意薪资、工时与工作环境,然而当 AI 与更多创新科技足以对社会产生巨大影响时,这些开发者绝不希望自己成为科幻电影中的大反派,或至少不要成帮凶。
科技公司或许可以透过树立完整的道德政策,来阐述理念并以此吸引人才,各国政府也是一样。加拿大政府已经提出一套「演算法冲击评估准则」( Algorithmic Impact Assessment, AIA),让企业、工程师与社会大众能够用来评估一项新的 AI 的可能影响。其中包含一系列问题,例如:
对于机器做出的决策,是否有人为监控机制?
当产生争议时,是否有修正方案?
在产生决策的过程中是否有可能产生任何类型的歧视?
这套系统是否会用到个人资料?
谁负责管理所有数据?
系统是否使用非结构化的数据来产出决策?
在完成所有问题后,这套系统将会获得一个风险评估分数,让政府单位、企业内部与社会大众都能够快速了解这项新科技可能产生的社会冲击有多大。尽管这项评估没有任何法律效力,然而却是企图在人工智慧人才争夺战中,各国政府与企业可以借镜的一项准则。
目前包括欧盟、美国、新加坡,都已经针对「Trusable AI」(可信任的人工智慧)提出框架,并成立相关权责机构推动监管与立法,台湾目前只有国家发展委员会委托进行了一份调查报告,政府部门还在喊著 AI 发大财的「愿景」;中国则是发布了一项「人工智能北京共识」,提出了 AI 开发的方针与规范,然而当此大战之际,按照中国政府一贯的思维,肯定不会在这时候提出太过强硬的监管方案,而是继续野蛮成长,究竟这对于全球 AI 人才的争夺是好是坏,只能让开发者们用脚投票来揭晓胜负了。



Bookmark and Share
|
关闭