Press "Enter" to skip to content

在人工智能和军事方面,研究人员试图划定一条线

谷歌和全球学者的研究人员正在请求组织人工智能研究的最前沿,以避免军事AI应用,尤其是自主致命武器。

人工智能对道德影响的担忧并不是什么新鲜事,但随着政府和行业继续投资于人工智能领域的一系列技术,研究人员和行业应该在何处以及如何制定道德规范的问题军事应用已变得越来越相关。

在4月4日由纽约时报首次公开发表的一封公开信中,Google员工敦促首席执行官Sundar Pichai终止该公司参与Maven项目,这是一项五角大楼计划,旨在将大数据分析和机器学习应用于无人驾驶飞机拍摄的航拍影像,并改进军事决策。据“泰晤士报”报道,那些签署了3,000多名雇员的雇员认为,该公司“不应该参与战争。”

信中写道:“建立这种技术来协助美国政府进行军事监视 – 并可能导致致命的结果 – 是不可接受的。”

近日来自全球各地的近60位AI专家和学者收集了一封类似的信件,呼吁抵制由韩国KAIST大学决定与韩国领先的防务承包商Hanwha Systems合作开设新的研究中心致力于人工智能和军事融合。

Marie DesJardins是马里兰州巴尔的摩县大学计算机科学教授,也是KAIST信函的签署人之一,她告诉FCW,她说AI不是pollyannish。DesJardins说,她不相信那些有感觉的机器打开他们的人类主人的“终结者”场景,并且认识到,即使美国在军事行动中避免使用人工智能,其他国家也不一定会效仿。

她对这项技术的其他影响表示担忧,但她在自主武器系统中提出了一条鲜明的红线,认为如果放任不管,他们有朝一日可能会促成杀伤,使这种系统像核武器一样危险。DesJardins说她在信上签了字,因为KAIST不清楚该中心是否会在其研究中划出任何道德界限,而与韩华系统公司在导弹系统,坦克和其他战争武器中的合作表明了潜在的工作自主武器。

DesJardins说:“我们需要在全球范围内开展工作来思考这个问题,就像我们认为这是一个关于核扩散的物种一样。“这里有相同的潜力,如果你有自主武器,你可以非常容易地发展大规模杀伤性武器。”

这封信激发了KAIST大学校长Sung-Chul Shin的回应。在由FCW获得的一封信中,Shin向签署者保证,该研究中心“旨在开发有效的后勤系统,无人驾驶导航和航空训练系统的算法”,但它将避开“缺乏有意义的人员控制的自主武器”。

“我想重申,KAIST没有任何意图参与开发致命的自主武器系统,”Shin写道。“在应用包括人工智能在内的所有技术时,KAIST明显意识到道德问题。”

另一位签字人,密歇根大学计算机科学与工程教授Benjamin Kuperspers通过电子邮件告诉FCW,他对Shin的评论的解释表明该中心将保持在军事AI研究的可接受范围内。

“从我个人的角度来看,作为一个不习惯解释外交声明的人,这听起来像是一个令人满意的回应,”奎伊斯写道,尽管他指出“个人或组织的意图可随时改变。”

指导研究人员的正式认可标准很少,即将到来的人工智能军备竞赛意味着军事官员和决策者可以施加压力来推动极限。

电子前沿基金会在4月5日对谷歌信函作出回应后建议,为政府开发人工智能技术的公司“首先认识到,该领域尚未确定安全和道德的公共标准。[公司]不能仅仅假定签约军事机构已经充分评估了风险,也没有独立承担责任。“

DesJardins回应了这些想法,称社会缺乏关于哪种AI军事工作形式会引发独特的道德问题以及哪种形式的战争武器的商定规则。研究界,政府官员和技术制造商之间的伙伴关系对制定这些标准将是必要的,她说她认为最终可能需要一个国际条约。

DesJardins说:“我们正在部署这些事情的方式比我们正在开发我们对限制的理解更快。”

不是每个人都非常关心。技术咨询公司Gartner的研究副总裁Anton Chuvakin表示,他不理解这种愤慨,特别是Google的信件。他说目前的人工智能技术是儿童游戏,与那些经常吓唬影迷的版本相比,更类似于计算数学公式的高级软件系统。

“对我而言,目前很多AI都是数学和统计学。没有意识,没有智慧,“他说。“这不像他们为五角大楼建造了一个杀手机器人。”

Chuvakin和DesJardins都认为,这种杀手机器人技术,如果甚至可能的话,几十年后就不会落后。至于现代应用,丘瓦金说,其他国家将推进人工智能研究,推动边界,无论美国选择如何进行。他警告说,逃避军事人工智能应用可能会使美国处于致命的长期战略劣势。

尽管如此,即使楚瓦金也承认,一种可达到的AI的特定形式确实给了他停顿,并要求进行更大的伦理辩论。

他说:“任何导致自动化决策杀死人的东西​​都可能是我会画的线。

欧莱雅睫毛膏多少钱
卡哇伊官方网站

热点推荐