Press "Enter" to skip to content

谷歌员工对军事项目的反叛增加

一个呼吁谷歌避免参与“战争行业”的内部请愿书在周二获得支持,据报道一些工作人员正在放弃抗议与美国军方的合作。

据说约有4000名Google员工签署了一份请愿书,约三个月前开始流传,敦促互联网巨头不要使用人工智能让美国军用无人机更好地认识到他们正在监控的内容。

科技新闻网站Gizmodo本周报道说,大约有十几名谷歌员工正在放弃道德立场。

这家总部位于加利福尼亚的公司并没有立即回应有关被称为Maven项目的询问,Maven项目据报道使用机器学习和工程人才来为国防部区分无人机视频中的人员和物体。

“我们认为谷歌不应该参与战争,”请愿书写道,根据网上发布的副本。

“因此,我们要求Maven项目被取消,谷歌草案,宣传并执行明确的政策,声明Google或其承包商都不会制造战争技术。”

– 从杀手级无人机“走开” –

电子前沿基金会,一个互联网权利组织和国际机器人武器控制委员会(ICRAC)都是受到支持的国家之一。

虽然有报道指出人工智能的调查结果将由人类分析人员进行审查,但该技术可能为武装无人机上的自动瞄准系统铺平了道路,ICRAC在向Google员工反对该项目的公开信中声明。

ICRAC在信中表示:“随着军事指挥官们将目标识别算法视为可靠,它将很容易减弱甚至消除对这些系统的人员审查和监督。

“然后,我们距离授权自动无人机自动杀死,而不需要人工监控或有意义的人员控制就可以了。”

谷歌已经有记录表示,其提高机器识别物体能力的工作不是用于冒犯性的使用,但公布的文件显示“更加阴暗”的图片,联邦调查局的辛迪科恩和彼得埃克斯利在上个月的一篇在线帖子中表示。

“如果我们对公共记录的阅读是正确的,那么Google正在支持或建立的系统会标记无人机看到的人类或物体以供人类审查,并且在某些情况下,这会导致随后的导弹袭击这些人或物体,”科恩说。和埃克斯利。

“这些都是沉重的道德风险,即使人类在’杀戮链’的进一步循环中。”

EFF和其他人对Google的内部辩论表示欢迎,强调道德和伦理框架在武器装备中使用人工智能的必要性。

“AI在武器系统中的使用是一个非常重要的话题,值得国际公众讨论,并且可能有一些国际协议确保全球安全。”Cohn和Eckersley说。

“像Google这样的公司以及全球同行必须考虑后果,并要求寻求专业知识的军事机构的行为标准和行为标准。”

百乐门娱乐城
杨钰莹老公照片

热点推荐