您的位置:首页 >太阳能 >

伊隆·马斯克(Elon Musk):杀手机器人的威胁大于核朝鲜

时间:2022-01-26 14:16:23 来源:

科技领袖埃隆·马斯克(Elon Musk)正在扩大影响力,在向联合国的一封新信中呼吁制定公正的战争政策,呼吁在冲突期间制定法律禁止制造和使用杀手机器人。

马斯克(Musk)是推动自动驾驶汽车人工智能发展的主要力量之一。他说,人工智能比朝鲜核武器面临更大的威胁,自动武器的发展“有助成为战争的第三次革命”。

马斯克不是唯一的技术领导者。这封信是由115位其他专家共同签署的,他们认为致命的自主武器将释放出仅使用化学或生物武器时才会发生的大规模暴力。

周一向公众发布的这封信说:“致命的自动武器有可能成为战争的第三次革命。”“一旦发展起来,它们将使武装冲突的斗争规模比以往任何时候都大,而且时程比人类所能理解的更快。这些可能是恐怖武器,专制和恐怖分子用来对付无辜人口的武器,以及被黑以不良方式行事的武器。”

专家来自最重要的技术公司以及全球的全球机器人和人工智能(AI)社区。来自中国,以色列,俄罗斯和英国等国家的科学家在致《联合国某些常规武器公约》的信中致词,该信专门研究遏制装置的扩散“被认为对战斗人员造成不必要或不合理的痛苦或不加区别地影响平民”。

政府实体在制定保护性政策方面落后于科技界而臭名昭著。

联合国裁军事务负责人中泉泉(Izumi Nakamitsu)表示,在杀手机器人领域,这一滞后尤其可怕。

Nakamitsu写道:“目前没有涵盖军事AI应用的多边标准或法规。”“如果不想发出警报,存在一个非常现实的危险,那就是如果不及时采取行动,技术创新将超过这个领域的平民监督。”

到目前为止,在科幻作家艾萨克·阿西莫夫(Isaac Asimovs)的短篇小说《逃跑》中,制定了控制机器人意识的法律。虚构的“机器人技术手册,第56版,公元2058年”中根深蒂固的这三个法律声明如下:

1.机器人可能不会伤害人类,也可能由于无所作为而伤害人类。2。机器人必须服从人类的命令,除非这些命令会与第一定律相抵触。3。机器人必须保护自己的存在,只要这种保护与第一或第二定律不冲突。

展望未来,无数的科幻作家在自己的作品中运用了这三个定律来优雅地解释他们的机器人角色道德规范。到阿西莫夫斯大炮拥有控制整个行星的机器人时,零定律也开始起作用:“机器人可能不会伤害人类,也可能无所作为而让人类受到伤害。”

尽管在小说界很流行,但联合国采用这些规则来控制AI是愚蠢的。正如以利亚·巴利(Elijah Baleys)的著作《赤裸的太阳》(The Naked Sun)中指出的那样,该系统中存在大量漏洞,犯罪分子的策划者或军阀可以利用机器人的服从性作为实施暴力的便捷工具。

当要求机器人向饮料中添加某种物质并将其提供给某人,而机器人不知道的特殊成分是毒药时,会发生什么情况?由于不了解指挥人员的意图,因此该设备将继续执行其命令。更大的想法是,由成千上万个机器人组成的网络,每个机器人分别完成一项单独的任务,该任务部分但不是直接或完全地促成对文明的毁灭性攻击,而不会受到上述法律开发的AI的阻碍。机器人根本没有足够的信息来阻止自己。

无论如何,现实世界几乎总是比科幻小说所描述的更为复杂。有关自动驾驶汽车和其他聪明人的技术的新法律经常通过,但是在中世纪,防止尖端武器武器化的政策法规仍然存在。

是时候跟随我们的思想领袖将我们的AI法律带入未来。


郑重声明:文章仅代表原作者观点,不代表本站立场;如有侵权、违规,可直接反馈本站,我们将会作修改或删除处理。