联合国国家:远非禁止杀死机器人

未来的武器: 人权观察社发表了有关自动武器管制的报告。 什么将决定未来的战争?

Harang是挪威和平小组的负责人。

人工智能风起云涌。 讨论了该技术的潜力 Arendalsuka 像所有其他主要广播公司一样,都具有社交参与度。 人工智能被认为是抗击持续发展的关键技术 Corona流行性。 这就是所缺少的。 在不广泛使用人工智能的情况下,是否可以想到采取有效的对策来应对下一次大流行? 检测感染,对疾病暴发进行全球监视以及确定感染者的潜力是巨大的。 如果我们很好地使用这种技术,当然可以避免很多痛苦。

在将人工智能作为从减贫到气候变化的挑战的主要技术解决方案的同时,规范该技术的问题似乎也有所阻碍。 关于在家中感染跟踪的隐私声明就是一个例子。 在社会的大多数领域中,该技术具有巨大的潜力,以至于世界都迫不及待地使用该技术。 当需求如此巨大时,您立即开始首先开发技术,然后再寻求对其进行监管?

在大多数情况下,这样的想法可能是有道理的,但是人工智能有很多例外。 通往监视社区的道路很短。 我们已经知道民主的挑战。 逐个部门,也可能是该技术太强大了,并且可能在社会上令人振奋,以至于我们无法承担起目前图纸上的技术的后果。 因此,我们可以迅速使世界变得更糟,而不是变得更好。

全自动武器系统

如果该技术足够强大,从而在社会上产生了深远的变化,那么一旦可用,不使用该技术将很快变得不可能。 在弹药中使用所谓的自主武器的人工智能就是这种情况。

这样的未来武器能够从有意义的人类控制范围内攻击和摧毁目标,从而可以从根本上改变未来的战争。 在实践中,速度将决定未来的战争。 当在战场上的决策留给机器时,对手行动的响应时间也会急剧下降。 抽奖最快的人将获胜。 能够以控制论的速度超越对方的任何人都几乎不会受到人类控制的武器系统的抵抗。 因此,除了其他自主武器外,没有其他完全自主武器系统的对策。 在这种技术还没有出现之前,正是这种可能的情况驱使工作禁止了自动武器的开发,生产和使用。

必须要求某种形式的有意义的人为控制
自主武器系统。

人权观察 是运动中禁止杀死机器人的主要组织之一。 这项运动旨在禁止自动武器,自2014年以来,在推动联合国为此开展进程中至关重要。 就目前而言,联合国各国还远未就这一禁令达成协议。 但是他们至少在过去六年中留出了一些时间来讨论这种武器将在《反人类公约》框架内带来的挑战。 武器。 最近来 人权观察 一份关于世界各国迄今为止宣布的管制自动武器政策的报告。 该报告的标题是“停止杀手机器人:各国关于禁止全自动武器和保持人类控制的立场”,该报告可从以下网站获得: www.hrw.org

自97年以来,该报告确定了来自2013个州的公开声明的政策。这为分析提供了良好的数据基础。 报告发现,这些州中的大多数州都认为,必须对人类对自动武器系统进行某种形式的有意义的控制。 2018年,巴西,智利和奥地利也主动发起了关于联合国禁止自动武器的谈判。 迄今为止,已有三十个州支持这种禁令。 同时,美国和俄罗斯等国家明确反对禁令的想法。 为了在《联合国反人类武器公约》的框架内开始禁止谈判,必须达成共识。 因此,也没有理由相信这样的事情将在可预见的将来发生。

挪威

该报告还涉及挪威在这一领域的政策。 本质上,该政策基于挪威通过开发具有人工智能的自动武器来承认道德和法律问题的基础。 有人警告说,这类武器“可能会使责任和问责制模糊”。 同时,挪威迄今为止尚未支持联合国的禁令。 尽管尚未就禁令问题向政府作出澄清,但有关石油基金道德管理的辩论似乎也将禁令问题也带到了挪威政治上。

从2020年7月开始,在2020年NOU第XNUMX号《价值观与责任,全球政府养老基金的道德框架》中,政府任命的委员会提倡不要投资自动武器。 这是通过提议对产品创作进行更改来实现的,今天这意味着某些类型的武器,烟草和煤炭的生产商将被排除在基金之外。 建议规定并扩大武器标准,该标准定义了不应投资资金的武器类型。 建议将致命的自主武器添加到清单中。 委员会提出如下理由:“使用自主武器,使用武力的决定不受人类的直接控制。 这使职责不明确,委员会认为这从根本上是有问题的。” 该委员会的提议将在明年的议会会议上进一步辩论。 因此,我们可能还会看到当事方处于支持或反对国际禁令的立场。

另请阅读: 玛丽·韦勒姆(Mary Wareham):杀死杀人机器人必须为时已晚!

195挪威克朗订阅季

没有文章可显示