科技食谱

人工智能军事用途带来的伦理挑战

由于技术进步,在军事上使用人工智能的研究和开发正在每个国家进行。然而,有人指出,无需人类直接命令即可通过判断情况杀死敌人并摧毁基地的自主武器无法通过与人类相同的道德的计算机来衡量,并且将其投入实际使用存在很大问题。

五角大楼正在积极开展人工智能研究,并将在 2020 年和 2021 年为包括武器开发在内的人工智能相关项目拨款 9.27 亿美元和 8.41 亿美元。此外,美国国防部高级研究计划局正在规划从 2019 年到 2023 年为期五年的人工智能相关项目,预算为 20 亿美元。

此外,纽约军事学院正在训练可以通过编程来击败敌人的机器人坦克,不仅教授如何处理算法,还教授有关自主武器的注意事项。不过,据说机器人还没有准备好将这辆机器人坦克投入战斗。

2020 年 12 月,美国空军基于 DeepMind 开发的 MuZero 进行了一项 AI 实验,用于检测来自 U-2 高空战术侦察机的敌方导弹和导弹发射器。虽然 U-2 本身的操作是由人类完成的,但这个实验是第一个真正在美国飞机上使用 AI 的例子。

此外,它还正在开发一种系统,可以让战术和战略通过人工智能思考并安装在武器上。据国防部联合人工智能中心的一位官员称,一个使用人工智能简化选择目标过程并减少攻击时间的系统计划于2021年左右投入战斗。

人权组织官员曾试图禁止制造和使用集束炸弹和地雷等杀伤性武器,但现在呼吁各国政府对自主武器实施严格限制。由于机器无法考虑即使是人类也难以不加考虑地判断的道德选择,因此有人认为,使用自主武器进行杀戮超出了道德门槛。据说机器人杀人容易引发战争,因为责任模糊。例如,如果油渗入对手的衬衫,使用与平时不同的迷彩图案,或者即使与假设的情况存在微小差异,计算机也可能会变得混乱并失去区分友军和敌军的能力。在卡内基梅隆大学进行的一项实验中,据说在俄罗斯方块中被指示不要输给对手的人工智能最终决定游戏不会暂停。换句话说,人工智能有可能在战场上变得完全无用,因为它完全无视公平和规范来满足需求。

美国国防部一位人工智能相关项目专家表示,有人担心人工智能技术可能无法保护世界,但应该进行人工智能测试,但不存在失去伦理道德标准的风险。但人工智能技术的进步意味着我们面临着人工智能的伦理挑战。当谈到人工智能军事用途时,问题是指挥官应该给机器多少控制权来决定在战场上杀死一个人。

与人类不同,机器不会因疲劳和压力而产生感官麻木。如果他们的战友被杀,人类士兵可能会错误地选择用什么火力瞄准谁,但机器专注于他们的任务而不会影响他们的情绪。参观了 U-2 实验的前谷歌首席执行官埃里克施密特表示,军方不太可能立即采用人工智能,因为很难展示人工智能在所有可能的情况下如何运作,包括那些人类生命受到威胁的情况。有。

当然,也有意见认为军方应该严厉打击人工智能的使用。 2012年10月,多个人权组织关注无人机的快速发展和人工智能技术的快速发展,发起了一场以杀害人类为目的的废除机器人运动。此外,在2013年召开的禁止使用某些常规武器条约CCW国际会议上,就是否全面禁止制造、销售和使用自毁武器进行了讨论。

向联合国提交《特定常规武器公约》禁止自毁武器的草案,必须征得《特定常规武器公约》所有125个国家的同意。然而,到目前为止,只有 30 个国家回应表示同意。

谷歌内部也有反对参与此类军事项目的声音。 2018 年 4 月,4,000 名谷歌员工签署并向谷歌提交了一份请愿书,要求撤回 Maven 项目,该项目正在开发一种用于从无人机镜头或卫星中识别和跟踪对象的人工智能系统。同年 6 月,谷歌宣布不再续签 Project Marvin 合同,并表示与其直接在武器上使用的系统无关。亚马逊和微软也提交了类似的请愿书,但两家公司仍与五角大楼保持密切联系。

针对马文计划的骚乱,五角大楼向美国国防创新委员会提出了关于人工智能道德准则的建议,并下令对与人工智能使用相关的道德问题进行调查。前首席执行官施密特表示,如果一个人犯了错误并杀死了一名平民,那将是一场悲剧,但如果一个自治系统杀死一名平民,那将不仅仅是一场悲剧。他说,与人类不同的是,性能不确定的系统一般不考虑责任,人工智能的可靠性可能会在未来几十年内得到修改。相关信息可以在这里找到。