打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
因为AI,人类对战争的态度永远改变了
全文共2469字,预计学习时长5分钟

AI在战争中的角色

很多人都听说谷歌由于与美国军方的关系而面临身份危机。简而言之,在员工抗议愈演愈烈后,谷歌决定不再续签“Maven项目”,不向美国国防部提供AI能力支持。

这是谷歌的问题,这家“善良”的公司目前正与亚马逊和微软竞争利润丰厚的云服务和人工智能政府合同,价值约100亿美元。拒绝这类工作将抑制其巨大的商业潜力。近期,亚马逊已在宣传其图像识别软件“国防识别”,微软也标榜其云端技术已用于处理美国军方各部门的机密信息。然而,谷歌的公司文化意味着,签订大型国防活动会使得AI专家从谷歌离职。

尽管Manve项目宣称“无害”、非进攻、非武器、非致命,只用于识别交通工具以提高无人机瞄准的精确度,但它的出现引发了一些严重的问题,如将战场转移到数据中心,以及难以将民用技术从实际战用中分离出来。尽管谷歌工作人员试图将这些问题抛之脑后,但他们知道将AI分析图像用于世界各地的反叛乱和反恐打击,多少会有一些受害者。

世界前100所世界顶级AI公司都很担忧这些问题(包括潜在的James Bond villain Elon Musk)。去年夏天,它们给联合国写了一封公开信。信中警告道,尽管研发自动武器系统的初衷是好的,但在无人工操作的情况下,识别目标并进行攻击,存在被滥用的可能。尽管终结者和完全致命的自主权离现实很遥远,但该领域仍有许多令人担忧的问题。

这并不奇怪,自定向武器的研发引起了继火药和原子弹后的第三次武器革命。因此,美国正在进行AI军备竞赛。军事专家称,中、欧已在国防AI方面投入巨资,俄罗斯也在朝着进攻性思维武器化AI发展。去年,普京曾表示“AI是俄罗斯的未来,也是全人类的未来…这一领域的领导者将成为世界的统治者。”这种说法很有煽动性,但其(部分)是正确的。在AI领域先发制人的国家在军事、经济和科技上占据的优势几乎无可限量。

这是他们下的最大赌注。为了弄明白这一点,就需要回到军事战略的基础上来。

1. MAD的终结

冷战结束后,军事联合体的基础已成为相互保证毁灭的原则。这一概念意味着,任何攻击者如果未能在首次攻击中完全摧毁其目标,则将受到报复。因此,各国都试图先发制人以获得优势,并且如果看到互相保证毁灭任一方的平衡开始削弱,就可能会在技术层面上利用这一优势。

这就是人工智能的用武之地:通过大规模监控和对模式以及潜在目标的智能识别,先发制人者可在不承担任何后果的情况下迈出第一步。正是这种胜者为王的信念促使了军备竞赛,在很大程度上破坏了世界秩序,因为没有退路的弱势国家面对非MAD时,很难保持理智,更可能参与所谓的先发制人的战争,以阻止对手获得诸如强大军事AI的优势。

自动武器并不需要通过杀戮或制造灾难性战争来破坏稳定:轻轻扣动扳机就可以了。

2. 患得患失

面对全新军事科技容易患得患失。一旦取得了优势,这个国家如何表明MAD将在其清单上呢?不用回顾历史就能知晓,一旦制造出武器化AI,其它国家会有何举动。美国发明了核弹,就迫不及待要:A)测试。B)使这十亿美元的投资物有所值(没必要浪费钱)。C)告诉俄罗斯,他们拥有一款人人畏惧的新型武器,会改变接下来十年的国家平衡。不管是出于政治还是战略原因,研发了致命AI的国家都会想要耀武扬威,这是人的本性。

3. 战争的非人性化

倾向自动化武器的人有一论点:部署机器人系统比“传统战争”更有吸引力。因为和人类相比,机器人更少犯错、疲劳或情绪激动,所以牺牲也就更少了。不论是在战争时期还是和平时期,正是悲伤和愤怒等情绪的存在使我们称之为人。仁慈是人内心深处至关重要的一部分,然而自主化武器系统的出现则抹杀掉了对战争受害者的仁慈之心。亚历山大·索尔仁尼琴说过:“善恶的分界并不由国家、阶级、政党划分,而是刻在每个人心中。”

此外,发达国家所受的伤亡会少一些,但那些受超级大国鼓动而发生代理人战争的国家呢?大多数国家都没有拥有机器人公司的奢侈条件,就只能像上一个世纪那样,承受战争的人力成本。那些无法在战场上进行反击的国家,很有可能衍生出国际恐怖主义,因为这是伤害对手的唯一途径。

4. 失控

假设所说的新技术是指AI、机器学习、机器人和大数据分析的混合体,能制造具有多种自主化程度的系统和武器,低到在人类的监督下工作,高到能自主“思考”。未来战场上,最具决定性的因素就是双方算法的质量和快到人类无法跟上的战斗速度(这是笔者最爱的阿西莫夫短篇小说的前提)。

相关风险是过于热切、经验不足的玩家可能会失去对其军事能力的控制(参考俄罗斯)。人工智能的燃料是数据。如果给军用机器人输入错误的数据,它可能将射程内的所有人都识别为潜在目标。

5 . 愚蠢的机器人

专家不害怕聪明的机器人,但对愚蠢的机器人充满恐惧,因为它们很容易失控。对复杂系统的研究表明,行为的产生比单个行为的总和更加不可预测。因此,我们不太可能完全理解或控制某些类型的机器人,对于有枪的机器人就更应该加强监督。

当前面临的主要问题不是上述问题,而是无知的大众将该问题理解为“终结者大战人类”,导致了科幻小说式的叙事,而忽略了在法律、政策和商业领域亟待解决的非常现实和艰巨的挑战。正如谷歌发布的一套枯燥的AI道德实施原则一样,无法完全相信公司能够做出正确的选择。因此,需要相关机构和政府构建一个务实、道德和负责任的国际化框架,以建立一套公认的准则。

自动化防御系统能够基于对威胁的分析做出决策,如来袭导弹的形状、大小、速度和轨迹,并比人类更快地做出反应。然而,归根结底,减轻杀手机器人潜在伤害的“开关”就在每分每秒每个人所做的或大或小的决定中。

历来如此。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
AI与战争 —— 程序能掌握生杀大权吗?
谁在作战——军事AI正在走向未来战场
俄乌战争《俄罗斯地面车辆的自主性、人工智能和机器人技术现状》2023最新报告
未来战争里,AI才是最危险的武器?
美一黑科技曝光,危险程度超核武,俄:或毁灭人类
突发大事!2400名全球顶尖科学家拒不合作,这对美军是个重大打击
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服