找回密码
 立即注册
  • 回复
  • 收藏

人工智能和军事:技术只是战斗的一半

tdmin 2018-12-26 07:46 33人围观 人工智能

什么将在人工智能的进步(AI)意味着国家安全?今年在岩石战争中,技术和非技术专家在学术,军事和行业方面都面临着军事和国防领域人工智能的承诺和危险。“围棋战争”文章讨论了从国际竞争对手和军事服务追求人工智能的不同方式到人工智能应用对当前决策,信任和军事道德体系提出的挑战的各种问题。战争在岩石上贡献者增加了我们对军事人工智能轨迹的理解,并提请注意关键的剩余问题。一个关键的问题是,人工智能的技术发展可能只占用于将AI功能有效地整合到军队中的一半。现在,无论是在美国还是在国外,真正的挑战都超越了炒作,并使适当的人员,组织,流程和保障措施到位。

军队将如何应用人工智能

人工智能的看似无限的潜在应用,从AlphaGo到人工智能,提出了关于军队应该如何以及在何处优先考虑人工智能开发和集成的棘手问题。Michael Sulmeyer和Kathryn Dura认为,基于AI的网络自动化网络防御可能是美国投资的一个显而易见的领域,可以以经济有效的方式最大限度地减少漏洞。Connor McLemore和Hans Lauzen确定了人工智能可能具有最大战略影响的更广泛领域:机器比人类速度,敏捷性和劳动强度优势以及机器能够有效识别模式的领域。

军队在多大程度上将人工智能纳入武器系统和作战概念?Jeff Cummings,Scott Cuomo,Olivia Garard和Noah Spataro 提出了一个革命性的方法。他们认为,海军陆战队员应该充分利用人工智能的承诺,为可能的作战场景做准备,并帮助加速五角大楼要求的小规模近战战斗力的发展。但是,在其他领域,军方可能需要沿着更加进化的途径进行人工智能整合。Shmuel Shmuel详细说明了战略家在将AI整合到武器系统中所需的火力,机动性和成本方面的一些具体权衡。平衡战略和预算的这种复杂性可能提供了一个很好的理由,正如Dan Wassmuth和Dave Blair建议空军一样,在战斗中应用AI时,目标是逐步改变。

组织实施

在技​​术变革期间,国际政治中的胜利者通常是那些能够利用技术变革进行组织变革的军队。沿着这些方向,多个战争岩石作家提出,与组建军事收购综合体以实现它的任务相比,战略性人工智能开发的技术挑战可能会变得苍白无力。理查德库兹玛为五角大楼领导人敲响了警钟:整合人工智能意味着从一开始就进行基础设施变革。坚持长期战略目标可能是进行不正当改革的二阶 - 优先考虑企业级数据标签,云构建和软件开发人员 - 用户组合 - 这将使军事AI无论其具体应用程序如何。在Athena平台 等AI测试平台中生成的用于开发和管理信息(以及人类专业知识)的新系统将需要在资源组织方面进一步创新。

一如既往,精力充沛,资源充足的领导力将是完成任务的关键。正如海底推进和航空的好处只能通过像Adm.Rickover和Adm.Moffett这样的创新人物实现,今天的军事服务将需要领导者有权将AI的应用推进到部队中。

实现AI的降低人员成本和提高军事效率的承诺将需要降低实施成本。制定雄心勃勃的目标可能会引发创新建设压力。但即使军方降低成本并设定了崇高的目标,最终,如果没有全组织范围的变革,AI可能不值得投资。

管理人类管理人工智能

正如Jacquelyn Schneider所指出的那样,第三抵消会违背直觉,将机器的预期优势转变为人的头脑:“与第一或第二抵消相反,美国能够在技术的物理组成部分的发展上翻倍......自治军备竞赛就是人才和人力。“

如果战场AI要具有革命性,战争上的战争作家今年争辩说,美国军方可能需要对其招募,训练和保持人类建立和运行AI系统所需的方式进行更大的改变。针对同行竞争对手的战略“人工智能优势”将来自米克瑞安认为只能通过适应各级专业军事教育来发展的“智力优势” 。McLemore和Eric Jimenez以及Sebastian Bae指出了海军核学校和战争游戏专业在开发具有竞争力的军事人工智能职业轨道方面的潜在教训。

使用人工智能的军队也需要在专家队伍之外培养识字和信任。如果认知偏差导致人们难以信任他们支持人工智能的智能手机GPS,当指挥官要求单位级别的操作员在生死攸关的情况下依赖特定的人工智能应用时,它会如何发挥作用?“战争之石”在Jon Askonas和Colby Howard之间进行了富有成效的交流; 朱莉娅麦克唐纳和施耐德 ; 和一大群经营者具有驾驶飞机的经验,了解远程飞行员和地面操作员可以相互信任的程度。虽然这场辩论是关于遥控系统而不是人工智能的,但它仍然提出了一个重要的问题,即人类对新技术的信任程度如何随着军队采用更先进的系统而变化。随着机器在规划中发挥更大作用,人工智能也可能改变军事决策和军民咨询和监督过程,正如里萨布鲁克斯所探索的那样。

人工智能辩论在2019年在哪里?

假设人工智能的进步继续引起人们对这些技术如何影响未来战争特征的兴趣,那么有许多有希望进行更多研究和思考的领域。首先,继续超越炒作并深入了解AI实际上有用的东西至关重要 - 无论是在“后端”应用还是更接近战场。推进关于实验和战争游戏的当前想法对于技术开发以及培训和学说问题都至关重要。

其次,国家安全界应继续讨论将人工智能的快速发展与道德,安全和可靠性相平衡的必要性。像谷歌退出Project Maven这样的争议表明这是一项重要的任务。军队和民用AI行业都希望AI应用程序能够有效运行,需要进行广泛的开发和测试,以应对欺骗,黑客攻击和适当使用的挑战。为AI应用程序开发强大的测试,培训和可靠性程序是研究的关键领域。安全可能是与其他国家共同开发军事人工智能的关注点,因此可能因此成为外交和建立信任的富有成效的领域,如Alexandra Bell和Andrew Futter 注意,与AI有关的军备控制的核查标准。

最后,重要的是继续讨论美国的人工智能战略应该是什么。“对岩石战争”的贡献者已经发现了阻碍进步的障碍,但其中一部分来自于缺乏战略性,甚至是大战略性的方向。美国政府中有许多不同的人工智能政策工作和技术工作,需要学会共同努力。例如,国防部现在有几个机构以这种或那种方式负责人工智能,包括联合人工智能中心和国防创新委员会的人工智能伦理审查。同时,国会最近成立了一个新的人工智能委员会白宫的科技政策办公室也积极参与人工智能政策问题。很容易想象从印度太平洋到波罗的海的战场将如何充满人工智能应用。然而,正如查尔斯·莱贝克,兰尼·康威尔和菲利普·萨根所指出的那样,美国政策制定者和预算家们还没有完全掌握与俄罗斯和中国等国家竞争的政治影响,以国民的名义为日常公民的生计“信息化”做好准备。安全。

如果人工智能不仅仅是一种具有军事前景的技术,而且实际上塑造了战争性质的技术,那么在2019年这些问题和其他问题上取得智力进步将是至关重要的。

鲜花

握手

雷人

路过

鸡蛋
我有话说......