美国国防部:AI和无人驾驶汽车的道德规范

图片

如今,道德规范AI成为热门话题。是的。

随着AI系统的鼎盛时期以及它们的广泛应用,人们合理地担心这些计算机系统只是在不了解对社会可能产生的后果的情况下被抛入了这个世界。

令人严重关注的是,新的人工智能系统中内置了偏见,并且倾向于采取在道德和社会方面有害的行动。

关于人工智能的伦理,我认为至少有两个主要方面(或规则):

  1. 人工智能系统的行为应为社会所接受
  2. AI系统设计人员和系统本身必须执行规则1。

也许第一条规则的本质是显而易见的-AI伦理的含义是这些系统的行为应符合社会的道德标准。

下面将显示,遵守第一条规则比看起来要复杂得多。

规则2的重要性在于阐明负责确保完全遵守AI道德规范的各方由设计,构建和分发这些系统的人员组成。

如果您觉得这很明显,那么不要急于根据“常识”做出判断。

在AI系统周围,有一种光环,好像它们是自主的并具有自决能力。因此,当AI系统犯下种族偏见的一种表现时,有人会犯一个逻辑错误,说AI做到了,却没有责怪创建和实施该系统的人。

这些系统的某些开发人员和制造商当然希望您不要朝他们的方向看。当AI系统做错事时。

结果,那些负有真正责任的人可能会惊讶地面对自己,狡猾地回避自己的职责,称AI是罪魁祸首。这些人的行为就好像他们只是在看着火车撞车一样,即使是他们在没有任何控制或验证的情况下将它放到铁轨上并开始火车。

当然,有些人会捍卫自己犯错的系统。他们会说他们试图防止所有失败,但是该死的,有些东西丢失了。从某种意义上讲,这些人将努力使自己成为“受害者”,与遭受AI困扰的人形成鲜明对比。

不要被这个愚弄了。

实际上,请不要为此而上当。

简而言之,第二条规则与第一条规则同等重要。

在不让人们对他们创造的AI行为负责的情况下,我们都会陷入困境。

我敢肯定,创作者将轻松实现与开发新AI系统有关的承诺。这些人会称赞他们的产品,并希望他们取得成功,他们还会假装与道德错误已落到我们所有人身上的应用程序无关。所有这些将鼓励创建没有道德责任的AI系统。

AI的道德可能特别困难的另一个领域是用于军事目的的AI。

大多数人都会同意,在创建和使用军事情报系统时,我们需要遵守某些AI道德标准。我们以这种方式获得的知识和经验可用于AI的商业和工业用途。

美国国防部最近发布了一套AI原则

如果孤立地看这些原则(我将在本文中做),也就是说,不考虑军事和防御环境,您会发现它们同样适用于任何商业或行业AI系统。

我将向您介绍这些原理,并使用我最喜欢的领域-真正的无人驾驶汽车的出现。这将使我能够说明最新的AI伦理原则(包括非军事用途)如何适用。

根据媒体报道,五角大楼发布了这套最新的AI道德标准,并引用了空军中尉Jack Jack Shenhan和联合AI中心主任的话,恰当地指出:“ AI是一种强大的发展而有效的技术,可以迅速改变文化,社会和社会。最终甚至是战争。 “这些变化的好坏取决于我们采用和使用这些系统的方式。”

就像我反复说过的那样,社会对AI发展的态度将决定该系统的命运-它是否会有益,还是会(或随着时间的流逝)失败而带来可悲的后果

人工智能系统的开发商和制造商必须承受巨大的压力。

为了清楚起见,我注意到AI系统不会仅凭其本质就造福于世(没有公理和前提条件可以保证这一点)。

为了充分研究这个问题,我们将考虑我的概念,这是一个四方计划,我称之为AI伦理后果计划

按照惯例,我们将横坐标轴的上部表示为“有益于AI”,将下部表示为“将AI视为伤害”。同样,我们将纵坐标轴分开,左侧指定为“有意地”,右侧指定为“无意地”。

这样我们得到4个正方形:

  1. 良好的AI-故意
  2. AI受到损害-故意
  3. 人工智能造福-无意
  4. AI的危害-无意间

我知道,从简化如此重要的问题到简单的四方制方案,您可能会感到有些恐惧,但有时全局视角可能会有用-您可以用它在树林中看森林。

第一个方块描述了一个良好的AI,它是用良好的意图创建的。该AI可以实现其目标,而不会违反任何道德准则,我相信这个平方是所有智能系统都应努力争取的标准。

第二个方块是恶意AI。不幸的是,这样的系统将被(犯罪分子或恐怖分子)创建和发布,但是我希望我们为此做好准备,而AI伦理原则将帮助我们发现它们的出现。

第三个平方是随机运气。他描述了一种情况,有人创建了一个智能系统,突然证明它是好的。也许它的创造者并没有考虑其发展的积极方向,但是即使只是环境的成功组合,它仍然是成功的,因为对我们而言,结果是基础。

第四方格是最阴险的,是引起最大焦虑的人(第二方格外令人毛骨悚然)。通常,应该为善而工作的系统就落在这里,但是在开发过程中,负面质量会在其中积累,并与所有善相重叠。

总的来说,我们将被那些善恶特质逐渐融合的系统所包围。这种情况可以描述如下:开发人员将努力创建一个有用的良好AI,但是在创建意外错误的过程中,该错误会累积在系统中,从而导致不良后果。

考虑两个重要问题:

  • 我们如何理解或发现智能系统可能包含不良AI的功能?
  • 开发人员如何知道如何创建此类系统以捕获错误并防止出现其操作可能导致负面后果的系统?

答:严格遵守从正确和实质性的AI伦理原则中选取的规则。

谈到AI道德准则,美国国防部发布的文件包含五个基本原则,每个原则都表达了重要的思想,所有AI开发人员和发行人以及使用或将使用这些系统的每个人都应注意。

通常,AI道德准则不仅对开发人员有用,而且对所有相关方都有用。

从美国国防部的文件中学习原理的最好方法是证明它们与现有智能系统有关。

值得考虑的紧迫问题:国防部法典的原则是否适用于真正的无人驾驶汽车如果适用,应如何使用它们?

它们确实适用,让我们看一下它们是如何工作的。

无人驾驶水平仪


图片

重要的是要澄清我所说的带AI的完全无人驾驶汽车的意思

真正的无人驾驶车辆是AI在没有任何人工协助的情况下自行管理的车辆。

此类车辆被分配到级别4和5,而需要人工参与以共同驾驶的汽车通常被分配到级别2或3。在个人帮助下驾驶的汽车称为半自动驾驶汽车,通常它们包含许多称为ADAS(高级驾驶员辅助系统)的附加功能。

到目前为止,还没有完全无人驾驶的5级车辆。今天我们甚至我们不知道这是否会实现,需要多长时间。

同时,第4级区域的工作正在进行中。在公共道路上进行了非常狭窄和选择性的测试,尽管人们对此类测试的可接受性存有争议(有些人认为,参加公路和高速公路测试的人就像豚鼠一样,在每次测试中都可以存活或死亡) 。

由于半自动驾驶汽车需要人工驾驶,因此大众采用这种汽车与驾驶普通汽车并没有太大区别,因此在我们的主题中,关于它们的说法没有什么新的(不过,正如您很快就会看到的那样,可以考虑的要点)进一步适用于他们)。

对于半自动驾驶汽车,重要的是要警告公众最近出现的令人不安的方面-尽管人们继续发布有关在驾驶2或3级汽车时如何入睡的视频,我们都需要记住驾驶员不能分散驾驶半自动车的注意力。

无论自动化级别如何,您都有责任控制车辆级别2或3。

无人驾驶汽车和AI伦理


在4级和5级车辆中,没有人参与管理,这些车中的所有人员均为乘客,而AI将参与驾驶。结果,许多智能系统将被内置到这些级别的车辆中-这是不争的事实。

出现以下问题-驾驶无人驾驶汽车的AI是否限于关于AI道德规范的任何指导方针或要求(您可以在此链接中查看我对无人驾驶汽车AI道德规范的分析以及开发此道德规范的技巧)。

回想一下,没有默认系统会要求AI遵守道德标准或与社会的道德契约。

人们自己必须将这样的信念或原则嵌入到智能系统中,而AI开发人员必须明确地做到这一点。

不幸的是,有些人采取了相反的行动-他们紧闭双眼或陷入催眠的影响,而不是上述行动,他们对他们的项目将带来的潜在收益(或所谓的崇高目标)着迷。

我警告说,某些人工智能系统会导致开发它们的人“高尚的腐败”。结果如下:参与开发的人员将被善意AI的潜力所吸引,以至于他们将有选择地忽略,错过或减少对AI道德考量的关注(请参阅链接)。

这是集合中的五个要点。美国国防部AI伦理原则

原则一:责任


“国防部工作人员将进行适当水平的评估和关注,同时继续负责AI功能的开发,部署和使用。”

首先,我们将从该措词中提取“部委人员”部分,并用“所有人员”代替。您获得了适合任何与AI合作的组织的手册,尤其是商业组织。

从事无人驾驶汽车工作的汽车制造商和技术公司应仔细阅读该原则的措辞,并认真遵循其措辞。

我正在谈论这一点,因为有些人继续争辩说,基于AI的无人机将自行采取行动,因此,对于谁将携带这种无人机会引起很多关注导致人身伤害或死亡的车辆行为错误负责

简而言之,人们将负责

这些人可能是开发基于AI的无人机的人-汽车制造商或技术公司。

还要理解,我经常说负责人包括开发人员,也包括部署这些AI系统的人员,这意味着使用这些系统并安装它们与与开发人员合作同等重要。

为什么?

因为部署智能系统的人也会犯错误,从而导致不良后果。

例如,假设一家拼车公司购买了一批无人驾驶汽车,并将其用于客户的联合旅行。

到目前为止,一切都很好。

但是,可以说这家公司无法为这些无人驾驶车辆提供适当的服务由于缺乏维护或忽略说明,无人驾驶车辆无法工作。在这种情况下,我们可以发现原始开发人员的错,但是向那些部署AI系统但在工作中没有表现出应有的照顾和责任的人提出问题更值得一提

原则二:公正


“该部将采取措施,最大程度地减少人工智能系统运行中出现的意外偏差。”

再次,在措词中使用“部”一词,并用“安装人工智能系统的开发人员和员工”代替。您将获得普遍适用的原则。

在无人驾驶车辆的情况下,有人担心AI系统可能会根据行人的种族对行人做出不同的反应,从而巧妙地,不可避免地显示出种族偏见。

另一个问题是无人驾驶车队会导致汽车避开某些区域。这将导致地理上的排斥,最终将抢劫行动不便的免费使用无人驾驶车辆。

结果,成熟的无人驾驶汽车很有可能陷入一种或多种形式的偏见中,并且开发人员和用户不应举手表示这是生命,而应努力减少,减轻或减少任何此类偏见。

原则三:可追溯性


“人工智能领域的部委项目将以相关人员对适用于人工智能领域的技术,开发流程和操作方法有适当理解的方式进行开发和部署,包括通过透明和可验证的方法,数据源以及设计和开发。文档”。

只需从措辞中删除对该部的所有引用,或者,如果您愿意,可以将其视为任何公司或组织中的任何部门-这将使该原理广泛适用于每个人。

此原则有很多内在因素,但是为了简洁起见,我仅关注您可能没有注意到的一个方面。

带有“数据源”的项目旨在传播机器学习深度学习

在使用机器/深度学习时,通常需要收集大量数据,然后使用特殊的算法和模型来查找模式

与关于隐性偏见的上一段相似,如果最初收集的数据以某种方式出现偏见,则模式可能会突出显示这些偏见。结果,当AI系统实时运行时,它将这些偏见转化为现实。

更令人恐惧的是,AI开发人员可能不了解正在发生的事情,而那些安装和部署这些系统的人也将无法弄清这一事实。

在有条件的纽约接受过疯狂和敌对交通训练的无人机可能会接管积极进取的驾驶风格,典型地来自纽约的驾驶员。想象一下,您采用了该系统,并在驾驶风格更加平静和衡量的美国城市中使用了该系统。

该原则清楚地表明,负责安装和部署的开发人员和人员应注意此类系统的数据源,透明度和审核。

原则四:可靠性


“人工智能领域的部委项目将有明确定义的用途,并且在整个生命周期内将在所描述的用途内测试和验证此类项目的安全性,可靠性和有效性。”

遵循与上段相同的步骤:删除“部委”一词,并将本段适用于任何组织及其部门。

大多数(或也许所有)都会同意,无人驾驶车辆的成败取决于其安全性安全性和效率。

我希望这个原则是显而易见的,因为它明确地适用于基于AI的汽车。

原则五:可管理性


“该部将设计和开发与AI相关的项目,以执行其预期的功能,同时能够提前发现并避免意外后果,并能够禁用或停用表现出异常行为的已部署系统。”

与往常一样,删除“事工”一词,并将此段落应用于任何事物。

该原则的第一部分是我的主题,即检测和预防意外后果,尤其是不利后果。

在无人驾驶车辆的情况下,这是很明显的。

关于无人驾驶车辆,还有一个微妙的要点,其中包括禁用或停用已部署的AI系统的功能,这显示了意外的行为-有很多选择和困难,而且不仅仅是单击车外的“红色”关闭按钮(某些人认为

结论


我们通常希望国防部不公开其证件。

在这种情况下,不应将AI的道德操守手册保密。的确,国防部发表了这份文件是非常令人愉快和值得称赞的。

最后,将老虎用纸粘起来是一回事,而在现实世界中看到它则是另一回事。

所有负责安装和部署的开发人员和工作人员均应仔细,周到地研究本《 AI道德规范》手册以及其他来源的类似(很多)道德规范。



图片

关于ITELMA
- automotive . 2500 , 650 .

, , . ( 30, ), -, -, - (DSP-) .

, . , , , . , automotive. , , .

阅读更多有用的文章:


All Articles