教宗:人工智能和无人驾驶汽车的伦理

图片

教皇担心AI可能会伤害人类,而不是成为一种可以补充社会并改善其生活的工具。

根据梵蒂冈的说法,最近发布的一份名为《罗马呼吁人工智能伦理》的文件告诉我们,人工智能应该朝着哪个方向发展,该技术旨在改善社会并预防社会遭受伤害和死亡的前景。

有时,科学家倾向于在不明确研究可能后果的情况下进行创新。因此,在智能系统开发和实现竞赛的时代(尤其是涉及基于机器和深度学习的系统时),有很多呼吁关注AI的道德规范。

这是教皇发表的一份文件中关键语录

“现在,我们比以往任何时候都更必须保证人工智能的发展前景,而不是侧重于技术,而是着眼于人类,环境,我们共同的家园及其居民的利益,这是密不可分的互联

天主教会要求参与AI创建的每个人记住这些系统的潜在作用。这也包括呼吁注意预期的和潜在的意外后果。

一些AI开发人员对以下事实视而不见:其开发的行为可能会导致意外的不利影响。

请记住以下社会动态方面:

  • 一些工程师和科学家认为,只要AI系统至少达到了他们的预期,其他所有后果都不是他们的责任,因此他们试图从任何这样的困境中洗手。
  • ( , , , , ).
  • , , . , , .
  • , «» , - . , .
  • , , . , , ( – , – ).

– ,


天主教会发布的文件是一种保证,将礼貌地要求所有参与创建AI系统的人签名。

实际上,该文件已经由IBM和Microsoft等多家公司签署。

该文件要求签署人做什么?

我将简要讨论一些细节。这一章描述了三个基本原理。因此,AI系统应:

“ ...要使所有人具有包容性,而不应歧视任何人;整个人类,尤其是每个人的友善必须成为该系统的核心;最后,该系统必须记住我们生态系统的复杂结构,并以对共同家园的态度为特征。应该从最理性的角度来解决这个问题,其方法应该包括使用AI来确保将来稳定的食物系统。”

简而言之:

  1. AI不得歧视任何人
  2. 人工智能应该只有好的意图
  3. 人工智能必须照顾环境的可持续性

应当牢记的一点是,无论这些系统看起来已经是自主的并且自己创造自己的命运,人工智能都不会决定其未来本身。

所有这些都是错误的,至少在现在(不久的将来会如此)。

换句话说,只有我们人类才能创建这些系统。因此,只有人类才对AI系统的工作负责。

我之所以这么说是因为,这是一种简单的方法,可以避免AI工程师和开发人员假装他们不应该为产品的错误负责。

当您与机动车管理部门联系以更新驾照并使其信息系统崩溃时,您可能已经很熟悉这种情况。同时,管理代理只会耸耸肩,抱怨这一切总是发生在设备上。

确切地说,它不会永远持续下去,而且不会持续所有技术。

如果计算机系统无法正常工作,则应该负责安装计算机且无法正确备份的人员,并且在必要时也无法提供访问系统的能力。

不要陷入逻辑陷阱,不同意计算机系统(包括AI系统)有自己的见解的事实,如果它们发疯了,那就不是说“技术总是会发生”。

事实是,开发和实施计算机系统的人员应承担全部责任,因为他们没有采取足够的措施并且没有对其工作给予足够的重视。

就教皇方济各呼吁参加至关重要的道德原则的讨论而言,所有这些论点似乎都很简单,不宜受到批评(因为它们显然是断断续续的天空),但尽管如此,仍有一些政党否认梵蒂冈提供。

为何如此?

首先,一些批评家声称,这一承诺没有强制性。如果公司同意,则不遵守承诺原则将不会受到惩罚。因此,您可以订阅而不必担心责任。对许多人来说,没有后果的保证似乎是空洞的。

其次,一些人对这样的事实感到担忧,那就是天主教呼吁AI伦理。原因是教堂的存在将宗教引入了主题,尽管有些人认为这与主题无关。

问题出现了-其他宗教会发出类似的呼吁吗?如果是这样,哪个会占上风?我们将如何处理一系列分散且分散的AI伦理声明?

第三,有些人认为这种保证是非常软性和过于笼统的。

该文档可能不包含可以以任何实际方式实施的实质性指示。

而且,那些想逃避责任的开发人员可能会声称他们误解了一般性规定,或者对它们的解释与预期不同。

因此,鉴于一连串的谴责,我们是否应该摆脱梵蒂冈对人工智能算法的呼吁?

离开主题,我注意到算法伦理学是一个与算法伦理学相关的问题。这可能是一个好名字,但它不是很响亮,不太可能被普遍接受。时间会证明一切。

回到主题-我们是否应该注意对AI伦理的呼吁?

是的,我们必须。

尽管事实上该文件没有为不遵守原则规定任何经济制裁,但还有一个方面也需要考虑。签署此电话的公司可能会被公众追究责任。如果他们违背了诺言,并且教会指出了诺言,那么不好的广告宣传就会损害这些公司-这将导致该行业的业务和声誉丧失。

您可以说,违反这些原则意味着隐含某种付款方式,或者认为它是隐藏的。

至于宗教在一个似乎不属于宗教的话题中的出现,那么请理解这是一个完全不同的问题。这个问题值得进行大量讨论和辩论,但也要承认,现在有许多道德体系,并且要求来自各种渠道的AI道德规范。

换句话说,此呼叫不是第一个。

如果您仔细研究该文档,将会发现没有与宗教学说相关的摘要。这意味着您无法将其与没有任何宗教背景的任何类似表演区分开。

最后,从本文的模糊性角度来看-是的,您可以轻松地驾驶Mack卡车穿越众多漏洞,但是想要作弊的人还是会作弊。

我认为将在AI领域采取进一步的措施,这些步骤将通过具体的指南来补充梵蒂冈文件,从而帮助填补空白和遗漏。

还有可能任何试图作弊的人都将受到全世界的谴责,关于涉嫌误解该文件的虚假陈述将被视为显而易见的trick俩,而这些only俩只是为了避免遵守合理制定的,相当明显的AI道德标准。文献。

谈到每个人都了解AI道德原则的信念,请考虑对AI的无数使用。

在应用人工智能领域中,有一个与伦理学主题相关的有趣例子:应根据梵蒂冈的吸引力开发无人驾驶汽车并将其投入道路吗?

我的回答是肯定的。

实际上,我敦促所有汽车和车辆制造商签署该文件。

无论如何,让我们看看这个问题,看看这种吸引力如何适用于真正的无人驾驶汽车。

无人驾驶水平仪


重要的是要澄清我所说的带AI的完全无人驾驶汽车的意思。

真正的无人驾驶车辆是AI在没有任何人工协助的情况下自行管理的车辆。

此类车辆被分配到级别4和5,而需要人工参与以进行共同驾驶的汽车通常被分配到级别2或3。在个人帮助下驾驶的汽车称为半自动驾驶汽车,通常它们包含许多称为ADAS(高级驾驶员辅助系统)的附加功能。

到目前为止,还没有完全无人驾驶的5级车辆。今天,我们什至不知道这是否可以实现以及需要多长时间。

同时,第4级区域的工作正在进行中。在公开道路上进行了非常狭窄和选择性的测试,尽管人们对此类测试的可接受性存有争议(有些人认为,参加公路和高速公路测试的人就像豚鼠一样,在每次测试中都可以存活或死亡) 。

由于半自动驾驶汽车需要人工驾驶,因此大众采用这种汽车与驾驶普通汽车并没有太大区别,因此在我们的主题中,关于它们的说法没有什么新的(不过,正如您很快就会看到的那样,可以考虑的要点)进一步适用于他们)。

对于半自动驾驶汽车,重要的是要警告公众最近出现的令人不安的方面-尽管人们继续发布有关在驾驶2或3级汽车时如何入睡的视频,我们都需要记住驾驶员不能分散驾驶半自动车的注意力。

无论自动化级别如何,您都有责任控制车辆级别2或3。

无人驾驶汽车和AI伦理


在4级和5级车辆中,没有人参与管理,这些车中的所有人员均为乘客,而AI将参与驾驶。

乍一看,您可以假设不需要考虑AI道德问题。

无人驾驶车辆是无需驾驶员即可运输您的车辆。

您可能会认为没有类似的东西,并且AI驱动程序如何处理控件也没有道德方面的考虑。

抱歉,但那些认为所有与AI道德无关的人都需要敲打头或者向这些人倒冷水(我反对暴力,这只是一个比喻)。

与AI道德相关的考量因素很多(您可以阅读有关这个环节,对AI道德位于全球方面的文章在这里,并在专家的建议在这一领域的潜在的文章是在这里)。

让我们简要看一下《罗马呼吁人工智能伦理》中概述的六项基本原则。

我将努力使本文保持简洁,因此,我将提供指向其他出版物的链接,这些出版物包含有关以下重要主题的更多详细信息:

原则1:“透明度:人工智能系统必须具有内在的可解释性”


你坐的是无人驾驶汽车,他拒绝去你说的地方。

如今,大多数无人驾驶系统的开发都没有对其行为的任何解释。

拒绝的原因可能是,例如龙卷风或无法满足的要求(例如,附近没有可通行的道路)。

但是,如果没有XAI(AI的缩写,它带有解释),您将无法理解正在发生的事情(此处有更多信息)。

原则2:“包容性:必须考虑到所有人的需求,以便所有人享有相同的利益,并应向所有人提供自我表达和发展的最佳条件”


有些人担心无人驾驶汽车只会提供给富人,而不会给其他人群带来任何好处(请参阅此处的链接)。

我们得到什么-所有人的流动性还是少数人的流动性?

原则3:“责任:开发和实施AI系统的人必须承担责任,其工作必须透明”


在必须选择是撞倒跑上马路的孩子或撞上树木以致伤害乘客的情况下,人工智能会怎么做?

这种困境也称为手推车问题(请参阅链接)。许多要求汽车制造商和无人驾驶汽车技术公司透明地了解其系统如何做出有利于生死的决策。

原则4:“公正性:在没有偏见的情况下建立人工智能系统并采取行动,从而确保正义和人的尊严”


假设具有自动控制功能的汽车根据行人的种族特征对行人做出反应。

或假设无人驾驶车辆学会避免在某些区域驾驶,这将剥夺居民免费使用不需要驾驶员的汽车的机会。

与机器学习和深度学习系统相关的偏见是一个主要问题

原则5:“可靠性:人工智能系统必须可靠地工作”


您正在驾驶具有自动控制功能的汽车,他突然移到路边停车。为什么?您可能没有任何线索。

人工智能可能已经达到其范围的极限。

或AI系统崩溃,发生错误或类似的东西。

原则6:“安全性和机密性:AI系统必须安全工作并尊重用户机密性”


在酒吧里玩耍后,您会坐上无人驾驶汽车。

事实证明,这台机器不仅在外部而且在内部都有摄像机。

实际上,机舱中的摄像头是必需的,以捕捉会涂鸦或破坏汽车内部的乘客。

无论如何,在您无人驾驶汽车时,所有这些摄像头都会带您一路走,由于您身处醉酒状态,您的不连贯短语也会出现在此视频中。

谁拥有此视频,他可以做什么?

无人驾驶汽车的车主是否应该向您提供视频,并且有什么阻止他将视频上传到Internet的问题?

有许多隐私问题仍需要解决。

从安全性的角度来看,智能驾驶系统有许多黑客手段。

想象一下可以攻击AI无人机的攻击者。他可以控制,或至少命令汽车将您带到绑架者等你的地方。

无人驾驶车辆系统或其云系统中存在许多与安全漏洞相关的令人毛骨悚然的场景。汽车制造商以及技术公司都必须使用必要的防护系统和预防措施。

结论


如果将此呼吁与其他许多人与AI的道德规范进行比较,您会发现它们有很多共同点。

批评声称,最终我们将有不可估量的众多此类呼吁,这是正确的,但可以假设,涵盖所有基本原理也不会受到损害。

这种情况开始变得有点混乱,并且AI制造商将使用这样的借口,因为没有统一的公认标准,所以他们将等到出现这样的文档。

听起来像是合理的借口,但我不会购买。

所有说要等到由某个大人物编写的全球接受版本都获得批准的制造商,实际上,他们准备推迟采用任何AI道德规范,他们的期望可能是相同的。像戈多的期望一样

我敦促您选择任何有关AI道德的手册,其中有一些重要的内容,是权威人士提出的,并着手实施该道德。

迟早要好。



图片

关于ITELMA
- automotive . 2500 , 650 .

, , . ( 30, ), -, -, - (DSP-) .

, . , , , . , automotive. , , .

阅读更多有用的文章:


All Articles