Papst: Ethik für KI und unbemannte Fahrzeuge

Bild

Der Papst befürchtet, dass KI Menschen schaden könnte , anstatt ein Werkzeug zu werden, das die Gesellschaft ergänzt und ihr Leben verbessert.

Laut dem Vatikan sagt uns ein kürzlich veröffentlichtes Dokument namens " Rome Call For AI Ethics", welche Richtung AI als Technologie einschlagen sollte, die darauf abzielt, die Gesellschaft zu verbessern und zu verhindern Aussichten auf Schaden und Tod der Gesellschaft.

Manchmal neigen Wissenschaftler dazu, Innovationen einzuführen, ohne die möglichen Konsequenzen explizit zu untersuchen. Daher gibt es viele Forderungen, der Ethik der KI im Zeitalter der Entwicklung und Implementierung intelligenter Systeme Aufmerksamkeit zu schenken (insbesondere wenn es um Systeme geht, die auf maschinellem und tiefem Lernen basieren).

Hier ein Schlüsselzitat aus einem vom Papst herausgegebenen Dokument:

„Jetzt müssen wir mehr denn je die Aussichten garantieren, nach denen sich die KI entwickeln wird, wobei der Schwerpunkt nicht auf Technologie, sondern auf dem Nutzen der Menschheit, der Umwelt, unserer gemeinsamen Heimat und ihrer untrennbaren Bewohner liegt verbunden

Die katholische Kirche bittet alle an der Schaffung der KI Beteiligten, sich an die möglichen Aktionen dieser Systeme zu erinnern. Dies schließt auch einen Aufruf ein, sowohl die erwarteten als auch die möglicherweise unbeabsichtigten Folgen zu berücksichtigen.

Einige KI-Entwickler blenden die Tatsache aus, dass die Aktionen ihrer Entwicklungen unbeabsichtigte nachteilige Auswirkungen haben können.

Denken Sie an die folgenden Aspekte der sozialen Dynamik:

  • Einige Ingenieure und Wissenschaftler glauben, dass alle anderen Konsequenzen nicht in ihrer Verantwortung liegen, solange das KI-System mindestens das tut, was sie erwartet haben, und versuchen daher, sich die Hände von solchen Schwierigkeiten zu waschen.
  • ( , , , , ).
  • , , . , , .
  • , «» , - . , .
  • , , . , , ( – , – ).

– ,


Ein von der katholischen Kirche veröffentlichtes Dokument dient als eine Art Versprechen, und alle, die an der Schaffung von KI-Systemen beteiligt sind, werden höflich gebeten, dieses Versprechen zu unterzeichnen.

In der Tat wurde dieses Dokument bereits von mehreren Akteuren unterzeichnet, darunter IBM und Microsoft.

Was verlangt dieses Dokument von den Unterzeichnern?

Ich werde kurz auf einige Details eingehen. Dieser beschreibt drei Grundprinzipien. Das KI-System sollte also:

"... für alle inklusiv zu sein und niemanden zu diskriminieren; im Herzen dieses Systems muss die Freundlichkeit der gesamten Menschheit und insbesondere jeder Person stehen; schließlich muss sich dieses System an die komplexe Struktur unseres Ökosystems erinnern und durch seine Haltung gegenüber unserem gemeinsamen Zuhause gekennzeichnet sein. Intelligentes System "sollte dieses Problem von der rationalsten Seite her angehen, und sein Ansatz sollte den Einsatz von KI umfassen, um in Zukunft stabile Lebensmittelsysteme zu gewährleisten."

Also kurz gesagt:

  1. KI darf niemanden diskriminieren
  2. KI sollte nur gute Absichten haben
  3. KI muss sich um ökologische Nachhaltigkeit kümmern

Der Aspekt, der berücksichtigt werden sollte, ist, dass die KI ihre Zukunft nicht selbst bestimmt, egal wie es scheint, dass diese Systeme bereits autonom sind und selbst ihr eigenes Schicksal schaffen.

All dies ist zumindest vorerst falsch (es wird in naher Zukunft so sein).

Mit anderen Worten, nur wir Menschen schaffen diese Systeme. Daher sind nur Menschen für das verantwortlich, was KI-Systeme tun.

Ich spreche darüber, weil dies ein einfacher Ausweg aus der Situation ist, in der KI-Ingenieure und -Entwickler so tun, als seien sie nicht für die Fehler ihres Produkts verantwortlich.

Sie sind wahrscheinlich mit der Situation vertraut, wenn Sie sich an die Kfz-Verwaltung wenden, um Ihren Führerschein zu erneuern, und das Informationssystem abstürzt. Gleichzeitig zuckt der Management-Agent nur mit den Schultern und beschwert sich, dass dies alles immer mit dem Gerät passiert.

Um genau zu sein, es dauert nicht ewig und nicht mit der ganzen Technologie.

Wenn das Computersystem nicht funktioniert, liegt der Fehler bei den Personen, die den Computer eingerichtet haben und nicht ordnungsgemäß sichern konnten, und die auch nicht die Möglichkeit boten, bei Bedarf auf das System zuzugreifen.

Fallen Sie nicht in die logische Falle, widersprechen Sie der Tatsache, dass Computersysteme (einschließlich KI-Systeme) ihre eigenen Meinungen haben, und wenn sie verrückt werden, ist es nicht so, dass dies „immer mit Technologie geschieht“.

Die Wahrheit ist, dass die Leute, die das Computersystem entwickelt und implementiert haben, die volle Verantwortung tragen, da sie nicht genügend Maßnahmen ergriffen und ihrer Arbeit nicht genügend Aufmerksamkeit geschenkt haben.

Im Fall der Forderung von Papst Franziskus, an der Diskussion über wichtige ethische Grundsätze teilzunehmen, scheint es, dass all diese Thesen sehr einfach und nicht kritisierbar sind (weil sie als Behauptung offensichtlich sind, dass der Himmel blau ist), aber es gibt trotzdem Parteien, die dies leugnen Vatikan bietet.

Wie das?

Erstens behaupten einige Kritiker, dass dieses Versprechen keinen obligatorischen Aspekt habe. Wenn das Unternehmen es abonniert, folgt bei Nichteinhaltung der Grundsätze der Verpfändung keine Bestrafung. So können Sie ohne Angst vor Verantwortung abonnieren. Ein Versprechen ohne Konsequenzen erscheint vielen leer.

Zweitens sind einige besorgt darüber, dass es die katholische Kirche war, die die KI-Ethik forderte. Der Grund ist, dass die Anwesenheit der Kirche die Religion in das Thema einführt, obwohl einige glauben, dass sie nichts mit dem Thema zu tun hat.

Es stellt sich die Frage, ob andere Religionen ähnliche Forderungen stellen werden. Und wenn ja, welche werden sich durchsetzen? Und was werden wir mit einem fragmentierten und unterschiedlichen Satz von KI-Ethik-Erklärungen tun?

Drittens glauben einige, dass diese Garantie sehr weich und zu allgemein ist.

Wahrscheinlich enthält das Dokument keine inhaltlichen Richtlinien, die auf praktische Weise umgesetzt werden könnten.

Darüber hinaus können Entwickler, die der Verantwortung ausweichen möchten, behaupten, die allgemeinen Bestimmungen missverstanden oder anders als beabsichtigt interpretiert zu haben.

Sollten wir angesichts der Flut der Verurteilung diesen Aufruf des Vatikans zugunsten der KI-Algoethik loswerden?

Wenn ich mich vom Thema entferne, stelle ich fest, dass Algoethik ein Name ist, der Fragen im Zusammenhang mit der algorithmischen Ethik gegeben wird. Dies mag ein guter Name sein, aber er ist nicht sehr klangvoll und wird wahrscheinlich nicht allgemein akzeptiert. Die Zeit wird zeigen.

Zurück zum Thema - sollten wir diesem Aufruf zur KI-Ethik Aufmerksamkeit schenken oder nicht?

Ja, wir müssen.

Trotz der Tatsache, dass dieses Dokument zugegebenermaßen keine finanziellen Sanktionen für die Nichteinhaltung der Grundsätze vorsieht, ist noch ein weiterer Aspekt zu berücksichtigen. Unternehmen, die diesen Aufruf unterzeichnen, können von der Öffentlichkeit zur Rechenschaft gezogen werden. Wenn sie ihre Versprechen brechen und die Kirche darauf hinweist, kann schlechte Werbung diesen Unternehmen schaden - dies führt zum Verlust von Geschäft und Ansehen in dieser Branche.

Man könnte sagen, dass bei Verstößen gegen diese Grundsätze eine Art von Zahlung impliziert ist oder dass diese verborgen ist.

Was das Auftreten von Religion in einem Thema betrifft, in dem es anscheinend nicht dazu gehört, dann verstehe, dass dies ein völlig anderes Thema ist. Dieses Thema ist eine beträchtliche Diskussion und Debatte wert, erkennt aber auch an, dass es mittlerweile viele ethische Systeme gibt, und fordert KI-Ethik aus einer Vielzahl von Quellen.

Mit anderen Worten, dieser Anruf ist nicht der erste.

Wenn Sie dieses Dokument sorgfältig studieren, werden Sie feststellen, dass es keine Abstracts gibt, die sich auf religiöse Lehren beziehen. Dies bedeutet, dass Sie es nicht von ähnlichen unterscheiden können, die ohne religiösen Kontext aufgeführt werden.

Aus der Sicht der Unbestimmtheit dieses Dokuments - ja, Sie könnten leicht einen Mack-Truck durch zahlreiche Lücken fahren, aber diejenigen, die betrügen wollen, werden immer noch betrügen.

Ich gehe davon aus, dass weitere Schritte auf dem Gebiet der KI unternommen werden, und diese Schritte werden das vatikanische Dokument mit spezifischen Leitlinien ergänzen, die dazu beitragen, Lücken und Lücken zu schließen.

Es ist auch möglich, dass jeder, der versucht zu betrügen, von der ganzen Welt verurteilt wird und falsche Aussagen über ein angebliches Missverständnis des Dokuments als offensichtliche Tricks angesehen werden, die nur erforderlich sind, um die Einhaltung angemessen formulierter und ganz offensichtlicher ethischer Standards der KI zu vermeiden, die in proklamiert werden dokumentieren.

Wenn Sie von der Überzeugung sprechen, dass jeder die Prinzipien der KI-Ethik versteht, sollten Sie die unzähligen Einsatzmöglichkeiten von KI in Betracht ziehen.

Auf dem Gebiet der angewandten KI gibt es ein interessantes Beispiel zum Thema Ethik: Sollten unbemannte Fahrzeuge gemäß der Anziehungskraft des Vatikans entwickelt und auf die Straße gebracht werden?

Meine Antwort lautet auf jeden Fall ja.

Tatsächlich fordere ich alle Auto- und Fahrzeughersteller auf, dieses Dokument zu unterschreiben.

Schauen wir uns auf jeden Fall dieses Problem an und sehen wir, wie dieser Reiz für echte unbemannte Fahrzeuge gilt.

Unbemannte Fahrzeugebenen


Es ist wichtig zu klären, was ich meine, wenn ich über völlig unbemannte Fahrzeuge mit KI spreche.

Echte unbemannte Fahrzeuge sind Fahrzeuge, in denen sich die KI ohne menschliche Hilfe selbst verwaltet.

Solche Fahrzeuge sind den Stufen 4 und 5 zugeordnet, während Fahrzeuge, für deren Mitfahren eine menschliche Beteiligung erforderlich ist, normalerweise den Stufen 2 oder 3 zugeordnet sind. Autos, bei denen das Fahren mit Hilfe einer Person als halbautonom bezeichnet wird und die normalerweise viele zusätzliche Funktionen enthalten, die als ADAS (Advanced Driver Assistance Systems) bezeichnet werden.

Bisher gibt es kein völlig unbemanntes Fahrzeug der Stufe 5. Heute wissen wir nicht einmal, ob und wie lange dies erreicht werden kann.

In der Zwischenzeit wird im Bereich Level 4 gearbeitet. Auf öffentlichen Straßen werden sehr enge und selektive Tests durchgeführt, obwohl über die Zulässigkeit solcher Tests diskutiert wird (einige glauben, dass Personen, die an Tests auf Straßen und Autobahnen teilnehmen, als Meerschweinchen fungieren, die bei jedem Test überleben oder sterben können). .

Da halbautonome Autos einen menschlichen Fahrer erfordern, wird sich die Akzeptanz solcher Autos durch die Massen nicht wesentlich vom Fahren gewöhnlicher Autos unterscheiden. Im Zusammenhang mit unserem Thema kann nichts Neues über sie gesagt werden (obwohl, wie Sie gleich sehen werden, die Punkte berücksichtigt werden weiter auf sie anwendbar).

Bei halbautonomen Autos ist es wichtig, dass die Öffentlichkeit vor einem störenden Aspekt gewarnt wird, der in letzter Zeit aufgetreten ist. Trotz Menschen, die weiterhin Videos darüber veröffentlichen, wie sie beim Fahren von Autos mit zwei oder drei Ebenen einschlafen, müssen wir uns alle daran erinnern, dass der Fahrer kann nicht vom Fahren eines halbautonomen Autos abgelenkt werden.

Sie sind für Maßnahmen zur Steuerung der Fahrzeugstufe 2 oder 3 verantwortlich, unabhängig vom Automatisierungsgrad.

Unbemannte Fahrzeuge und KI-Ethik


In Fahrzeugen der Stufen 4 und 5 nimmt eine Person nicht am Management teil, alle Personen in diesen Fahrzeugen sind Passagiere und die KI fährt.

Auf den ersten Blick können Sie davon ausgehen, dass Fragen der KI-Ethik nicht berücksichtigt werden müssen.

Ein unbemanntes Fahrzeug ist ein Fahrzeug, das Sie ohne Fahrer transportieren kann.

Sie könnten denken, dass es nichts Vergleichbares gibt und es keine ethischen Überlegungen gibt, wie der KI-Treiber mit der Steuerung umgeht.

Sorry, aber diejenigen, die denken, dass all dies nichts mit der Ethik der KI zu tun hat, müssen auf den Kopf klopfen oder kaltes Wasser auf diese Menschen gießen (ich bin gegen Gewalt, das ist nur eine Metapher).

Es gibt viele Überlegungen zur KI-Ethik (Sie können meine Rezension weiterlesenLink ist ein Artikel über die globalen Aspekte der AI Ethik liegt hier , und ein Artikel über das Potenzial von Expertenwissen in diesem Bereich ist hier ).

Lassen Sie uns einen kurzen Blick auf jedes der sechs Grundprinzipien werfen, die im römischen Aufruf zur KI-Ethik dargelegt sind.

Ich werde mich bemühen, diesen Artikel kurz zu halten, und daher Links zu meinen anderen Veröffentlichungen anbieten, die detailliertere Informationen zu den folgenden wichtigen Themen enthalten:

Prinzip 1: „Transparenz: KI-Systeme müssen von Natur aus erklärbar sein“


Sie steigen in ein unbemanntes Auto und er weigert sich, dorthin zu fahren, wo Sie es gesagt haben.

Heutzutage werden die meisten unbemannten Fahrsysteme ohne Erklärung ihres Verhaltens entwickelt.

Der Grund für die Ablehnung kann beispielsweise ein Tornado oder eine Anfrage sein, die nicht erfüllt werden kann (zum Beispiel gibt es keine befahrbaren Straßen in der Nähe).

Ohne XAI (die Abkürzung für AI, die mit Erklärungen arbeitet) werden Sie jedoch nicht verstehen, was passiert (mehr dazu hier).

Prinzip 2: „Inklusivität: Die Bedürfnisse aller Menschen müssen berücksichtigt werden, damit die Vorteile für alle gleich sind und allen Menschen die besten Bedingungen für Selbstdarstellung und Entwicklung geboten werden.“


Einige befürchten, dass unbemannte Fahrzeuge nur den Reichen zur Verfügung stehen und dem Rest der Bevölkerung keinen Nutzen bringen werden (siehe Link hier).

Was bekommen wir - Mobilität für alle oder für wenige?

Prinzip 3: „Verantwortung: Wer KI-Systeme entwickelt und implementiert, muss verantwortungsbewusst handeln und seine Arbeit muss transparent sein.“


Was wird die KI in einer Situation tun, in der sie entscheiden muss, ob sie ein Kind, das auf die Straße gerannt ist, schlagen oder gegen einen Baum stoßen soll, was den Passagieren schaden wird?

Dieses Dilemma wird auch als Trolley-Problem bezeichnet (siehe Link). Viele verlangen von Autoherstellern und unbemannten Fahrzeugtechnikunternehmen, dass sie transparent darüber sind, wie ihre Systeme Entscheidungen zugunsten von Leben oder Tod treffen.

Prinzip 4: „Unparteilichkeit: KI-Systeme aufbauen und vorurteilsfrei handeln, um Gerechtigkeit und Menschenwürde zu gewährleisten“


Angenommen, ein Auto mit automatischer Steuerung reagiert auf Fußgänger abhängig von ihren Renncharakteristika.

Oder nehmen wir an, eine Flotte unbemannter Fahrzeuge lernt, das Fahren in bestimmten Gebieten zu vermeiden, wodurch den Bewohnern der freie Zugang zu Autos entzogen wird, die keinen Fahrer benötigen.

Die mit maschinellem Lernen und Deep-Learning-Systemen verbundenen Vorurteile sind ein Hauptanliegen

Prinzip 5: „Zuverlässigkeit: KI-Systeme müssen zuverlässig funktionieren“


Sie fahren ein Auto mit automatischer Steuerung, und er bewegt sich plötzlich an den Straßenrand und hält an. Warum? Möglicherweise haben Sie keine Ahnung.

AI hat möglicherweise die Grenzen seines Anwendungsbereichs erreicht.

Oder vielleicht ist das KI-System abgestürzt, ein Fehler ist aufgetreten oder so etwas.

Prinzip 6: „Sicherheit und Vertraulichkeit: KI-Systeme müssen sicher funktionieren und die Vertraulichkeit der Benutzer respektieren“


Sie steigen in ein unbemanntes Fahrzeug, nachdem Sie Spaß in den Bars haben.

Es stellt sich heraus, dass diese Maschine Kameras nicht nur außen, sondern auch innen hat.

Tatsächlich werden die Kameras in der Kabine benötigt, um Passagiere zu fangen, die Graffiti zeichnen oder den Innenraum des Autos verderben.

In jedem Fall nehmen Sie all diese Kameras die ganze Zeit mit, während Sie in einem unbemannten Auto fahren, und Ihre inkohärenten Sätze werden auch in diesem Video angezeigt, weil Sie betrunken sind.

Wem gehört dieses Video und was kann er damit machen?

Sollte der Besitzer eines unbemannten Autos Ihnen ein Video zur Verfügung stellen, und gibt es etwas, das ihn daran hindert, dieses Video ins Internet hochzuladen?

Es gibt viele Datenschutzprobleme, die noch behoben werden müssen.

Aus Sicherheitsgründen gibt es viele Hacking-Optionen für intelligente Fahrsysteme.

Stellen Sie sich einen Angreifer vor, der ein KI-Drohnenauto hacken kann. Er kann die Kontrolle übernehmen oder zumindest ein Auto bestellen, das Sie zu dem Ort bringt, an dem die Entführer auf Sie warten.

Es gibt viele gruselige Szenarien, die mit Sicherheitslücken in unbemannten Fahrzeugsystemen oder in ihren Cloud-Systemen verbunden sind. Und Automobilhersteller müssen zusammen mit Technologieunternehmen die erforderlichen Schutzsysteme und Vorsichtsmaßnahmen anwenden.

Fazit


Wenn Sie diesen Aufruf mit der Ethik der KI mit vielen anderen vergleichen, werden Sie feststellen, dass sie viel gemeinsam haben.

Die Kritik, die behauptet, dass wir am Ende eine unermessliche Vielzahl solcher Appelle haben werden, ist etwas richtig, aber es kann davon ausgegangen werden, dass es auch nicht schaden wird, absolut alle Grundlagen abzudecken.

Diese Situation wird langsam etwas verwirrend, und KI-Hersteller werden die Ausrede verwenden, dass sie warten werden, bis ein solches Dokument erscheint, da es keinen einzigen akzeptierten Standard gibt.

Klingt nach einer vernünftigen Ausrede, aber ich werde sie nicht kaufen.

Alle Hersteller, die sagen, dass sie warten werden, bis die von einem Big Shot zusammengestellte weltweite Version genehmigt ist, sind tatsächlich bereit, die Annahme eines Ethikkodex der KI zu verschieben, und ihre Erwartungen können dieselben sein. wie Godots Erwartung.

Ich fordere Sie dringend auf, ein Handbuch zur Ethik der KI zu wählen, in dem etwas Wichtiges enthalten ist und das von einer maßgeblichen Quelle vorgeschlagen wird, und mit der Umsetzung dieser Ethik fortzufahren.

Besser früher als später.



Bild

Über ITELMA
- automotive . 2500 , 650 .

, , . ( 30, ), -, -, - (DSP-) .

, . , , , . , automotive. , , .

Lesen Sie weitere nützliche Artikel:


All Articles