US-Verteidigungsministerium: Ethik für KI und unbemannte Fahrzeuge

Bild

Ethik-KI ist heutzutage ein heißes und relevantes Thema. Und es ist richtig.

Angesichts der Blütezeit der KI-Systeme und ihres weit verbreiteten Auftretens gibt es vernünftige Bedenken, dass diese Computersysteme einfach in diese Welt geworfen werden, ohne die möglichen Konsequenzen für die Gesellschaft zu verstehen.

Es besteht ernsthafte Besorgnis darüber, dass in die neuen Systeme der künstlichen Intelligenz Vorurteile eingebaut sind und sie zu ethisch und gesellschaftlich toxischen Handlungen neigen .

Wenn es um die Ethik der künstlichen Intelligenz geht, argumentiere ich, dass es mindestens zwei Hauptaspekte (oder Regeln) gibt:

  1. Das Verhalten des KI-Systems sollte für die Gesellschaft akzeptabel sein
  2. KI-Systemdesigner und die Systeme selbst müssen Regel 1 durchsetzen.

Vielleicht liegt das Wesentliche der ersten Regel auf der Hand - die Bedeutung der KI-Ethik besteht darin, dass das Verhalten dieser Systeme den ethischen Standards der Gesellschaft entsprechen sollte.

Im Folgenden wird gezeigt, dass die Einhaltung der ersten Regel komplizierter ist, als es den Anschein hat.

In Regel 2 muss klargestellt werden, dass die Parteien, die für die vollständige Einhaltung der KI-Ethik verantwortlich sind, aus Personen bestehen, die diese Systeme entwerfen, bauen und vertreiben.

Wenn Ihnen dies offensichtlich erscheint, beeilen Sie sich nicht, Urteile auf der Grundlage des "gesunden Menschenverstandes" zu fällen.

Um die KI-Systeme herum gibt es eine Art Aura, als ob sie autonom und zur Selbstbestimmung fähig wären. Wenn also das KI-System eine Art Manifestation rassistischer Vorurteile begeht , machen einige einen logischen Fehler, der besagt, dass die KI dies getan hat, ohne diejenigen zu beschuldigen, die dieses System geschaffen und implementiert haben.

Einige Entwickler und Hersteller dieser Systeme würden es sicherlich vorziehen, wenn Sie nicht in ihre Richtung schauen.wenn das KI-System etwas falsch macht.

Infolgedessen können diejenigen, die echte Verantwortung tragen, ein überraschtes Gesicht machen und schlau von ihren Pflichten zurückschrecken , indem sie sagen, dass die KI schuld ist. Diese Leute werden sich so verhalten, als würden sie nur den Zugunglück beobachten, selbst wenn sie es waren, die ihn auf die Schienen legten und ihn ohne Kontrolle oder Überprüfung starteten.

Natürlich werden einige ihr System verteidigen, das einen Fehler gemacht hat. Sie werden sagen, dass sie versucht haben, alle Fehler zu verhindern, aber verdammt, es hat etwas gefehlt . In gewissem Sinne werden diese Menschen versuchen, sich selbst zu „Opfern“ zu machen, im Gegensatz zu denen, die unter KI gelitten haben.

Lass dich davon nicht täuschen.

Lassen Sie sich davon bitte nicht täuschen.

Kurz gesagt, die zweite Regel ist genauso wichtig wie die erste.

Ohne die Menschen für die von ihnen geschaffenen KI-Aktionen zur Rechenschaft zu ziehen, werden wir alle in einer Pfütze sitzen.

Ich bin sicher, dass die Entwickler ihre Versprechen in Bezug auf die Entwicklung ihrer neuen KI-Systeme leicht einhalten werden . Diese Leute werden ihre Produkte loben und auf ihren Erfolg hoffen, und sie werden auch so tun, als hätten sie nichts mit Anwendungen zu tun, deren ethische Fehler uns allen aufgefallen sind. All dies wird die Schaffung von KI-Systemen fördern, die keine moralische Verantwortung tragen.

Ein weiterer Bereich, in dem die Ethik der KI besonders schwierig sein kann, ist die KI für militärische Zwecke.

Die meisten Menschen werden zustimmen, dass wir bei der Schaffung und Nutzung militärischer Nachrichtensysteme bestimmte ethische KI-Standards einhalten müssen. Das Wissen und die Erfahrung, die wir auf diese Weise sammeln, können für den kommerziellen und industriellen Einsatz von KI genutzt werden.

Das US-Verteidigungsministerium hat kürzlich eine Reihe von KI-Prinzipien veröffentlicht .

Wenn Sie diese Prinzipien isoliert betrachten (was ich in diesem Artikel tun werde), dh ohne Berücksichtigung der militärischen und defensiven Kontexte, können Sie sehen, dass sie für alle kommerziellen oder industriellen KI-Systeme gleichermaßen anwendbar sind.

Ich werde Ihnen über diese Prinzipien erzählen und meinen Lieblingsbereich dafür nutzen - die Entstehung echter unbemannter Fahrzeuge. Auf diese Weise kann ich veranschaulichen, wie anwendbar die neuesten Prinzipien der KI-Ethik (einschließlich nichtmilitärischer Verwendung) sind.

Medienberichten zufolge veröffentlichte das Pentagon diese neuesten ethischen KI-Standards und erklärte unter Berufung auf Air Force-Leutnant Jack Jack Shenhan und Direktor des Joint AI Center treffend : „AI ist eine leistungsstarke, sich entwickelnde und effektive Technologie, die Kultur, Gesellschaft und Gesellschaft rasch verändert letztendlich sogar Krieg. "Wie gut oder schlecht diese Änderungen sind, hängt von unserem Ansatz ab, diese Systeme zu übernehmen und zu nutzen."

Wie ich wiederholt gesagt habe, wird die Herangehensweise der Gesellschaft an die Entwicklung der KI das Schicksal dieses Systems bestimmen - ob es zum Guten wirkt oder ob es im Laufe der Zeit zu einem Misserfolg mit beklagenswerten Konsequenzen kommt (oder wird) .

Entwickler und Hersteller von KI-Systemen müssen ernsthaft unter Druck gesetzt werden.

Aus Gründen der Klarheit stelle ich fest, dass KI-Systeme von Natur aus nicht zum Guten funktionieren (es gibt keine Axiome und Voraussetzungen, die dies garantieren könnten).

Um dieses Problem vollständig zu untersuchen, werden wir mein Konzept betrachten, bei dem es sich um ein Vier-Quadrat-Schema handelt, das ich als KI-Ethik-Konsequenzschema bezeichne .

Herkömmlicherweise bezeichnen wir den oberen Teil der Abszissenachse als "KI für immer" und den unteren als "KI für Schaden". In ähnlicher Weise teilen wir die Ordinatenachse, die linke Seite wird als "absichtlich" bezeichnet und die rechte Seite wird als "unbeabsichtigt" bezeichnet.

Somit erhalten wir 4 Quadrate:

  1. Gute KI - absichtlich
  2. KI zum Nachteil - absichtlich
  3. KI für immer - ungewollt
  4. KI zum Nachteil - Versehentlich

Ich verstehe, dass einige von Ihnen entsetzt sein mögen, wenn sie ein so wichtiges Problem zu einem einfachen Vier-Quadrat-Schema vereinfachen, aber manchmal kann eine globale Perspektive nützlich sein - Sie können sie verwenden, um einen Wald zwischen Bäumen zu sehen.

Das erste Quadrat beschreibt eine gute KI, die mit guten Absichten erstellt wurde. Diese KI erfüllt ihre Ziele ohne ethische Verstöße, und ich glaube, dass dieses Quadrat der Standard ist, nach dem alle intelligenten Systeme streben sollten.

Das zweite Quadrat ist eine böswillige KI. Leider werden solche Systeme erstellt und freigegeben (von Kriminellen oder Terroristen), aber ich hoffe, dass wir dafür bereit sind und die Prinzipien der KI-Ethik uns helfen werden, ihr Auftreten zu erkennen.

Das dritte Feld ist zufälliges Glück. Er beschreibt eine Situation, in der jemand ein intelligentes System geschaffen hat, das sich plötzlich als gut herausstellte. Vielleicht hat sein Schöpfer nicht über die positive Richtung seiner Entwicklung nachgedacht, aber selbst wenn es nur eine erfolgreiche Kombination von Umständen ist, ist es immer noch ein Erfolg, denn für uns ist das Ergebnis die Grundlage.

Das vierte Quadrat ist das heimtückischste, und er ist es, der am meisten Angst macht (mit Ausnahme des gruseligen zweiten Quadrats). In der Regel fallen hier Systeme, die für das Gute arbeiten sollen, aber während der Entwicklung sammeln sich in ihnen negative Eigenschaften an, die sich mit dem Guten überschneiden.

Im Allgemeinen werden wir von Systemen umgeben sein, in denen gute und schlechte Eigenschaften nach und nach gemischt werden. Die Situation kann wie folgt beschrieben werden: Entwickler werden sich bemühen, eine gute KI zu erstellen, die nützlich ist, aber beim Erstellen unbeabsichtigter Fehler werden sich im System ansammeln , was zu nachteiligen Konsequenzen führt.

Betrachten Sie zwei wichtige Fragen:

  • Wie können wir verstehen oder entdecken, dass ein intelligentes System Merkmale einer schlechten KI enthalten kann?
  • Wie können Entwickler wissen, wie solche Systeme erstellt werden, um Fehler zu erkennen und die Entstehung von Systemen zu verhindern, deren Betrieb zu negativen Konsequenzen führen kann?

Antwort: Halten Sie sich strikt an die Regeln, die sich aus den korrekten und wesentlichen Grundsätzen der KI-Ethik ergeben.

In Bezug auf die KI-Ethikrichtlinien enthält ein vom Verteidigungsministerium herausgegebenes Dokument fünf Grundprinzipien, von denen jedes wichtige Ideen zum Ausdruck bringt, auf die alle Entwickler und Vertreiber von KI sowie alle, die diese Systeme verwenden oder verwenden werden, achten sollten.

Im Allgemeinen sind AI-Ethikrichtlinien für alle interessierten Parteien nützlich, nicht nur für Entwickler.

Der beste Weg, die Prinzipien aus einem Dokument des Verteidigungsministeriums zu lernen, besteht darin, sie in Bezug auf vorhandene intelligente Systeme zu demonstrieren.

Es lohnt sich, die dringende Frage zu prüfen: Sind die Grundsätze aus dem Kodex des Verteidigungsministeriums anwendbar?wirklich unbemannte Autos ? Wie sollten sie gegebenenfalls verwendet werden?

Sie sind wirklich anwendbar. Schauen wir uns an, wie sie funktionieren.

Unbemannte Fahrzeugebenen


Bild

Es ist wichtig zu klären, was ich meine, wenn ich über völlig unbemannte Fahrzeuge mit KI spreche.

Echte unbemannte Fahrzeuge sind Fahrzeuge, in denen sich die KI ohne menschliche Hilfe selbst verwaltet.

Solche Fahrzeuge sind den Stufen 4 und 5 zugeordnet , während Fahrzeuge, für deren Mitfahren eine menschliche Beteiligung erforderlich ist, normalerweise den Stufen 2 oder 3 zugeordnet sind . Autos, bei denen das Fahren mit Hilfe einer Person als halbautonom bezeichnet wird und die normalerweise viele zusätzliche Funktionen enthalten, die als ADAS (Advanced Driver Assistance Systems) bezeichnet werden.

Bisher gibt es kein völlig unbemanntes Fahrzeug der Stufe 5. Heute haben wir sogarWir wissen nicht, ob und wie lange dies erreicht wird.

In der Zwischenzeit wird im Bereich Level 4 gearbeitet. Auf öffentlichen Straßen werden sehr enge und selektive Tests durchgeführt, obwohl über die Zulässigkeit solcher Tests diskutiert wird (einige glauben, dass Personen, die an Tests auf Straßen und Autobahnen teilnehmen, als Meerschweinchen fungieren , die bei jedem Test überleben oder sterben können ). .

Da halbautonome Autos einen menschlichen Fahrer erfordern, wird sich die Akzeptanz solcher Autos durch die Massen nicht wesentlich vom Fahren gewöhnlicher Autos unterscheiden. Im Zusammenhang mit unserem Thema kann nichts Neues über sie gesagt werden (obwohl, wie Sie gleich sehen werden, die Punkte berücksichtigt werden weiter auf sie anwendbar).

Bei halbautonomen Autos ist es wichtig, dass die Öffentlichkeit vor einem störenden Aspekt gewarnt wird, der in letzter Zeit aufgetreten ist. Trotz Menschen, die weiterhin Videos darüber veröffentlichen, wie sie beim Fahren von Autos mit zwei oder drei Ebenen einschlafen, müssen wir uns alle daran erinnern, dass der Fahrer kann nicht vom Fahren eines halbautonomen Autos abgelenkt werden.

Sie sind für Maßnahmen zur Steuerung der Fahrzeugstufe 2 oder 3 verantwortlich, unabhängig vom Automatisierungsgrad.

Unbemannte Fahrzeuge und KI-Ethik


In Fahrzeugen der Stufen 4 und 5 nimmt eine Person nicht am Management teil, alle Personen in diesen Fahrzeugen sind Passagiere und die KI fährt. Infolgedessen werden viele intelligente Systeme in diese ebenen Fahrzeuge eingebaut - eine unbestreitbare Tatsache.

Die folgende Frage stellt sich: Wird die KI, die das unbemannte Fahrzeug fährt, auf Richtlinien oder Anforderungen zur Ethik der KI beschränkt sein (Sie können meine Analyse der Ethik der KI für unbemannte Fahrzeuge unter diesem Link sowie Tipps zur Entwicklung dieser Ethik einsehen ).

Denken Sie daran, dass es kein Standardsystem gibt, bei dem die KI ethische Standards oder einen moralischen Vertrag mit der Gesellschaft einhalten muss.

Die Menschen selbst müssen solche Überzeugungen oder Prinzipien in intelligente Systeme einbetten, und KI-Entwickler müssen dies explizit und mit großen Augen tun.

Leider verhalten sich einige umgekehrt - sie schließen die Augen fest oder fallen unter den Einfluss von Hypnose, und statt der oben genannten Maßnahmen sehen sie fasziniert aus, welchen potenziellen Preis ihr Projekt bringen wird (oder welches vermeintliche edle Ziel).

Ich habe gewarnt, dass einige KI-Systeme bei denjenigen, die sie entwickeln, zu „edler Korruption“ führen werden. Das Ergebnis wird wie folgt sein: Diejenigen, die an der Entwicklung beteiligt sind, werden so in das Potenzial einer wohlmeinenden KI vertieft sein, dass sie selektiv Überlegungen zur Ethik der KI ignorieren, verfehlen oder deren Aufmerksamkeit reduzieren (siehe Link).

Hier sind fünf Punkte im Set.KI-Ethikprinzipien des US-Verteidigungsministeriums :

Prinzip Eins: Verantwortung


"Die Mitarbeiter des Verteidigungsministeriums werden ein angemessenes Maß an Bewertung und Aufmerksamkeit durchführen und gleichzeitig für die Entwicklung, Bereitstellung und Nutzung von KI-Fähigkeiten verantwortlich sein."

Zunächst extrahieren wir aus dieser Formulierung den Teil, der von "Ministeriumspersonal" spricht, und ersetzen ihn durch "Alle Mitarbeiter". Sie haben ein Handbuch erhalten, das für jede Organisation geeignet ist, die mit KI arbeitet, insbesondere für kommerzielle Zwecke.

Autohersteller und Technologiefirmen, die mit unbemannten Fahrzeugen arbeiten, sollten den Wortlaut des Prinzips sorgfältig lesen und seinen Worten genau folgen.

Ich spreche darüber, da einige weiterhin argumentieren, dass die KI-basierte Drohne von selbst agieren wird, und daher wird es große Bedenken geben, wer sie tragen wirdHaftung für Fehler im Verhalten des Fahrzeugs , die zu Verletzungen oder zum Tod führen.

Kurz gesagt, die Leute werden verantwortlich sein .

Dies können Menschen sein, die eine KI-basierte Drohne entwickelt haben - ein Autohersteller oder ein Technologieunternehmen.

Verstehen Sie auch, dass ich ständig sage, dass zu den Verantwortlichen sowohl Entwickler als auch diejenigen gehören, die diese KI-Systeme bereitstellen . Das bedeutet, dass die Arbeit mit diesen Systemen und deren Installation genauso wichtig ist wie die Arbeit mit Entwicklern .

Warum?

Denn Menschen, die intelligente Systeme einsetzen, können auch Fehler machen, die zu nachteiligen Folgen führen.

Nehmen wir zum Beispiel an, dassEine Mitfahrzentrale hat eine Flotte unbemannter Fahrzeuge erworben und nutzt diese für gemeinsame Fahrten ihrer Kunden.

So weit, ist es gut.

Nehmen wir jedoch an, dass dieses Unternehmen diese unbemannten Fahrzeuge nicht ordnungsgemäß warten kann . Unbemannte Fahrzeuge funktionieren aufgrund mangelnder Wartung oder Nichtbeachtung von Anweisungen nicht. In diesem Fall könnten wir den ursprünglichen Entwickler bemängeln, aber es lohnt sich mehr, Fragen an diejenigen zu stellen, die das KI-System bereitgestellt haben und bei ihrer Arbeit nicht die gebotene Sorgfalt und Verantwortung gezeigt haben .

Prinzip Zwei: Unparteilichkeit


"Das Ministerium wird Maßnahmen ergreifen, um das Auftreten unbeabsichtigter Verzerrungen beim Betrieb von KI-Systemen zu minimieren."

Nehmen Sie den Begriff "Ministerium" erneut in den Wortlaut und ersetzen Sie ihn durch "Entwickler und Mitarbeiter, die KI-Systeme installieren". Sie erhalten ein universelles und für jeden geeignetes Prinzip.

Bei unbemannten Fahrzeugen besteht die Befürchtung, dass das KI-System je nach Rasse unterschiedlich auf Fußgänger reagiert und so subtil und unaufhaltsam rassistische Vorurteile zeigt.

Ein weiteres Problem besteht darin, dass die Flotte unbemannter Fahrzeuge dazu führen kann, dass Autos bestimmte Bereiche meiden. Dies wird zu einer geografischen Ausgrenzung führen, die letztendlich Menschen mit Mobilitätsproblemen beraubt .freier Zugang zu unbemannten Fahrzeugen.

Infolgedessen besteht eine erhebliche Wahrscheinlichkeit, dass vollwertige unbemannte Fahrzeuge in Vorurteile der einen oder anderen Form verfallen. Statt die Hände zu heben und zu sagen, dass dies das Leben ist, sollten Entwickler und Benutzer sich bemühen, solche Vorurteile zu minimieren, abzumildern oder abzubauen.

Prinzip Drei: Rückverfolgbarkeit


„Ministerialprojekte auf dem Gebiet der KI werden so entwickelt und eingesetzt, dass das relevante Personal ein angemessenes Verständnis für die auf dem Gebiet der KI anwendbaren Technologien, Entwicklungsprozesse und Betriebsmethoden hat, einschließlich transparenter und überprüfbarer Methoden, Datenquellen sowie Design und Dokumentation “.

Entfernen Sie einfach alle Verweise auf das Ministerium aus dem Wortlaut, oder wenn Sie möchten, können Sie es sich als jede Abteilung in einem Unternehmen oder einer Organisation vorstellen - dies macht das Prinzip für alle allgemein anwendbar.

Dieses Prinzip ist sehr inhärent, aber der Kürze halber werde ich mich nur auf einen Aspekt konzentrieren, den Sie vielleicht nicht bemerkt haben.

Der Artikel mit „Datenquellen“ zielt darauf ab, maschinelles Lernen zu verbreiten undtiefes Lernen .

Wenn Sie mit maschinellem / tiefem Lernen arbeiten, müssen Sie normalerweise eine große Menge von Daten sammeln und dann spezielle Algorithmen und Modelle verwenden, um Muster zu finden .

Ähnlich wie im vorhergehenden Absatz über versteckte Vorurteile werden diese Vorurteile möglicherweise durch Muster hervorgehoben, wenn die gesammelten Daten anfänglich in irgendeiner Weise verzerrt sind. Wenn das KI-System in Echtzeit arbeitet, werden diese Verzerrungen in die Realität umgesetzt.

Noch beängstigender ist, dass KI-Entwickler möglicherweise nicht verstehen, worum es geht, und diejenigen, die diese Systeme installieren und bereitstellen, dies auch nicht herausfinden können.

Eine Drohne, die auf verrückten und feindlichen Verkehr im bedingten New York trainiert ist, könnte möglicherweise übernehmenAggressiver Fahrstil typisch für einen Fahrer aus New York. Stellen Sie sich vor, Sie haben dieses System in US-Städten eingesetzt, in denen der Fahrstil ruhiger und gemessener ist.

Dieses Prinzip zeigt deutlich, dass Entwickler und Mitarbeiter, die für die Installation und Bereitstellung verantwortlich sind, auf die Datenquellen, die Transparenz und die Prüfung solcher Systeme achten sollten.

Prinzip vier: Zuverlässigkeit


„Ministeriumsprojekte auf dem Gebiet der KI werden klar definierte Verwendungen haben, und die Sicherheit, Zuverlässigkeit und Wirksamkeit solcher Projekte wird innerhalb der beschriebenen Verwendungen während des gesamten Lebenszyklus getestet und verifiziert.“

Befolgen Sie die gleichen Schritte wie in den vorherigen Absätzen: Entfernen Sie das Wort „Ministerium“ und Wenden Sie diesen Absatz so an, als ob er für eine Organisation und ihre Abteilung gilt.

Die meisten (oder vielleicht alle) wird mir zustimmen , dass der Erfolg oder Misserfolg von unbemannten Fahrzeugen hängt davon ab , ihre Sicherheit , Sicherheit , und Effizienz.

Ich hoffe, dass dieses Prinzip aufgrund seiner expliziten Anwendbarkeit auf AI-basierte Autos offensichtlich ist.

Prinzip fünf: Verwaltbarkeit


"Das Ministerium wird KI-bezogene Projekte entwerfen und entwickeln, um ihre beabsichtigten Funktionen auszuführen, während es in der Lage ist, unbeabsichtigte Konsequenzen im Voraus zu erkennen und zu vermeiden sowie eingesetzte Systeme mit abnormalem Verhalten zu deaktivieren oder zu deaktivieren."

Entfernen Sie wie üblich das Wort "Ministerium" und wenden Sie diesen Absatz auf alles an.

Der erste Teil dieses Prinzips liegt meinem Thema zugrunde, unerwartete, insbesondere nachteilige Folgen zu erkennen und zu verhindern.

Dies ist bei unbemannten Fahrzeugen ziemlich offensichtlich.

Es gibt auch einen subtilen Punkt in Bezug auf unbemannte Fahrzeuge, einschließlich der Möglichkeit, das eingesetzte KI-System zu deaktivieren oder zu deaktivieren, das unerwartetes Verhalten zeigte - es gibt viele Optionen und Schwierigkeiten, und dies ist nicht nur das Klicken auf die „rote“ Schaltfläche zum Herunterfahren außerhalb des Autos ( wie manche Leute denken) )

Fazit


Wir erwarten normalerweise, dass das Verteidigungsministerium seine Karten nicht aufdeckt.

In diesem Fall sollte das Ethikhandbuch der KI nicht geheim gehalten werden. In der Tat ist es sehr angenehm und lobenswert, dass das Verteidigungsministerium dieses Dokument veröffentlicht hat.

Am Ende ist es eine Sache, einen Tiger aus Papier zu kleben und eine andere, ihn in der realen Welt zu sehen.

Alle Entwickler und Mitarbeiter, die für die Installation und Bereitstellung verantwortlich sind, sollten dieses Handbuch zur KI-Ethik sowie ähnliche (viele von ihnen) ethische Grundsätze aus anderen Quellen sorgfältig und sorgfältig lesen.



Bild

Über ITELMA
- automotive . 2500 , 650 .

, , . ( 30, ), -, -, - (DSP-) .

, . , , , . , automotive. , , .

Lesen Sie weitere nützliche Artikel:


All Articles