Departemen Pertahanan AS: Etika untuk AI dan Kendaraan Tanpa Awak

gambar

Etika AI adalah topik hangat dan relevan saat ini. Dan itu benar.

Dengan masa kejayaan sistem AI dan kemunculannya yang sangat luas, ada kekhawatiran yang masuk akal bahwa sistem komputer ini dilemparkan ke dunia ini tanpa memahami konsekuensi yang mungkin terjadi bagi masyarakat.

Ada kekhawatiran serius bahwa sistem kecerdasan buatan yang baru memiliki prasangka yang tertanam di dalamnya dan rentan terhadap tindakan yang beracun dalam hal etika dan masyarakat.

Ketika sampai pada etika kecerdasan buatan, saya berpendapat bahwa setidaknya ada dua aspek utama (atau aturan):

  1. Perilaku sistem AI harus dapat diterima oleh masyarakat
  2. Perancang sistem AI dan sistem itu sendiri harus menegakkan aturan 1.

Mungkin esensi dari aturan pertama sudah jelas - makna etika AI adalah bahwa perilaku sistem ini harus sesuai dengan standar etika masyarakat.

Di bawah ini akan diperlihatkan bahwa kepatuhan terhadap aturan pertama lebih rumit daripada yang terlihat.

Pentingnya aturan 2 adalah untuk mengklarifikasi bahwa pihak-pihak yang bertanggung jawab untuk memastikan kepatuhan penuh dengan etika AI terdiri dari orang-orang yang merancang, membangun, dan mendistribusikan sistem ini.

Jika ini tampak jelas bagi Anda, maka jangan buru-buru membuat penilaian berdasarkan "akal sehat".

Di sekitar sistem AI, ada semacam aura, seolah-olah mereka otonom dan mampu menentukan nasib sendiri. Jadi, ketika sebuah sistem AI melakukan sesuatu seperti memanifestasikan prasangka rasial , beberapa membuat kesalahan logis dengan mengatakan bahwa AI melakukannya, tanpa menyalahkan mereka yang menciptakan dan mengimplementasikan sistem ini.

Beberapa pengembang dan produsen sistem ini tentu lebih suka Anda untuk tidak melihat ke arah mereka.ketika sistem AI melakukan sesuatu yang salah.

Akibatnya, mereka yang memikul tanggung jawab sejati dapat membuat wajah terkejut dan secara licik menghindar dari tugas mereka , dengan mengatakan bahwa AI yang harus disalahkan. Orang-orang ini akan berperilaku seolah-olah mereka hanya menonton kecelakaan kereta api, bahkan jika merekalah yang meletakkannya di rel dan memulainya tanpa kontrol atau verifikasi.

Tentu saja, beberapa akan mempertahankan sistem mereka yang melakukan kesalahan. Mereka akan mengatakan bahwa mereka mencoba untuk mencegah semua kegagalan, tetapi sial, ada sesuatu yang hilang . Dalam arti tertentu, orang-orang ini akan mencoba menjadikan diri mereka "korban," kontras dengan mereka yang menderita AI.

Jangan tertipu oleh ini.

Bahkan, tolong jangan tertipu oleh ini.

Singkatnya, aturan kedua sama pentingnya dengan yang pertama.

Tanpa membuat orang bertanggung jawab atas tindakan AI yang dibuat oleh mereka, kita semua akan duduk dalam genangan air.

Saya yakin bahwa pencipta akan dengan mudah lolos dengan janji-janji mereka terkait dengan pengembangan sistem AI baru mereka . Orang-orang ini akan memuji produk mereka, berharap untuk kesuksesan mereka, dan mereka juga akan berpura-pura bahwa mereka tidak ada hubungannya dengan aplikasi yang kesalahan etisnya telah jatuh pada kita semua. Semua ini akan mendorong terciptanya sistem AI yang tidak memiliki tanggung jawab moral.

Bidang lain di mana etika AI bisa sangat sulit adalah AI untuk keperluan militer.

Kebanyakan orang akan setuju bahwa kita perlu mematuhi standar etika AI tertentu ketika membuat dan menggunakan sistem intelijen militer. Pengetahuan dan pengalaman yang kami peroleh dengan cara ini dapat digunakan untuk penggunaan komersial dan industri AI.

Departemen Pertahanan AS baru-baru ini merilis seperangkat prinsip AI .

Jika Anda melihat prinsip-prinsip ini secara terpisah (yang akan saya lakukan dalam artikel ini), yaitu, tanpa mempertimbangkan konteks militer dan defensif, Anda dapat melihat bahwa prinsip-prinsip tersebut berlaku untuk semua sistem AI komersial atau industri.

Saya akan memberi tahu Anda tentang prinsip-prinsip ini, dan gunakan area favorit saya untuk ini - munculnya kendaraan tak berawak yang nyata. Ini akan memungkinkan saya untuk mengilustrasikan bagaimana menerapkan seperangkat prinsip etika AI terbaru (termasuk penggunaan non-militer).

Menurut laporan media, Pentagon menerbitkan serangkaian standar etika AI terbaru ini, dan, mengutip Letnan Angkatan Udara Jack Jack Shenhan dan Direktur Pusat AI Gabungan, dengan tepat menyatakan : “AI adalah teknologi pengembangan yang kuat dan efektif yang dengan cepat mengubah budaya, masyarakat dan akhirnya perang. "Seberapa baik atau buruk perubahan ini tergantung pada pendekatan kami untuk mengadopsi dan menggunakan sistem ini."

Seperti yang telah saya katakan berulang kali, pendekatan masyarakat terhadap pengembangan AI akan menentukan nasib sistem ini - apakah akan bekerja untuk kebaikan , atau akan (atau akan menjadi seiring waktu) kegagalan dengan konsekuensi yang menyedihkan .

Pengembang dan produsen sistem AI harus sangat ditekan.

Untuk kejelasan, saya perhatikan bahwa sistem AI tidak akan bekerja untuk kebaikan hanya karena sifatnya (tidak ada aksioma dan prasyarat yang dapat menjamin hal ini).

Untuk mempelajari masalah ini sepenuhnya, kami akan mempertimbangkan konsep saya, yang merupakan skema empat-persegi, yang saya sebut skema konsekuensi etika AI .

Secara konvensional, kami menyatakan bagian atas sumbu absis sebagai "AI untuk kebaikan," dan yang lebih rendah sebagai "AI untuk kerusakan." Demikian pula, kita membagi sumbu ordinat, sisi kiri ditetapkan sebagai "Secara sengaja", dan sisi kanan adalah "Secara tidak sengaja".

Jadi kita mendapatkan 4 kotak:

  1. AI Bagus - Sengaja
  2. AI yang merugikan - Sengaja
  3. AI for Good - Tanpa sengaja
  4. AI yang merugikan - Secara tidak sengaja

Saya mengerti bahwa beberapa dari Anda mungkin ngeri dari menyederhanakan masalah yang begitu signifikan ke skema empat persegi yang sederhana, tetapi kadang-kadang perspektif global bisa berguna - Anda dapat menggunakannya untuk melihat hutan di antara pepohonan.

Kotak pertama menggambarkan AI yang bagus yang dibuat dengan niat baik. AI ini memenuhi tujuannya tanpa pelanggaran etika, dan saya percaya bahwa kotak ini adalah standar yang harus diperjuangkan oleh semua sistem cerdas.

Kotak kedua adalah AI berbahaya. Sayangnya, sistem seperti itu akan dibuat dan dirilis (oleh penjahat atau teroris), tetapi saya berharap bahwa kita akan siap untuk ini, dan prinsip-prinsip etika AI akan membantu kita mendeteksi penampilan mereka.

Kuadrat ketiga adalah keberuntungan acak. Dia menggambarkan situasi di mana seseorang menciptakan sistem cerdas yang tiba-tiba menjadi baik. Mungkin penciptanya tidak berpikir tentang arah positif perkembangannya, tetapi bahkan jika itu hanya kombinasi keadaan yang berhasil, itu masih sukses, karena bagi kami hasilnya adalah dasar.

Kotak keempat adalah yang paling berbahaya, dan dialah yang paling menyebabkan kecemasan (dengan pengecualian kotak kedua yang menyeramkan). Sebagai aturan, sistem yang seharusnya bekerja untuk kebaikan jatuh di sini, tetapi selama pengembangan, kualitas negatif menumpuk di dalamnya yang tumpang tindih dengan semua yang baik.

Secara umum, kita akan dikelilingi oleh sistem di mana sifat-sifat baik dan buruk akan bercampur sedikit demi sedikit. Situasi dapat digambarkan sebagai berikut: pengembang akan berusaha untuk menciptakan AI yang baik yang akan berguna, tetapi dalam proses menciptakan kesalahan yang tidak disengaja akan menumpuk di sistem , yang akan menyebabkan konsekuensi yang merugikan.

Pertimbangkan dua pertanyaan penting:

  • Bagaimana kita dapat memahami atau menemukan bahwa sistem cerdas mungkin mengandung fitur AI yang buruk?
  • Bagaimana pengembang dapat menyadari cara membuat sistem seperti itu untuk menangkap kesalahan dan mencegah munculnya sistem yang operasinya dapat mengakibatkan konsekuensi negatif?

Jawaban: sepenuhnya mematuhi aturan yang diambil dari serangkaian prinsip etika AI yang benar dan substansial.

Berbicara tentang pedoman etika AI, sebuah dokumen yang dikeluarkan oleh Departemen Pertahanan berisi lima prinsip dasar, dan masing-masing dari mereka mengungkapkan ide-ide penting yang harus diperhatikan oleh semua pengembang dan distributor AI, serta semua orang yang menggunakan atau akan menggunakan sistem ini.

Secara umum, pedoman etika AI berguna untuk semua pihak yang berkepentingan, bukan hanya pengembang.

Cara terbaik untuk mempelajari prinsip-prinsip dari dokumen dari Departemen Pertahanan adalah dengan menunjukkannya dalam kaitannya dengan sistem intelijen yang ada.

Layak untuk mempertimbangkan pertanyaan mendesak: apakah prinsip-prinsip dari kode Kementerian Pertahanan berlaku untukmobil yang benar-benar tak berawak ? Jika berlaku, bagaimana seharusnya digunakan?

Mereka benar-benar berlaku, mari kita lihat bagaimana cara kerjanya.

Level kendaraan tak berawak


gambar

Penting untuk mengklarifikasi apa yang saya maksud ketika saya berbicara tentang kendaraan tanpa awak sepenuhnya dengan AI.

Kendaraan tanpa awak yang nyata adalah kendaraan di mana AI mengelola sendiri tanpa bantuan manusia.

Kendaraan tersebut ditugaskan ke level 4 dan 5 , sedangkan mobil yang membutuhkan partisipasi manusia untuk co-driving biasanya ditugaskan ke level 2 atau 3 . Mobil yang dikendarai dengan bantuan seseorang disebut semi-otonom, dan biasanya mengandung banyak fungsi tambahan yang disebut sebagai ADAS (sistem bantuan pengemudi tingkat lanjut).

Sejauh ini, tidak ada kendaraan level 5 tanpa awak sepenuhnya. Hari ini kita genapkami tidak tahu apakah ini akan tercapai , dan berapa lama.

Sementara itu, pekerjaan sedang berlangsung di area level 4. Tes yang sangat sempit dan selektif dilakukan di jalan umum, meskipun ada perdebatan tentang penerimaan tes tersebut (beberapa percaya bahwa orang yang berpartisipasi dalam tes di jalan dan jalan raya bertindak sebagai kelinci percobaan, yang dapat bertahan hidup atau mati dalam setiap tes ) .

Karena mobil semi-otonom memerlukan pengemudi manusia, adopsi mobil seperti itu oleh massa tidak akan jauh berbeda dengan mengendarai mobil biasa, tidak ada yang baru yang dapat dikatakan tentang mereka dalam konteks topik kita (walaupun, seperti yang akan Anda lihat nanti, poin-poin yang akan dipertimbangkan) lebih lanjut berlaku untuk mereka).

Dalam kasus mobil semi-otonom, penting bahwa publik diperingatkan tentang aspek mengkhawatirkan yang telah muncul baru-baru ini - meskipun orang-orang yang terus menerbitkan video tentang bagaimana mereka tertidur saat mengendarai mobil 2 atau 3 tingkat, kita semua harus ingat bahwa pengemudi tidak dapat terganggu dari mengendarai mobil semi-otonom.

Anda bertanggung jawab atas tindakan untuk mengendalikan tingkat kendaraan 2 atau 3, terlepas dari tingkat otomasi.

Kendaraan tanpa awak dan etika AI


Dalam kendaraan level 4 dan 5, seseorang tidak ikut serta dalam manajemen, semua orang di dalam kendaraan ini akan menjadi penumpang, dan AI akan mengemudi. Akibatnya, banyak sistem cerdas akan dibangun ke dalam kendaraan tingkat ini - fakta yang tak terbantahkan.

Pertanyaan berikut muncul - apakah AI yang menggerakkan kendaraan tak berawak terbatas pada pedoman atau persyaratan apa pun tentang etika AI (Anda dapat melihat analisis saya tentang etika AI untuk kendaraan tak berawak di tautan ini , serta tips untuk mengembangkan etika ini ).

Ingatlah bahwa tidak ada sistem standar yang mengharuskan AI untuk mematuhi standar etika atau kontrak moral dengan masyarakat.

Orang sendiri harus menanamkan kepercayaan atau prinsip tersebut ke dalam sistem cerdas, dan pengembang AI harus melakukan ini secara eksplisit dan dengan mata lebar.

Sayangnya, beberapa bertindak sebaliknya - mereka menutup mata dengan erat atau jatuh di bawah pengaruh hipnosis, dan bukannya tindakan di atas, mereka terlihat terpesona pada hadiah potensial yang akan dibawa proyek mereka (atau tujuan mulia yang seharusnya).

Saya memperingatkan bahwa beberapa sistem AI akan mengarah pada "korupsi yang mulia" dari mereka yang mengembangkannya. Hasilnya adalah sebagai berikut - mereka yang terlibat dalam pengembangan akan begitu terserap dalam potensi AI yang bermaksud baik sehingga mereka akan secara selektif mengabaikan, kehilangan, atau mengurangi perhatian pada pertimbangan tentang etika AI (lihat tautan).

Inilah lima poin dalam set.Prinsip Etika AI Departemen Pertahanan AS :

Prinsip Satu: Tanggung jawab


"Staf Departemen Pertahanan akan melakukan tingkat penilaian dan perhatian yang tepat, sambil tetap bertanggung jawab atas pengembangan, penyebaran dan penggunaan kemampuan AI."

Untuk mulai dengan, kami akan mengekstrak dari kata ini bagian yang berbicara tentang "staf Kementerian" dan menggantinya dengan "Semua staf". Anda mendapatkan manual yang cocok untuk organisasi mana pun yang bekerja dengan AI, terutama komersial.

Pembuat mobil dan perusahaan teknologi yang bekerja dengan kendaraan tak berawak harus dengan cermat membaca kata-kata dari prinsip tersebut, dengan cermat mengikuti kata-katanya.

Saya membicarakan hal ini, karena beberapa orang terus berpendapat bahwa drone berbasis AI akan bertindak sendiri, dan oleh karena itu akan ada banyak kekhawatiran tentang siapa yang akan membawatanggung jawab atas kesalahan dalam perilaku kendaraan yang akan mengakibatkan cedera pribadi atau kematian.

Singkatnya, orang akan bertanggung jawab .

Ini mungkin orang-orang yang mengembangkan drone berbasis AI - pembuat mobil atau perusahaan teknologi.

Pahami juga bahwa saya selalu mengatakan bahwa orang yang bertanggung jawab termasuk pengembang dan mereka yang menggunakan sistem AI ini , yang berarti bekerja dengan sistem ini dan menginstalnya sama pentingnya dengan bekerja dengan pengembang .

Mengapa?

Karena orang yang menggunakan sistem cerdas juga dapat membuat kesalahan yang mengarah pada konsekuensi yang merugikan.

Misalnya, anggap itusebuah perusahaan ridesharing memperoleh armada kendaraan tak berawak dan menggunakannya untuk perjalanan bersama para pelanggannya.

Sejauh ini bagus.

Tetapi katakanlah perusahaan ini tidak dapat melayani kendaraan tak berawak ini dengan benar . Karena kurangnya perawatan atau pengabaian instruksi, kendaraan tak berawak tidak berfungsi. Dalam hal ini, kami dapat menemukan kesalahan dengan pengembang asli, tetapi lebih baik mengajukan pertanyaan kepada mereka yang menggunakan sistem AI dan tidak menunjukkan perhatian dan tanggung jawab yang wajar dalam pekerjaan mereka .

Prinsip Dua: Ketidakberpihakan


"Kementerian akan mengambil langkah-langkah untuk meminimalkan munculnya bias yang tidak disengaja dalam pengoperasian sistem AI."

Sekali lagi, gunakan istilah "Kementerian" dalam kata-kata dan ganti dengan "Pengembang dan karyawan yang memasang sistem AI." Anda akan menerima prinsip yang universal dan cocok untuk semua orang.

Dalam hal kendaraan tak berawak, ada kekhawatiran bahwa sistem AI dapat bereaksi secara berbeda terhadap pejalan kaki tergantung pada ras mereka , sehingga secara halus dan tak terelakkan menunjukkan prasangka rasial.

Masalah lain adalah armada kendaraan tak berawak dapat menyebabkan mobil menghindari area tertentu. Ini akan mengarah pada pengecualian geografis, yang pada akhirnya akan merampok orang - orang dengan masalah mobilitas.akses gratis ke kendaraan tak berawak.

Akibatnya, ada kemungkinan yang signifikan bahwa kendaraan tak berawak penuh akan menjadi terperosok dalam prasangka dari satu bentuk atau yang lain, dan bukannya mengangkat tangan mereka dan mengatakan bahwa ini adalah kehidupan, pengembang dan pengguna harus berusaha untuk meminimalkan, mengurangi atau mengurangi prasangka semacam itu.

Prinsip Tiga: Ketertelusuran


“Proyek-proyek kementerian di bidang AI akan dikembangkan dan digunakan sedemikian rupa sehingga personel yang relevan memiliki pemahaman yang tepat tentang teknologi, proses pengembangan dan metode operasional yang berlaku untuk bidang AI, termasuk melalui metode yang transparan dan dapat diverifikasi, sumber data, serta desain dan dokumentasi ”.

Hapus saja dari semua kata yang merujuk pada kementerian atau, jika Anda mau, Anda dapat menganggapnya sebagai departemen apa pun di perusahaan atau organisasi mana pun - ini akan membuat prinsip ini berlaku luas bagi semua orang.

Ada banyak yang melekat dalam prinsip ini, tetapi untuk singkatnya, saya hanya akan fokus pada satu aspek yang mungkin tidak Anda perhatikan.

Item dengan "sumber data" bertujuan untuk menyebarluaskan pembelajaran mesin danpembelajaran yang mendalam .

Ketika Anda bekerja dengan pembelajaran mesin / dalam, Anda biasanya perlu mengumpulkan satu set data yang besar, dan kemudian menggunakan algoritma dan model khusus untuk menemukan pola .

Mirip dengan paragraf sebelumnya tentang prasangka tersembunyi, jika data yang dikumpulkan pada awalnya bias dalam beberapa cara, maka pola berpotensi menyoroti prasangka ini. Akibatnya, ketika sistem AI beroperasi secara real time, itu akan menerjemahkan bias ini menjadi kenyataan.

Yang lebih menakutkan adalah bahwa pengembang AI mungkin tidak memahami apa masalahnya, dan mereka yang memasang dan menggunakan sistem ini tidak akan bisa mengetahuinya juga.

Drone yang dilatih tentang lalu lintas yang gila dan tidak bersahabat di New York bersyarat berpotensi mengambil alihGaya mengemudi agresif khas seorang pengemudi dari New York. Bayangkan Anda mengambil sistem ini dan menggunakannya di kota-kota AS di mana gaya mengemudi lebih tenang dan terukur.

Prinsip ini jelas menunjukkan bahwa pengembang dan staf yang bertanggung jawab untuk pemasangan dan penyebaran harus berhati-hati tentang sumber data, transparansi, dan audit sistem tersebut.

Prinsip Empat: Keandalan


“Proyek-proyek kementerian di bidang AI akan memiliki penggunaan yang jelas, dan keamanan, keandalan, dan efektivitas proyek-proyek tersebut akan diuji dan diverifikasi dalam penggunaan yang dijelaskan di sepanjang siklus kehidupan.”

Ikuti langkah-langkah yang sama seperti pada paragraf sebelumnya: hapus kata “kementerian” dan terapkan paragraf ini seolah-olah berlaku untuk organisasi dan departemennya.

Sebagian besar (atau mungkin semua) akan setuju bahwa keberhasilan atau kegagalan kendaraan tak berawak tergantung pada keselamatan , keselamatan , dan efisiensinya.

Saya berharap prinsip ini jelas karena penerapannya yang eksplisit untuk mobil berbasis AI.

Prinsip Lima: Kelola


“Kementerian akan merancang dan mengembangkan proyek terkait AI untuk melaksanakan fungsi yang dimaksudkan, sambil dapat mendeteksi konsekuensi yang tidak disengaja di muka dan menghindarinya, serta kemampuan untuk menonaktifkan atau menonaktifkan sistem yang digunakan yang menunjukkan perilaku abnormal.”

Seperti biasa, hapus kata "pelayanan" dan terapkan ayat ini untuk apa pun.

Bagian pertama dari prinsip ini mendasari topik saya untuk mendeteksi dan mencegah konsekuensi yang tidak terduga, terutama yang merugikan.

Ini cukup jelas dalam kasus kendaraan tak berawak.

Ada juga titik halus mengenai kendaraan tak berawak, yang mencakup kemampuan untuk menonaktifkan atau menonaktifkan sistem AI yang dikerahkan, yang telah menunjukkan perilaku tak terduga - ada banyak pilihan dan kesulitan, dan ini tidak hanya mengklik tombol "merah" di luar mobil ( seperti beberapa orang berpikir )

Kesimpulan


Kami biasanya mengharapkan Departemen Pertahanan untuk tidak mengungkapkan kartunya.

Dalam hal ini, pedoman etika AI tidak boleh dirahasiakan. Memang, sangat menyenangkan dan patut dipuji bahwa Kementerian Pertahanan menerbitkan dokumen ini.

Pada akhirnya, adalah satu hal untuk merekatkan harimau dari kertas, dan hal lain untuk melihatnya di dunia nyata.

Semua pengembang dan staf yang bertanggung jawab untuk pemasangan dan penyebaran harus mempelajari dengan seksama dan teliti buku pedoman etika AI ini, serta prinsip etika yang serupa (banyak dari mereka) dari sumber lain.



gambar

Tentang ITELMA
- automotive . 2500 , 650 .

, , . ( 30, ), -, -, - (DSP-) .

, . , , , . , automotive. , , .

Baca lebih banyak artikel bermanfaat:


All Articles