Paus: Etika untuk AI dan Kendaraan Tanpa Awak

gambar

Paus khawatir bahwa AI dapat membahayakan orang alih-alih menjadi alat yang akan melengkapi masyarakat dan meningkatkan kehidupannya.

Menurut Vatikan , sebuah dokumen yang baru-baru ini dikeluarkan yang disebut Rome Call For AI Ethics memberi tahu kita arah mana yang harus diambil AI sebagai teknologi yang bertujuan untuk meningkatkan masyarakat, serta mencegah prospek bahaya dan kematian masyarakat.

Terkadang ilmuwan cenderung memperkenalkan inovasi tanpa secara eksplisit mempelajari konsekuensi yang mungkin terjadi. Dengan demikian, ada banyak panggilan untuk memperhatikan etika AI di era perlombaan pengembangan dan implementasi sistem cerdas (terutama ketika datang ke sistem berbasis mesin dan pembelajaran mendalam).

Berikut adalah kutipan kunci dari dokumen yang dikeluarkan oleh Paus:

“Sekarang, lebih dari sebelumnya, kita harus menjamin prospek yang menurutnya AI akan berkembang dengan penekanan bukan pada teknologi, tetapi pada manfaat kemanusiaan, lingkungan, rumah kita bersama, dan penduduknya, yang tidak dapat dipisahkan saling berhubungan

Gereja Katolik meminta setiap orang yang terlibat dalam penciptaan AI untuk mengingat tindakan potensial dari sistem ini. Ini juga termasuk permohonan untuk memperhatikan konsekuensi yang diantisipasi dan yang mungkin tidak diinginkan.

Beberapa pengembang AI menutup mata terhadap fakta bahwa tindakan perkembangan mereka dapat menyebabkan efek buruk yang tidak diinginkan.

Ingatlah aspek-aspek dinamika sosial berikut ini:

  • Beberapa insinyur dan ilmuwan percaya bahwa selama sistem AI setidaknya melakukan apa yang mereka harapkan, semua konsekuensi lain bukanlah tanggung jawab mereka, dan karena itu mereka mencoba untuk mencuci tangan mereka dari kesulitan seperti itu.
  • ( , , , , ).
  • , , . , , .
  • , «» , - . , .
  • , , . , , ( – , – ).

– ,


Sebuah dokumen yang diterbitkan oleh Gereja Katolik bertindak sebagai semacam ikrar, dan semua yang terlibat dalam penciptaan sistem AI akan dengan sopan diminta untuk menandatangani ikrar ini.

Memang, dokumen ini sudah ditandatangani oleh beberapa pemain, di antaranya IBM dan Microsoft.

Untuk apa dokumen ini meminta para penandatangan?

Saya akan berbicara secara singkat tentang beberapa detail. Yang ini menjelaskan tiga prinsip dasar. Jadi, sistem AI harus:

"... untuk menjadi inklusif bagi semua orang dan tidak mendiskriminasi siapa pun; di jantung sistem ini haruslah kebaikan umat manusia secara keseluruhan dan setiap orang pada khususnya; akhirnya, sistem ini harus mengingat struktur kompleks ekosistem kita dan dicirikan oleh sikapnya terhadap rumah kita bersama. Sistem cerdas "Harus mendekati masalah ini dari sisi yang paling rasional, dan pendekatannya harus mencakup penggunaan AI untuk memastikan sistem pangan yang stabil di masa depan."

Singkatnya:

  1. AI tidak boleh mendiskriminasi siapa pun
  2. AI seharusnya hanya memiliki niat baik
  3. AI harus menjaga kelestarian lingkungan

Aspek yang harus diingat adalah bahwa AI tidak menentukan masa depannya sendiri, tidak peduli bagaimana kelihatannya sistem ini sudah otonom dan mereka sendiri menciptakan nasib mereka sendiri.

Semua ini salah, setidaknya untuk saat ini (akan terjadi dalam waktu dekat).

Dengan kata lain, hanya kita manusia yang menciptakan sistem ini. Karena itu, hanya manusia yang bertanggung jawab atas apa yang sistem AI lakukan.

Saya membicarakan hal ini karena ini adalah cara sederhana keluar dari situasi di mana para insinyur dan pengembang AI berpura-pura bahwa mereka tidak dapat disalahkan atas kesalahan produk mereka.

Anda mungkin terbiasa dengan situasi ketika Anda menghubungi administrasi kendaraan bermotor untuk memperbarui SIM Anda dan sistem informasinya macet. Pada saat yang sama, agen manajemen hanya mengangkat bahu dan mengeluh bahwa semua ini selalu terjadi dengan peralatan.

Tepatnya, itu tidak bertahan selamanya, dan tidak dengan semua teknologi.

Jika sistem komputer tidak bekerja, maka orang-orang yang mengatur komputer dan tidak dapat membuat cadangan dengan benar, dan juga tidak memberikan kemampuan untuk mendapatkan akses ke sistem jika perlu, yang harus disalahkan.

Jangan jatuh ke dalam perangkap logis, tidak setuju dengan kenyataan bahwa sistem komputer (termasuk sistem AI) memiliki pendapat sendiri, dan jika mereka menjadi gila, bukankah ini "selalu terjadi dengan teknologi".

Yang benar adalah bahwa orang-orang yang mengembangkan dan mengimplementasikan sistem komputer memikul tanggung jawab penuh, karena mereka tidak mengambil langkah-langkah yang memadai dan tidak cukup memperhatikan pekerjaan mereka.

Dalam kasus panggilan Paus Fransiskus untuk mengambil bagian dalam pembahasan prinsip-prinsip etis yang vital, mungkin tampak bahwa semua tesis ini sangat sederhana dan tidak menerima kritik (karena mereka jelas sebagai pernyataan bahwa langit berwarna biru), tetapi meskipun demikian, ada pihak yang menyangkal Penawaran Vatikan.

Bagaimana?

Pertama, beberapa kritikus mengklaim bahwa tidak ada aspek wajib dari janji ini. Jika perusahaan mengikutinya, maka untuk ketidakpatuhan dengan prinsip-prinsip janji tidak ada hukuman yang akan mengikuti. Dengan demikian, Anda dapat berlangganan tanpa rasa takut akan tanggung jawab. Janji tanpa konsekuensi tampaknya kosong bagi banyak orang.

Kedua, beberapa khawatir dengan fakta bahwa Gereja Katoliklah yang menyerukan etika AI. Alasannya adalah bahwa kehadiran gereja memperkenalkan agama ke dalam subjek, meskipun beberapa percaya bahwa itu tidak ada hubungannya dengan subjek.

Timbul pertanyaan - apakah agama lain akan mengeluarkan panggilan serupa? Dan jika demikian, mana yang akan menang? Dan apa yang akan kita lakukan dengan deklarasi etika AI yang terfragmentasi dan terpisah?

Ketiga, beberapa percaya bahwa jaminan ini sangat lunak dan terlalu umum.

Mungkin, dokumen tersebut tidak mengandung arahan substantif yang dapat diimplementasikan dengan cara praktis apa pun.

Selain itu, para pengembang yang ingin menghindari tanggung jawab dapat mengklaim bahwa mereka salah memahami ketentuan umum, atau menafsirkannya secara berbeda dari yang dimaksudkan.

Jadi, mengingat banyaknya kecaman, haruskah kita menyingkirkan panggilan ini dari Vatikan demi algoetika AI?

Beranjak dari topik, saya perhatikan bahwa algoetika adalah nama yang diberikan untuk masalah yang berkaitan dengan etika algoritmik. Ini mungkin nama yang baik, tetapi tidak terlalu nyaring, dan tidak mungkin diterima secara umum. Waktu akan menjawab.

Kembali ke topik - haruskah kita memperhatikan seruan ini untuk etika AI atau tidak?

Ya kita harus.

Terlepas dari kenyataan bahwa dokumen ini, diakui, tidak memberikan sanksi keuangan apa pun karena ketidakpatuhan terhadap prinsip-prinsip, ada aspek lain yang juga penting untuk dipertimbangkan. Perusahaan yang menandatangani panggilan ini dapat dimintai pertanggungjawaban oleh masyarakat umum. Jika mereka melanggar janji mereka dan gereja menunjukkannya, maka iklan yang buruk dapat merusak perusahaan-perusahaan ini - itu akan menyebabkan hilangnya bisnis dan reputasi di industri ini.

Anda bisa mengatakan bahwa untuk melanggar prinsip-prinsip ini semacam pembayaran tersirat, atau anggaplah itu disembunyikan.

Adapun penampilan agama dalam topik di mana, sepertinya, itu bukan miliknya, maka pahami bahwa ini adalah masalah yang sama sekali berbeda. Masalah ini layak dibahas dan diperdebatkan, tetapi juga mengakui bahwa sekarang ada banyak sistem etika dan panggilan untuk etika AI dari berbagai sumber.

Dengan kata lain, panggilan ini bukan yang pertama.

Jika Anda mempelajari dokumen ini dengan cermat, Anda akan melihat bahwa tidak ada abstrak yang terkait dengan doktrin agama. Ini berarti bahwa Anda tidak dapat membedakannya dari yang serupa, dilakukan tanpa konteks agama apa pun.

Akhirnya, dari sudut pandang ketidakjelasan dokumen ini - ya, Anda dapat dengan mudah mengendarai truk Mack melalui banyak celah, tetapi mereka yang ingin menipu akan tetap curang.

Saya berasumsi bahwa langkah lebih lanjut akan diambil di bidang AI, dan langkah-langkah ini akan melengkapi dokumen Vatikan dengan panduan khusus yang akan membantu mengisi kesenjangan dan kelalaian.

Mungkin juga bahwa siapa pun yang mencoba menipu akan dikecam oleh seluruh dunia, dan pernyataan salah tentang dugaan kesalahpahaman dokumen tersebut akan dianggap sebagai trik yang jelas yang diperlukan hanya untuk menghindari kepatuhan terhadap standar etika AI yang dirumuskan dan cukup jelas yang diproklamasikan dalam dokumen.

Berbicara tentang kepercayaan bahwa setiap orang memahami prinsip-prinsip etika AI, pertimbangkan segudang penggunaan AI.

Ada contoh menarik di bidang AI terapan terkait dengan topik etika: haruskah kendaraan tak berawak dikembangkan dan diletakkan di jalan sesuai dengan daya tarik Vatikan?

Jawaban saya adalah ya, tentu saja begitu.

Bahkan, saya mendesak semua produsen mobil dan kendaraan untuk menandatangani dokumen ini.

Bagaimanapun, mari kita lihat masalah ini dan lihat bagaimana daya tarik ini berlaku untuk kendaraan tak berawak yang sebenarnya.

Level kendaraan tak berawak


Penting untuk mengklarifikasi apa yang saya maksud ketika saya berbicara tentang kendaraan tanpa awak sepenuhnya dengan AI.

Kendaraan tanpa awak yang nyata adalah kendaraan di mana AI mengelola sendiri tanpa bantuan manusia.

Kendaraan tersebut ditugaskan ke level 4 dan 5, sedangkan mobil yang membutuhkan partisipasi manusia untuk co-driving biasanya ditugaskan ke level 2 atau 3. Mobil yang dikendarai dengan bantuan seseorang disebut semi-otonom, dan biasanya mengandung banyak fungsi tambahan yang disebut sebagai ADAS (sistem bantuan pengemudi tingkat lanjut).

Sejauh ini, tidak ada kendaraan level 5 tanpa awak sepenuhnya. Hari ini, kami bahkan tidak tahu apakah ini bisa dicapai, dan berapa lama.

Sementara itu, pekerjaan sedang berlangsung di area level 4. Tes yang sangat sempit dan selektif dilakukan di jalan umum, meskipun ada perdebatan tentang penerimaan tes tersebut (beberapa percaya bahwa orang yang berpartisipasi dalam tes di jalan dan jalan raya bertindak sebagai kelinci percobaan, yang dapat bertahan hidup atau mati dalam setiap tes) .

Karena mobil semi-otonom membutuhkan pengemudi manusia, adopsi mobil seperti itu oleh massa tidak akan jauh berbeda dengan mengendarai mobil biasa, tidak ada yang baru yang dapat dikatakan tentang mereka dalam konteks topik kita (walaupun, seperti yang akan Anda lihat nanti, poin-poin yang akan dipertimbangkan) lebih lanjut berlaku untuk mereka).

Dalam kasus mobil semi-otonom, penting bahwa publik diperingatkan tentang aspek mengkhawatirkan yang telah muncul baru-baru ini - meskipun orang-orang yang terus menerbitkan video tentang bagaimana mereka tertidur saat mengendarai mobil 2 atau 3 tingkat, kita semua harus ingat bahwa pengemudi tidak dapat terganggu dari mengendarai mobil semi-otonom.

Anda bertanggung jawab atas tindakan untuk mengendalikan tingkat kendaraan 2 atau 3, terlepas dari tingkat otomasi.

Kendaraan tanpa awak dan etika AI


Dalam kendaraan level 4 dan 5, seseorang tidak ikut serta dalam manajemen, semua orang di dalam kendaraan ini akan menjadi penumpang, dan AI akan mengemudi.

Pada pandangan pertama, Anda dapat mengasumsikan bahwa tidak perlu mempertimbangkan masalah etika AI.

Kendaraan tak berawak adalah kendaraan yang dapat mengangkut Anda tanpa pengemudi.

Anda mungkin berpikir bahwa tidak ada yang seperti ini, dan tidak ada pertimbangan etis dalam bagaimana pengemudi AI menangani kontrol.

Maaf, tetapi mereka yang berpikir bahwa semua ini tidak ada hubungannya dengan etika AI perlu mengetuk kepala atau menuangkan air dingin pada orang-orang ini (saya menentang kekerasan, ini hanya metafora).

Ada banyak pertimbangan yang terkait dengan etika AI (Anda dapat membaca ulasan saya ditautan ini , artikel tentang aspek global etika AI terdapat di sini , dan artikel tentang potensi saran ahli di bidang ini ada di sini ).

Mari kita melihat sekilas masing-masing dari enam prinsip dasar yang diuraikan dalam Panggilan Romawi untuk Etika AI.

Saya akan berusaha untuk membuat artikel ini singkat, dan karena itu saya akan menawarkan tautan ke publikasi saya yang lain, yang berisi informasi lebih rinci tentang topik-topik penting berikut:

Prinsip 1: “Transparansi: Sistem AI harus dapat dijelaskan secara inheren”


Anda naik mobil tak berawak, dan dia menolak untuk pergi ke mana Anda katakan.

Saat ini, sebagian besar sistem mengemudi tanpa awak dikembangkan tanpa penjelasan tentang perilakunya.

Alasan penolakan mungkin, misalnya, tornado, atau permintaan yang tidak dapat dilakukan (misalnya, tidak ada jalan yang bisa dilewati di dekatnya).

Namun, tanpa XAI (singkatan untuk AI, yang berfungsi dengan penjelasan), Anda tidak akan mengerti apa yang terjadi (lebih lanjut tentang ini di sini).

Prinsip 2: “Inklusivitas: kebutuhan semua orang harus diperhitungkan sehingga manfaatnya sama untuk semua, dan kondisi terbaik untuk ekspresi dan pengembangan diri harus ditawarkan kepada semua orang”


Beberapa khawatir bahwa kendaraan tak berawak hanya akan tersedia bagi orang kaya, dan mereka tidak akan membawa manfaat bagi penduduk lainnya (lihat Tautan di sini).

Apa yang kita dapatkan - mobilitas untuk semua, atau untuk beberapa?

Prinsip 3: "Tanggung jawab: mereka yang mengembangkan dan menerapkan sistem AI harus bertindak dengan tanggung jawab, dan pekerjaan mereka harus transparan"


Apa yang akan dilakukan AI dalam situasi di mana ia harus memilih apakah akan mengetuk seorang anak yang berlari ke jalan, atau menabrak pohon, yang akan membahayakan penumpang?

Dilema ini juga dikenal sebagai masalah troli (lihat tautan). Banyak yang mengharuskan pembuat mobil dan perusahaan teknologi kendaraan tak berawak untuk transparan tentang bagaimana sistem mereka membuat keputusan yang mendukung hidup atau mati.

Prinsip 4: "Ketidakberpihakan: Membangun Sistem AI dan Bertindak Tanpa Prasangka, Dengan demikian Menjamin Keadilan dan Martabat Manusia"


Misalkan mobil dengan kontrol otomatis merespons pejalan kaki tergantung pada karakteristik ras mereka.

Atau anggaplah bahwa armada kendaraan tak berawak belajar untuk menghindari mengemudi di area tertentu, yang akan menghilangkan akses warga bebas ke mobil yang tidak memerlukan sopir.

Prasangka yang terkait dengan pembelajaran mesin dan sistem pembelajaran yang dalam adalah masalah utama

Prinsip 5: “Keandalan: Sistem AI harus bekerja dengan andal”


Anda mengendarai mobil dengan kontrol otomatis, dan dia tiba-tiba bergerak ke sisi jalan dan berhenti. Mengapa? Anda mungkin tidak memiliki petunjuk.

AI mungkin telah mencapai batas cakupannya.

Atau mungkin sistem AI macet, kesalahan terjadi, atau sesuatu seperti itu.

Prinsip 6: "Keamanan dan Kerahasiaan: Sistem AI Harus Bekerja dengan Aman dan Menghormati Kerahasiaan Pengguna"


Anda mendapatkan kendaraan tak berawak setelah bersenang-senang di bar.

Ternyata mesin ini memiliki kamera tidak hanya di luar tetapi juga di dalam.

Bahkan, kamera di kabin diperlukan untuk menangkap penumpang yang akan menggambar grafiti atau merusak interior mobil.

Bagaimanapun, semua kamera ini membawa Anda sepanjang waktu saat Anda mengemudi di mobil tak berawak, dan frasa Anda yang tidak jelas juga akan muncul di video ini, karena Anda dalam keadaan mabuk.

Siapa yang memiliki video ini, dan apa yang dapat ia lakukan dengannya?

Haruskah pemilik mobil tak berawak memberi Anda video, dan adakah yang mencegahnya mengunggah video ini ke Internet?

Ada banyak masalah privasi yang masih perlu diatasi.

Dari sudut pandang keamanan, ada banyak opsi peretasan untuk sistem mengemudi cerdas.

Bayangkan seorang penyerang yang dapat meretas mobil drone AI. Dia dapat mengambil kendali, atau setidaknya memesan mobil untuk membawa Anda ke tempat di mana para penculik menunggu Anda.

Ada banyak skenario menyeramkan terkait dengan lubang keamanan dalam sistem kendaraan tak berawak atau dalam sistem cloud mereka. Dan produsen mobil, bersama dengan perusahaan teknologi, diharuskan untuk menggunakan sistem perlindungan dan tindakan pencegahan yang diperlukan.

Kesimpulan


Jika Anda membandingkan panggilan ini dengan etika AI dengan banyak orang lain, Anda akan menemukan bahwa mereka memiliki banyak kesamaan.

Kritik, yang mengklaim bahwa pada akhirnya kita akan memiliki banyak banding seperti itu, agak benar, tetapi dapat diasumsikan bahwa mencakup sepenuhnya semua fundamental juga tidak akan merugikan.

Situasi ini mulai sedikit membingungkan, dan produsen AI akan menggunakan alasan bahwa karena tidak ada standar tunggal yang diterima, mereka akan menunggu sampai dokumen seperti itu muncul.

Kedengarannya seperti alasan yang masuk akal, tetapi saya tidak akan membelinya.

Semua pabrikan yang mengatakan bahwa mereka akan menunggu hingga versi seluruh dunia yang disusun oleh sejumlah perusahaan besar disetujui, pada kenyataannya, mereka siap untuk menunda adopsi kode etik AI apa pun, dan harapan mereka mungkin sama. seperti harapan Godot.

Saya mendorong Anda untuk memilih manual apa pun tentang etika AI, di mana ada sesuatu yang penting, dan yang diusulkan oleh sumber yang berwenang, dan melanjutkan dengan penerapan etika ini.

Lebih baik lebih cepat daripada nanti.



gambar

Tentang ITELMA
- automotive . 2500 , 650 .

, , . ( 30, ), -, -, - (DSP-) .

, . , , , . , automotive. , , .

Baca lebih banyak artikel bermanfaat:


All Articles