अमेरिकी रक्षा विभाग: एआई और मानव रहित वाहनों के लिए नैतिकता

छवि

एथिक्स एआई इन दिनों एक गर्म और प्रासंगिक विषय है। और यह सही है।

एआई सिस्टम की विषमता और उनकी बहुत व्यापक घटना के साथ, उचित चिंताएं हैं कि इन कंप्यूटर प्रणालियों को समाज के लिए संभावित परिणामों को समझने के बिना बस इस दुनिया में फेंक दिया जाता है।

इस बात पर गंभीर चिंता है कि नई कृत्रिम खुफिया प्रणालियों में पूर्वाग्रहों का निर्माण किया गया है और उन कार्यों के लिए प्रवृत्त हैं जो नैतिकता और समाज के संदर्भ में विषाक्त हैं।

जब कृत्रिम बुद्धिमत्ता की नैतिकता की बात आती है, तो मेरा तर्क है कि कम से कम दो मुख्य पहलू (या नियम) हैं:

  1. एआई सिस्टम व्यवहार समाज के लिए स्वीकार्य होना चाहिए
  2. एआई सिस्टम डिजाइनर और सिस्टम को खुद नियम 1 को लागू करना चाहिए।

शायद पहले नियम का सार स्पष्ट है - एआई नैतिकता का अर्थ यह है कि इन प्रणालियों का व्यवहार समाज के नैतिक मानकों का पालन करना चाहिए।

यह नीचे दिखाया जाएगा कि पहले नियम का अनुपालन अधिक जटिल है जितना कि यह प्रतीत हो सकता है।

नियम 2 का महत्व स्पष्ट करना है कि एआई की नैतिकता के पूर्ण अनुपालन को सुनिश्चित करने के लिए जिम्मेदार पक्ष उन लोगों से बने हैं जो इन प्रणालियों को डिजाइन, निर्माण और वितरित करते हैं।

यदि यह आपको स्पष्ट लगता है, तो "सामान्य ज्ञान" के आधार पर निर्णय लेने में जल्दबाजी न करें।

एआई सिस्टम के आसपास, एक प्रकार की आभा है, जैसे कि वे स्वायत्त हैं और आत्मनिर्णय के लिए सक्षम हैं। इस प्रकार, जब AI सिस्टम नस्लीय पूर्वाग्रह की एक तरह की अभिव्यक्ति करता है , तो कुछ लोग यह कहते हुए एक तार्किक गलती करते हैं कि AI ने यह किया, उन लोगों को दोष दिए बिना जिन्होंने इस प्रणाली को बनाया और कार्यान्वित किया।

इन प्रणालियों के कुछ डेवलपर्स और निर्माता निश्चित रूप से आपको उनकी दिशा में नहीं देखना पसंद करेंगे जब AI सिस्टम कुछ गलत करता है।

परिणामस्वरूप, जो लोग सच्ची जिम्मेदारी का सामना करते हैं, वे आश्चर्यचकित चेहरा बना सकते हैं और चालाकी से अपने कर्तव्यों से दूर हो सकते हैं , कह सकते हैं कि एआई को दोष देना है। ये लोग ऐसा व्यवहार करेंगे जैसे कि वे सिर्फ रेल दुर्घटना को देख रहे हों, भले ही वे इसे रेल पर डाल रहे हों और इसे बिना किसी नियंत्रण या सत्यापन के शुरू किया गया हो।

बेशक, कुछ अपने सिस्टम की रक्षा करेंगे जिन्होंने गलती की। वे कहेंगे कि उन्होंने सभी विफलताओं को रोकने की कोशिश की, लेकिन लानत है, कुछ गायब था । एक मायने में, ये लोग खुद को "पीड़ित" बनाने की कोशिश करेंगे, जो खुद को एआई से पीड़ित हैं।

इससे मूर्ख मत बनो।

वास्तव में, कृपया इससे मूर्ख मत बनो।

संक्षेप में, दूसरा नियम पहले जितना ही महत्वपूर्ण है।

लोगों द्वारा उनके द्वारा बनाए गए AI के कार्यों के लिए जवाबदेह नहीं लाए बिना, हम सभी एक पोखर में बैठेंगे।

मुझे यकीन है कि निर्माता अपने नए एआई सिस्टम के विकास से संबंधित अपने वादों को आसानी से पूरा कर लेंगे । ये लोग अपने उत्पादों की प्रशंसा करेंगे, उनकी सफलता की उम्मीद करेंगे, और वे यह भी दिखावा करेंगे कि उनका उन अनुप्रयोगों से कोई लेना-देना नहीं है जिनकी नैतिक गलतियाँ हम सभी पर हुई हैं। यह सभी एआई सिस्टम के निर्माण को प्रोत्साहित करेंगे जिनकी नैतिक जिम्मेदारी नहीं है।

एक अन्य क्षेत्र जिसमें एआई की नैतिकता विशेष रूप से कठिन हो सकती है वह सैन्य उद्देश्यों के लिए एआई है।

अधिकांश लोग इस बात से सहमत होंगे कि हमें सैन्य खुफिया प्रणालियों का निर्माण और उपयोग करते समय कुछ AI नैतिक मानकों का पालन करने की आवश्यकता है। इस तरह से हमें जो ज्ञान और अनुभव प्राप्त होता है उसका उपयोग AI के वाणिज्यिक और औद्योगिक उपयोग के लिए किया जा सकता है।

अमेरिकी रक्षा विभाग ने हाल ही में एआई सिद्धांतों का एक सेट जारी किया

यदि आप इन सिद्धांतों को अलगाव में देखते हैं (जो मैं इस लेख में करूंगा), अर्थात्, सैन्य और रक्षात्मक संदर्भों को ध्यान में रखे बिना, आप देख सकते हैं कि वे किसी भी वाणिज्यिक या उद्योग AI सिस्टम पर समान रूप से लागू होते हैं।

मैं आपको इन सिद्धांतों के बारे में बताऊंगा, और इसके लिए अपने पसंदीदा क्षेत्र का उपयोग करूंगा - असली मानव रहित वाहनों का उद्भव। यह मुझे यह बताने की अनुमति देगा कि एआई की नैतिकता (गैर-सैन्य उपयोग सहित) के सिद्धांतों के नवीनतम सेट को कैसे लागू किया जाए।

मीडिया रिपोर्टों के अनुसार, पेंटागन ने एआई नैतिक मानकों के इस नवीनतम सेट को प्रकाशित किया, और, वायु सेना के लेफ्टिनेंट जैक जैक शेनान और संयुक्त एआई केंद्र के निदेशक का हवाला देते हुए, उपयुक्त रूप से कहा गया : "एआई एक शक्तिशाली विकासशील और प्रभावी तकनीक है जो तेजी से संस्कृति, समाज और अंततः युद्ध भी। "ये बदलाव कितने अच्छे या बुरे हैं, ये इन प्रणालियों को अपनाने और उपयोग करने के हमारे दृष्टिकोण पर निर्भर करते हैं।"

जैसा कि मैंने बार-बार कहा है, एआई के विकास के लिए समाज का दृष्टिकोण इस प्रणाली के भाग्य का निर्धारण करेगा - चाहे वह अच्छे के लिए काम करेगा , या यह (या समय के साथ हो जाएगा) दुस्साहसी परिणामों के साथ विफलता

एआई सिस्टम के डेवलपर्स और निर्माताओं को गंभीरता से दबाव डाला जाना चाहिए।

स्पष्टता के लिए, मैं ध्यान देता हूं कि एआई सिस्टम केवल उनके स्वभाव से अच्छे के लिए काम नहीं करेगा (इसमें कोई स्वयंसिद्ध और पूर्वाग्रह नहीं हैं जो इस बात की गारंटी दे सकते हैं)।

इस मुद्दे का पूरी तरह से अध्ययन करने के लिए, हम मेरी अवधारणा पर विचार करेंगे, जो एक चार-वर्गीय योजना है, जिसे मैं एआई नैतिकता परिणाम योजना कहता हूं

परम्परागत रूप से, हम एब्सिस्सा अक्ष के ऊपरी भाग को "एआई फॉर गुड," और निचले को "एआई को नुकसान" के रूप में दर्शाते हैं। इसी तरह, हम ऑर्डिनेट अक्ष को विभाजित करते हैं, बाईं ओर को "जानबूझकर" के रूप में नामित किया गया है, और दाईं ओर "अनजाने में" है।

इस प्रकार हमें 4 वर्ग मिलते हैं:

  1. अच्छा एआई - जानबूझकर
  2. एआई टू द डिटरिमेंट - जानबूझकर
  3. एआई फॉर गुड - अनजाने में
  4. एआई टू द डिटरिमेंट - अनजाने में

मैं समझता हूं कि आप में से कुछ लोग इस तरह के एक महत्वपूर्ण मुद्दे को एक साधारण चार-वर्गीय योजना को सरल बनाने से भयभीत हो सकते हैं, लेकिन कभी-कभी एक वैश्विक परिप्रेक्ष्य उपयोगी हो सकता है - आप इसका उपयोग पेड़ों के बीच जंगल देखने के लिए कर सकते हैं।

पहला वर्ग एक अच्छे AI का वर्णन करता है जो अच्छे इरादों के साथ बनाया गया था। यह AI बिना किसी नैतिक उल्लंघन के अपने लक्ष्यों को पूरा करता है, और मेरा मानना ​​है कि यह वर्ग वह मानक है जिसके लिए सभी बुद्धिमान प्रणालियों को प्रयास करना चाहिए।

दूसरा वर्ग दुर्भावनापूर्ण AI है। दुर्भाग्य से, ऐसी प्रणाली बनाई जाएगी और जारी की जाएगी (अपराधियों या आतंकवादियों द्वारा), लेकिन मुझे उम्मीद है कि हम इसके लिए तैयार होंगे, और एआई नैतिकता के सिद्धांत हमें उनके स्वरूप का पता लगाने में मदद करेंगे।

तीसरा वर्ग यादृच्छिक किस्मत है। वह ऐसी स्थिति का वर्णन करता है जिसमें किसी ने एक बुद्धिमान प्रणाली बनाई जो अचानक अच्छी हो गई। शायद इसके निर्माता ने इसके विकास की सकारात्मक दिशा के बारे में नहीं सोचा था, लेकिन भले ही यह परिस्थितियों का एक सफल संयोजन है, फिर भी यह एक सफलता है, क्योंकि हमारे लिए इसका परिणाम आधार है।

चौथा वर्ग सबसे कपटी है, और यह वह है जो सबसे अधिक चिंता का कारण बनता है (खौफनाक दूसरे वर्ग के अपवाद के साथ)। एक नियम के रूप में, सिस्टम जो यहां अच्छी गिरावट के लिए काम करना चाहिए, लेकिन विकास के दौरान, नकारात्मक गुण उनमें जमा होते हैं जो सभी अच्छे को ओवरलैप करते हैं।

सामान्य तौर पर, हम उन प्रणालियों से घिरे होंगे जिनमें अच्छे और बुरे लक्षणों को थोड़ा-थोड़ा करके मिलाया जाएगा। स्थिति को निम्नानुसार वर्णित किया जा सकता है: डेवलपर्स एक अच्छा एआई बनाने का प्रयास करेंगे जो उपयोगी होगा, लेकिन अनजाने में त्रुटियों को बनाने की प्रक्रिया में सिस्टम में जमा हो जाएगा , जिससे प्रतिकूल परिणाम होंगे।

दो महत्वपूर्ण प्रश्नों पर विचार करें:

  • हम कैसे समझ सकते हैं या खोज सकते हैं कि एक बुद्धिमान प्रणाली में खराब एआई की विशेषताएं हो सकती हैं?
  • डेवलपर्स कैसे त्रुटियों को पकड़ने और उन प्रणालियों के उद्भव को रोकने के लिए इस तरह के सिस्टम बनाने के बारे में जागरूक हो सकते हैं जिनके संचालन से नकारात्मक परिणाम हो सकते हैं?

उत्तर: एआई नैतिकता के सिद्धांतों के सही और पर्याप्त सेट से लिए गए नियमों का सख्ती से पालन करें।

एआई नैतिकता दिशानिर्देशों की बात करें तो, रक्षा विभाग द्वारा जारी किए गए एक दस्तावेज़ में पांच बुनियादी सिद्धांत शामिल हैं, और उनमें से प्रत्येक महत्वपूर्ण विचार व्यक्त करता है कि एआई के सभी डेवलपर्स और वितरकों को ध्यान देना चाहिए, साथ ही उन सभी का उपयोग करना चाहिए जो इन प्रणालियों का उपयोग या उपयोग करते हैं।

सामान्य तौर पर, एआई नैतिकता दिशानिर्देश केवल डेवलपर्स के लिए नहीं, सभी इच्छुक पार्टियों के लिए उपयोगी होते हैं।

रक्षा विभाग के एक दस्तावेज़ से सिद्धांतों को सीखने का सबसे अच्छा तरीका मौजूदा बुद्धिमान प्रणालियों के संबंध में उन्हें प्रदर्शित करना है।

यह तत्काल प्रश्न पर विचार करने के लायक है: रक्षा मंत्रालय के कोड से लागू सिद्धांत हैंवास्तव में मानव रहित कारें ? यदि लागू हो, तो उनका उपयोग कैसे किया जाना चाहिए?

वे वास्तव में लागू हैं, आइए देखें कि वे कैसे काम करते हैं।

मानव रहित वाहन का स्तर


छवि

यह स्पष्ट करना महत्वपूर्ण है कि जब मैं AI के साथ पूरी तरह से मानव रहित वाहनों के बारे में बात करता हूं तो मेरा क्या मतलब है

असली मानवरहित वाहन ऐसे वाहन हैं जिनमें AI बिना किसी मानवीय सहायता के खुद का प्रबंधन करता है।

इस तरह के वाहनों को 4 और 5 के स्तर पर सौंपा जाता है , जबकि सह-ड्राइविंग के लिए मानवीय भागीदारी की आवश्यकता वाली कारों को आमतौर पर 2 या 3 के स्तर पर सौंपा जाता है । जिन कारों में किसी व्यक्ति की सहायता से ड्राइविंग की जाती है, उसे अर्ध-स्वायत्त कहा जाता है, और आमतौर पर उनमें कई अतिरिक्त कार्य होते हैं जिन्हें ADAS (उन्नत ड्राइवर सहायता प्रणाली) कहा जाता है।

अभी तक, पूरी तरह से मानव रहित वाहन स्तर 5 नहीं है। आज हम भीहमें नहीं पता कि यह हासिल किया जाएगा या नहीं और कितना समय लगेगा।

इस बीच, स्तर 4 क्षेत्र में काम चल रहा है। सार्वजनिक सड़कों पर बहुत संकीर्ण और चयनात्मक परीक्षण किए जाते हैं, हालांकि ऐसे परीक्षणों की स्वीकार्यता के बारे में बहस होती है (कुछ का मानना ​​है कि सड़कों और राजमार्गों पर परीक्षणों में भाग लेने वाले लोग गिनी सूअरों के रूप में कार्य करते हैं , जो प्रत्येक परीक्षण में जीवित या मर सकते हैं ) ।

चूंकि अर्ध-स्वायत्त कारों के लिए एक मानव चालक की आवश्यकता होती है, इसलिए जनता द्वारा ऐसी कारों को अपनाना आम कारों को चलाने से बहुत अलग नहीं होगा, हमारे विषय के संदर्भ में उनके बारे में कुछ भी नया नहीं कहा जा सकता है (हालांकि, जैसा कि आप जल्द ही देखेंगे, जिन बिंदुओं पर विचार किया जाएगा। आगे उन पर लागू)।

अर्ध-स्वायत्त कारों के मामले में, यह महत्वपूर्ण है कि जनता को एक परेशान करने वाले पहलू के बारे में चेतावनी दी जाती है जो हाल ही में उत्पन्न हुई है - जो लोग वीडियो पोस्ट करना जारी रखते हैं, वे 2 या 3 स्तरों की कारों को चलाते समय कैसे सो जाते हैं, हम सभी को यह याद रखना चाहिए कि ड्राइवर अर्ध-स्वायत्त कार चलाने से विचलित नहीं किया जा सकता है।

आप स्वचालन के स्तर की परवाह किए बिना वाहन स्तर 2 या 3 को नियंत्रित करने के लिए कार्यों के लिए जिम्मेदार हैं।

मानव रहित वाहन और एआई नैतिकता


स्तर 4 और 5 के वाहनों में, एक व्यक्ति प्रबंधन में भाग नहीं लेता है, इन वाहनों में सभी लोग यात्री होंगे, और एआई ड्राइव करेगा। नतीजतन, कई बुद्धिमान सिस्टम इन स्तर के वाहनों में निर्मित होंगे - एक निर्विवाद तथ्य।

निम्नलिखित प्रश्न उठता है - क्या एआई जो मानव रहित वाहन चलाता है, वह एआई की नैतिकता पर किसी भी दिशा-निर्देश या आवश्यकताओं तक सीमित होगा (आप इस लिंक पर मानवरहित वाहनों के लिए एआई की नैतिकता के मेरे विश्लेषण को देख सकते हैं , साथ ही इस नैतिकता को विकसित करने के लिए सुझाव भी दे सकते हैं )।

याद रखें कि कोई डिफ़ॉल्ट प्रणाली नहीं है जिसके लिए AI को नैतिक मानकों या समाज के साथ नैतिक अनुबंध का पालन करना होगा।

लोगों को स्वयं ऐसी मान्यताओं या सिद्धांतों को बुद्धिमान प्रणालियों में एम्बेड करना चाहिए, और एआई डेवलपर्स को स्पष्ट रूप से और व्यापक आंखों के साथ ऐसा करना चाहिए।

दुर्भाग्य से, कुछ दूसरे तरीके से काम करते हैं - वे अपनी आँखें कसकर बंद कर लेते हैं या सम्मोहन के प्रभाव में आते हैं, और उपरोक्त क्रियाओं के बजाय, वे संभावित पुरस्कार पर मोहित दिखते हैं कि उनकी परियोजना (या इच्छित महान लक्ष्य) लाएगी।

मैंने चेतावनी दी कि कुछ एआई सिस्टम उन्हें विकसित करने वालों से "महान भ्रष्टाचार" करेंगे। परिणाम निम्नानुसार होगा - विकास में शामिल लोग अच्छी तरह से अर्थ AI की क्षमता में इतने अधिक अवशोषित हो जाएंगे कि वे AI की नैतिकता के बारे में विचार करने के लिए ध्यान से अनदेखा, चूक या कम कर देंगे (लिंक देखें)।

यहाँ सेट में पाँच बिंदु हैं।अमेरिकी रक्षा विभाग एआई एथिक्स प्रिंसिपल्स :

सिद्धांत एक: जिम्मेदारी


"रक्षा विभाग के कर्मचारी एआई क्षमताओं के विकास, परिनियोजन और उपयोग के लिए ज़िम्मेदार रहते हुए मूल्यांकन और ध्यान का एक उचित स्तर करेंगे।"

इसके साथ शुरू करने के लिए, हम "मंत्रालय के कर्मचारियों" की बात करने वाले इस शब्द को निकालेंगे और इसे "सभी कर्मचारियों" से बदल देंगे। आपको एक मैनुअल मिला जो एआई के साथ काम करने वाले किसी भी संगठन के लिए उपयुक्त है, विशेष रूप से वाणिज्यिक।

मानव रहित वाहनों के साथ काम करने वाले वाहन निर्माता और प्रौद्योगिकी फर्मों को अपने शब्दों का ध्यानपूर्वक सिद्धांत के शब्दों को ध्यान से पढ़ना चाहिए।

मैं इस बारे में बात कर रहा हूं, क्योंकि कुछ लोग यह तर्क देना जारी रखते हैं कि AI- आधारित ड्रोन अपने आप काम करेगा, और इसलिए इस बारे में बहुत चिंता होगी कि कौन ले जाएगावाहन के व्यवहार में त्रुटियों के लिए देयता जिसके परिणामस्वरूप व्यक्तिगत चोट या मृत्यु होगी।

संक्षेप में, लोग जिम्मेदार होंगे

ये वे लोग हो सकते हैं जिन्होंने एक AI- आधारित ड्रोन विकसित किया है - एक ऑटोमेकर या एक प्रौद्योगिकी फर्म।

यह भी समझें कि मैं लगातार कहता हूं कि डेवलपर्स और इन AI सिस्टम को तैनात करने वाले इसके लिए जिम्मेदार हैं , और इसका मतलब है कि इन प्रणालियों के साथ काम करना और उन्हें स्थापित करना उतना ही महत्वपूर्ण है जितना डेवलपर्स के साथ काम करना ।

क्यों?

क्योंकि जो लोग बुद्धिमान सिस्टम को तैनात करते हैं, वे गलतियां भी कर सकते हैं जो प्रतिकूल परिणाम देते हैं।

उदाहरण के लिए, मान लीजिए किएक सवारी कंपनी ने मानवरहित वाहनों का एक बेड़ा हासिल कर लिया है और उनका उपयोग अपने ग्राहकों की संयुक्त यात्राओं के लिए करती है।

अब तक सब ठीक है।

लेकिन बता दें कि यह कंपनी इन मानव रहित वाहनों को ठीक से सेवा देने में सक्षम नहीं है रखरखाव की कमी या निर्देशों की उपेक्षा के कारण, मानव रहित वाहन काम नहीं करते हैं। इस मामले में, हम मूल डेवलपर के साथ गलती पा सकते हैं, लेकिन यह उन लोगों से सवाल पूछने के लायक है जिन्होंने एआई सिस्टम को तैनात किया और अपने काम में उचित देखभाल और जिम्मेदारी नहीं दिखाई

सिद्धांत दो: निष्पक्षता


"मंत्रालय एआई सिस्टम के संचालन में अनजाने पूर्वाग्रह की उपस्थिति को कम करने के लिए कदम उठाएगा।"

एक बार फिर, शब्द "मंत्रालय" शब्द को ले लीजिए और इसे "डेवलपर्स और एआई सिस्टम स्थापित करने वाले कर्मचारियों के साथ बदलें।" आप एक सिद्धांत प्राप्त करेंगे जो सार्वभौमिक है और सभी के लिए उपयुक्त है।

मानवरहित वाहनों के मामले में, इस बात का डर है कि एआई सिस्टम अपनी दौड़ के आधार पर पैदल चलने वालों के लिए अलग तरह से प्रतिक्रिया कर सकता है , इस प्रकार नस्लीय पूर्वाग्रह का प्रदर्शन करता है।

एक और समस्या यह है कि मानव रहित वाहनों के बेड़े में कुछ क्षेत्रों से बचने के लिए कारें हो सकती हैं। इससे भौगोलिक बहिष्कार होगा, जो अंततः गतिशीलता की समस्याओं वाले लोगों को लूट लेगा मानव रहित वाहनों के लिए नि: शुल्क प्रवेश।

नतीजतन, एक महत्वपूर्ण मौका है कि पूर्ण-रहित मानवरहित वाहन एक फॉर्म या किसी अन्य के पूर्वाग्रहों में पक्षपाती हो जाएंगे, और यह कहने के बजाय कि यह जीवन है, डेवलपर्स और उपयोगकर्ताओं को ऐसे किसी भी पूर्वाग्रह को कम करने, कम करने या कम करने का प्रयास करना चाहिए।

सिद्धांत तीन: ट्रेसबिलिटी


“एआई के क्षेत्र में मंत्रालय की परियोजनाओं को इस तरह से विकसित और तैनात किया जाएगा कि संबंधित कर्मियों को एआई के क्षेत्र में लागू होने वाली तकनीकों, विकास प्रक्रियाओं और परिचालन विधियों की उचित समझ हो, जिसमें पारदर्शी और सत्यापन योग्य तरीके, डेटा स्रोत, साथ ही साथ डिजाइन भी शामिल हैं। प्रलेखन ”।

बस मंत्रालय के सभी संदर्भों को शब्दों से हटा दें या, यदि आप चाहें, तो आप इसे किसी भी कंपनी या संगठन के किसी भी विभाग के रूप में सोच सकते हैं - यह सिद्धांत को सभी के लिए व्यापक रूप से लागू करेगा।

इस सिद्धांत में बहुत कुछ निहित है, लेकिन संक्षिप्तता के लिए, मैं केवल एक पहलू पर ध्यान केंद्रित करूँगा जो आपने नहीं देखा होगा।

"डेटा स्रोतों" के साथ आइटम का उद्देश्य मशीन सीखने और प्रसार करना हैगहरी सीख

जब आप मशीन / गहन शिक्षण के साथ काम करते हैं, तो आपको आमतौर पर डेटा का एक बड़ा समूह इकट्ठा करने की आवश्यकता होती है, और फिर पैटर्न खोजने के लिए विशेष एल्गोरिदम और मॉडल का उपयोग करते हैं

छिपे हुए पूर्वाग्रह पर पूर्ववर्ती पैराग्राफ के समान, यदि एकत्र किया गया डेटा शुरू में किसी तरह से पक्षपाती है, तो पैटर्न संभवतः इन पूर्वाग्रहों को उजागर करेगा। परिणामस्वरूप, जब AI सिस्टम वास्तविक समय में संचालित होता है, तो यह इन गैसों को वास्तविकता में अनुवाद करेगा।

इससे भी अधिक भयावह यह है कि एआई डेवलपर्स यह नहीं समझ सकते हैं कि क्या मामला है, और जो लोग इन सिस्टमों को स्थापित और तैनात करते हैं, वे इसका पता नहीं लगा पाएंगे।

सशर्त न्यूयॉर्क में पागल और शत्रुतापूर्ण यातायात पर प्रशिक्षित ड्रोन संभावित रूप से अपना पदभार संभाल सकता हैन्यूयॉर्क से एक ड्राइवर की आक्रामक ड्राइविंग शैलीकल्पना कीजिए कि आपने इस प्रणाली को लिया और इसका उपयोग अमेरिकी शहरों में किया गया, जहां ड्राइविंग शैली अधिक शांत और मापी गई है।

यह सिद्धांत स्पष्ट रूप से इंगित करता है कि स्थापना और तैनाती के लिए जिम्मेदार डेवलपर्स और कर्मचारियों को ऐसे स्रोतों के डेटा स्रोतों, पारदर्शिता और ऑडिटिंग के बारे में सावधान रहना चाहिए।

सिद्धांत चार: विश्वसनीयता


"एआई के क्षेत्र में मंत्रालय की परियोजनाओं में स्पष्ट रूप से परिभाषित उपयोग होंगे, और इस तरह की परियोजनाओं की सुरक्षा, विश्वसनीयता और प्रभावशीलता को पूरे जीवन चक्र में वर्णित उपयोगों के भीतर परीक्षण और सत्यापित किया जाएगा।"

पिछले पैराग्राफ के समान चरणों का पालन करें: शब्द "मंत्रालय" को हटा दें। इस अनुच्छेद को लागू करें जैसे कि यह किसी भी संगठन और उसके विभाग पर लागू होता है।

अधिकांश (या शायद सभी) सहमत होंगे कि मानव रहित वाहनों की सफलता या विफलता उनकी सुरक्षा , सुरक्षा और दक्षता पर निर्भर करती है

मुझे उम्मीद है कि एआई-आधारित कारों के लिए इसकी स्पष्ट प्रयोज्यता के कारण यह सिद्धांत स्पष्ट है।

सिद्धांत पाँच: प्रबंधन क्षमता


"मंत्रालय अपने संबंधित कार्यों को पूरा करने के लिए एआई-संबंधित परियोजनाओं को डिजाइन और विकसित करेगा, जबकि पहले से अनजाने परिणामों का पता लगाने और उन्हें टालने में सक्षम होने के साथ-साथ, असामान्य व्यवहार को प्रदर्शित करने वाले तैनात सिस्टम को अक्षम या निष्क्रिय करने की क्षमता है।"

हमेशा की तरह, "मंत्रालय" शब्द को हटा दें और इस पैराग्राफ को किसी भी चीज़ पर लागू करें।

इस सिद्धांत का पहला हिस्सा अप्रत्याशित परिणामों, विशेष रूप से प्रतिकूल लोगों का पता लगाने और रोकने के मेरे विषय को रेखांकित करता है।

मानव रहित वाहनों के मामले में यह बहुत स्पष्ट है।

मानवरहित वाहनों के बारे में एक सूक्ष्म बिंदु भी है, जिसमें तैनात AI सिस्टम को निष्क्रिय या निष्क्रिय करने की क्षमता शामिल है, जिसमें अप्रत्याशित व्यवहार दिखाया गया है - कई विकल्प और कठिनाइयां हैं, और यह कार के बाहर स्थित "लाल" शटडाउन बटन पर क्लिक नहीं कर रहा है ( जैसा कि कुछ लोग सोचते हैं। )

निष्कर्ष


हम आमतौर पर रक्षा विभाग से अपेक्षा करते हैं कि वह अपने कार्ड का खुलासा नहीं करेगा।

इस मामले में, एआई की नैतिकता पुस्तिका को गुप्त नहीं रखा जाना चाहिए। वास्तव में, यह बहुत सुखद और सराहनीय है कि रक्षा मंत्रालय ने इस दस्तावेज़ को प्रकाशित किया।

अंत में, यह एक बात है कि एक बाघ को कागज से बाहर गोंद दिया जाए, और दूसरा इसे वास्तविक दुनिया में देखने के लिए।

सभी डेवलपर्स और स्थापना और तैनाती के लिए जिम्मेदार कर्मचारियों को सावधानीपूर्वक और सावधानीपूर्वक इस एआई नैतिकता मैनुअल का अध्ययन करना चाहिए, साथ ही अन्य स्रोतों से समान (उनमें से कई) नैतिक सिद्धांत।



छवि

ITELMA के बारे में
- automotive . 2500 , 650 .

, , . ( 30, ), -, -, - (DSP-) .

, . , , , . , automotive. , , .

और अधिक उपयोगी लेख पढ़ें:


All Articles