وزارة الدفاع الأمريكية: أخلاقيات الذكاء الاصطناعي والمركبات غير المأهولة

صورة

الأخلاق AI هي موضوع ساخن وملائم في هذه الأيام. وهذا صحيح.

مع ذروة أنظمة الذكاء الاصطناعي وانتشارها الواسع للغاية ، هناك مخاوف معقولة من أن أنظمة الكمبيوتر هذه يتم طرحها ببساطة في هذا العالم دون فهم العواقب المحتملة على المجتمع.

هناك قلق شديد من أن أنظمة الذكاء الاصطناعي الجديدة تحتوي على أحكام مسبقة مضمنة فيها وعرضة لأفعال سامة من حيث الأخلاق والمجتمع.

عندما يتعلق الأمر بأخلاقيات الذكاء الاصطناعي ، أزعم أن هناك جانبين رئيسيين (أو قواعد) على الأقل:

  1. يجب أن يكون سلوك نظام الذكاء الاصطناعي مقبولاً للمجتمع
  2. يجب على مصممي أنظمة الذكاء الاصطناعي والأنظمة نفسها فرض القاعدة 1.

ربما يكون جوهر القاعدة الأولى واضحًا - معنى أخلاقيات الذكاء الاصطناعي هو أن سلوك هذه الأنظمة يجب أن يتوافق مع المعايير الأخلاقية للمجتمع.

سيظهر أدناه أن الامتثال للقاعدة الأولى أكثر تعقيدًا مما قد يبدو.

تكمن أهمية القاعدة 2 في توضيح أن الأطراف المسؤولة عن ضمان الامتثال الكامل لأخلاقيات الذكاء الاصطناعي تتكون من أشخاص يقومون بتصميم وبناء وتوزيع هذه الأنظمة.

إذا كان هذا يبدو واضحًا لك ، فلا تتسرع في إصدار أحكام تستند إلى "الفطرة السليمة".

حول أنظمة الذكاء الاصطناعي ، هناك نوع من الهالة ، كما لو كانت مستقلة وقادرة على تقرير المصير. وهكذا ، عندما يرتكب نظام الذكاء الاصطناعي نوعًا من مظاهر التحيز العنصري ، يرتكب البعض خطأ منطقيًا قائلين إن الذكاء الاصطناعي فعل ذلك ، دون إلقاء اللوم على أولئك الذين أنشأوا هذا النظام ونفذوه.

يفضل بعض مطوري ومصنعي هذه الأنظمة بالتأكيد عدم النظر في اتجاههم.عندما يقوم نظام الذكاء الاصطناعي بشيء خاطئ.

ونتيجة لذلك ، يمكن لأولئك الذين يتحملون المسؤولية الحقيقية أن يصنعوا وجهًا متفاجئًا ويخجلون بمكر من واجباتهم ، قائلين إن منظمة العفو الدولية هي المسؤولة. سوف يتصرف هؤلاء الأشخاص كما لو أنهم يشاهدون فقط تحطم القطار ، حتى لو كانوا هم من وضعوه على القضبان وبدأوه دون أي تحكم أو تحقق.

بالطبع ، يدافع البعض عن نظامهم الذي ارتكب خطأ. سيقولون أنهم حاولوا منع كل الفشل ، لكن اللعنة ، كان هناك شيء مفقود . بمعنى ما ، سيحاول هؤلاء الناس أن يجعلوا أنفسهم "ضحايا" ، على النقيض من أولئك الذين عانوا من الذكاء الاصطناعي.

لا تنخدع بهذا.

في الواقع ، من فضلك لا تنخدع بهذا.

باختصار ، القاعدة الثانية لا تقل أهمية عن القاعدة الأولى.

بدون محاسبة الناس على أفعال الذكاء الاصطناعي التي أنشأوها ، سنجلس جميعًا في بركة.

أنا متأكد من أن منشئي المحتوى سوف يفلتون بسهولة بوعودهم المتعلقة بتطوير أنظمة الذكاء الاصطناعي الجديدة الخاصة بهم . سيشيد هؤلاء الأشخاص بمنتجاتهم ، آملين في نجاحهم ، وسيتظاهرون أيضًا بأنهم لا علاقة لهم بالتطبيقات التي تقع أخطاءنا الأخلاقية علينا جميعاً. كل هذا سيشجع على إنشاء أنظمة الذكاء الاصطناعي التي لا تتحمل المسؤولية الأخلاقية.

المجال الآخر الذي يمكن أن تكون فيه أخلاقيات الذكاء الاصطناعي صعبة للغاية هو الذكاء الاصطناعي للأغراض العسكرية.

سيوافق معظم الناس على أننا بحاجة إلى الالتزام بمعايير أخلاقية معينة للذكاء الاصطناعي عند إنشاء واستخدام أنظمة الاستخبارات العسكرية. يمكن استخدام المعرفة والخبرة التي نكتسبها بهذه الطريقة للاستخدام التجاري والصناعي للذكاء الاصطناعي.

أصدرت وزارة الدفاع الأمريكية مؤخرًا مجموعة من مبادئ الذكاء الاصطناعي .

إذا نظرت إلى هذه المبادئ بشكل منعزل (الذي سأفعله في هذه المقالة) ، أي دون مراعاة السياقات العسكرية والدفاعية ، يمكنك أن ترى أنها قابلة للتطبيق على أي أنظمة تجارية أو صناعية للذكاء الاصطناعي.

سأخبرك عن هذه المبادئ ، واستخدم منطقتي المفضلة لهذا - ظهور مركبات حقيقية بدون طيار. سيسمح لي هذا بتوضيح مدى قابلية تطبيق أحدث مجموعة من مبادئ أخلاقيات الذكاء الاصطناعي (بما في ذلك الاستخدام غير العسكري).

وفقًا لتقارير وسائل الإعلام ، نشر البنتاغون هذه المجموعة الأخيرة من المعايير الأخلاقية لمنظمة العفو الدولية ، نقلاً عن الملازم في سلاح الجو جاك جاك شينهان ومدير مركز الذكاء الاصطناعي المشترك ، قال على نحو ملائم : "إن الذكاء الاصطناعي هو تقنية قوية وفعالة تعمل على تغيير الثقافة والمجتمع في نهاية المطاف حتى الحرب. "مدى جودة أو سوء هذه التغييرات تعتمد على نهجنا في اعتماد واستخدام هذه الأنظمة."

كما قلت مرارًا ، فإن نهج المجتمع في تطوير الذكاء الاصطناعي سيحدد مصير هذا النظام - سواء كان سيعمل من أجل الخير ، أو (أو سيصبح بمرور الوقت) فشلًا ذا عواقب مؤسفة .

يجب أن يتعرض مطورو ومصنعو أنظمة الذكاء الاصطناعي لضغوط شديدة.

للتوضيح ، ألاحظ أن أنظمة الذكاء الاصطناعي لن تعمل من أجل الخير ببساطة بطبيعتها (لا توجد بديهية ومتطلبات مسبقة يمكن أن تضمن ذلك).

من أجل دراسة هذه المشكلة بشكل كامل ، سننظر في مفهومي ، وهو عبارة عن مخطط من أربعة مربعات ، أسميه مخطط العواقب الأخلاقية لمنظمة العفو الدولية .

تقليديا ، نشير إلى الجزء العلوي من محور الخراجية بأنه "AI للخير" ، والأقل باسم "AI للضرر". وبالمثل ، نقسم المحور الإحداثي ، والجانب الأيسر يسمى "عمدًا" ، والجانب الأيمن "عمدًا".

وهكذا نحصل على 4 مربعات:

  1. منظمة العفو الدولية جيدة - عمدا
  2. منظمة العفو الدولية على حساب - عمدا
  3. الذكاء الاصطناعي من أجل الخير - عن غير قصد
  4. منظمة العفو الدولية على حساب - عن غير قصد

أفهم أن البعض منكم قد يشعر بالرعب من تبسيط مثل هذه المشكلة الجسيمة إلى تخطيط بسيط من أربعة مربعات ، ولكن في بعض الأحيان يمكن أن يكون المنظور العالمي مفيدًا - حيث يمكنك رؤية الغابة بين الأشجار.

يصف المربع الأول الذكاء الاصطناعي الجيد الذي تم إنشاؤه بنوايا حسنة. يحقق هذا الذكاء الاصطناعي أهدافه دون أي انتهاكات أخلاقية ، وأعتقد أن هذا المربع هو المعيار الذي يجب أن تسعى إليه جميع الأنظمة الذكية.

المربع الثاني عبارة عن AI ضار. لسوء الحظ ، سيتم إنشاء هذه الأنظمة وإطلاقها (من قبل المجرمين أو الإرهابيين) ، لكنني آمل أن نكون جاهزين لذلك ، وستساعدنا مبادئ أخلاقيات الذكاء الاصطناعي على اكتشاف مظهرها.

المربع الثالث هو حظ عشوائي. يصف حالة أنشأ فيها شخص نظامًا ذكيًا تبين فجأة أنه جيد. ربما لم يفكر منشئها في الاتجاه الإيجابي لتطورها ، ولكن حتى لو كان مجرد مزيج ناجح من الظروف ، فإنه لا يزال ناجحًا ، لأن الأساس هو النتيجة بالنسبة لنا.

المربع الرابع هو الأكثر خبثًا ، وهو الذي يسبب أكبر قدر من القلق (باستثناء المربع الثاني المخيفة). كقاعدة ، فإن الأنظمة التي يجب أن تعمل من أجل الخير تقع هنا ، ولكن أثناء التطوير ، تتراكم الصفات السلبية فيها والتي تتداخل مع كل الخير.

بشكل عام ، سنكون محاطين بأنظمة تختلط فيها السمات الجيدة والسيئة شيئًا فشيئًا. يمكن وصف الموقف على النحو التالي: سيعمل المطورون جاهدين على إنشاء ذكاء اصطناعي جيد سيكون مفيدًا ، ولكن في عملية إنشاء أخطاء غير مقصودة سوف تتراكم في النظام ، مما سيؤدي إلى عواقب سلبية.

فكر في سؤالين مهمين:

  • كيف يمكننا أن نفهم أو نكتشف أن النظام الذكي قد يحتوي على ميزات الذكاء الاصطناعي السيئ؟
  • كيف يمكن للمطورين أن يكونوا على دراية بكيفية إنشاء مثل هذه الأنظمة من أجل التقاط الأخطاء ومنع ظهور أنظمة يمكن أن يؤدي تشغيلها إلى عواقب سلبية؟

الجواب: التقيد الصارم بالقواعد المأخوذة من المجموعة الصحيحة والكبيرة من مبادئ أخلاقيات الذكاء الاصطناعي.

بالحديث عن المبادئ التوجيهية لأخلاقيات الذكاء الاصطناعي ، تحتوي وثيقة صادرة عن وزارة الدفاع على خمسة مبادئ أساسية ، ويعبر كل منها عن أفكار مهمة يجب على جميع مطوري وموزعي الذكاء الاصطناعي الانتباه إليها ، وكذلك كل من يستخدم هذه الأنظمة أو سيستخدمها.

بشكل عام ، تفيد المبادئ التوجيهية لأخلاقيات الذكاء الاصطناعي لجميع الأطراف المعنية ، وليس فقط المطورين.

أفضل طريقة لتعلم المبادئ من وثيقة من وزارة الدفاع هي إظهارها فيما يتعلق بالأنظمة الذكية الموجودة.

يجدر النظر في السؤال العاجل: هل تنطبق مبادئ مدونة وزارة الدفاع علىسيارات بدون طيار حقا ؟ إن أمكن ، كيف يجب استخدامها؟

إنها قابلة للتطبيق حقًا ، فلنلقِ نظرة على كيفية عملها.

مستويات المركبات بدون طيار


صورة

من المهم توضيح ما أعنيه عندما أتحدث عن المركبات بدون طيار تمامًا مع الذكاء الاصطناعي.

المركبات الحقيقية غير المأهولة هي المركبات التي تدير فيها منظمة العفو الدولية نفسها دون أي مساعدة بشرية.

يتم تعيين هذه المركبات إلى المستويين 4 و 5 ، في حين يتم تعيين السيارات التي تتطلب مشاركة بشرية للقيادة المشتركة إلى المستويين 2 أو 3 . تُسمى السيارات التي تقود فيها السيارة بمساعدة شخص شبه مستقلة ، وعادةً ما تحتوي على العديد من الوظائف الإضافية التي يشار إليها باسم ADAS (أنظمة مساعدة السائق المتقدمة).

حتى الآن ، لا يوجد مستوى مركبة بدون طيار بالكامل 5. اليوم نحن حتىلا نعرف ما إذا كان سيتم تحقيق ذلك ، والوقت الذي سيستغرقه.

وفي الوقت نفسه ، العمل جار في منطقة المستوى 4. يتم إجراء اختبارات ضيقة وانتقائية للغاية على الطرق العامة ، على الرغم من وجود جدل حول مقبولية مثل هذه الاختبارات (يعتقد البعض أن الأشخاص المشاركين في الاختبارات على الطرق والطرق السريعة يعملون كخنازير غينيا ، والتي يمكن أن تعيش أو تموت في كل اختبار ) .

نظرًا لأن السيارات شبه المستقلة تتطلب سائقًا بشريًا ، فإن اعتماد هذه السيارات من قبل الجماهير لن يختلف كثيرًا عن قيادة السيارات العادية ، فلا يوجد شيء جديد يمكن أن يقال عنها في سياق موضوعنا (على الرغم من ، كما سترى قريبًا ، النقاط التي سيتم النظر فيها تنطبق كذلك عليهم).

في حالة السيارات شبه المستقلة ، من المهم أن يتم تحذير الجمهور من الجانب المزعج الذي نشأ مؤخرًا - على الرغم من الأشخاص الذين يواصلون نشر مقاطع فيديو حول كيفية نومهم أثناء قيادة السيارات من مستويين أو 3 مستويات ، كلنا بحاجة إلى أن نتذكر أن السائق لا يمكن صرف انتباهه عن قيادة سيارة شبه مستقلة.

أنت مسؤول عن إجراءات التحكم في مستوى السيارة 2 أو 3 ، بغض النظر عن مستوى الأتمتة.

المركبات بدون طيار وأخلاقيات الذكاء الاصطناعي


في المركبات من المستوى 4 و 5 ، لا يشارك الشخص في الإدارة ، وسيكون جميع الأشخاص في هذه المركبات من الركاب ، وسوف تقود منظمة العفو الدولية. ونتيجة لذلك ، سيتم بناء العديد من الأنظمة الذكية في هذه المركبات ذات المستوى - وهي حقيقة لا جدال فيها.

يطرح السؤال التالي - هل يقتصر الذكاء الاصطناعي الذي يقود السيارة بدون طيار على أي إرشادات أو متطلبات بشأن أخلاقيات الذكاء الاصطناعي (يمكنك إلقاء نظرة على تحليلي لأخلاقيات الذكاء الاصطناعي للمركبات غير المأهولة من خلال هذا الرابط ، بالإضافة إلى نصائح حول تطوير هذه الأخلاقيات ).

تذكر أنه لا يوجد نظام افتراضي يتطلب من الذكاء الاصطناعي الامتثال للمعايير الأخلاقية أو عقد أخلاقي مع المجتمع.

يجب على الأشخاص أنفسهم تضمين هذه المعتقدات أو المبادئ في أنظمة ذكية ، ويجب على مطوري الذكاء الاصطناعي القيام بذلك بشكل صريح وبأعين واسعة.

لسوء الحظ ، يتصرف البعض في الاتجاه الآخر - يغمضون عيونهم بإحكام أو يقعون تحت تأثير التنويم المغناطيسي ، وبدلاً من الإجراءات المذكورة أعلاه ، فإنهم يبدون مفتونين بالجائزة المحتملة التي سيجلبها مشروعهم (أو الهدف النبيل المفترض).

لقد حذرت من أن بعض أنظمة الذكاء الاصطناعي ستؤدي إلى "فساد نبيل" من أولئك الذين يقومون بتطويرها. ستكون النتيجة على النحو التالي - سيتم استيعاب المشاركين في التطوير في إمكانات الذكاء الاصطناعي ذي النية الحسنة بحيث يتجاهلون بشكل انتقائي أو يفوتون أو يقللون من الاهتمام بالاعتبارات المتعلقة بأخلاقيات الذكاء الاصطناعي (انظر الرابط).

هنا خمس نقاط في المجموعة.مبادئ أخلاقيات الذكاء الاصطناعي في وزارة الدفاع الأمريكية :

المبدأ الأول: المسؤولية


"سيضطلع موظفو وزارة الدفاع بمستوى مناسب من التقييم والاهتمام ، بينما يظلون مسؤولين عن تطوير ونشر واستخدام قدرات الذكاء الاصطناعي".

بادئ ذي بدء ، سنستخلص من هذه الصياغة الجزء الذي يتحدث عن "موظفي الوزارة" ونستبدلها بـ "جميع الموظفين". لقد حصلت على دليل مناسب لأي منظمة تعمل مع الذكاء الاصطناعي ، وخاصة التجارية.

يجب على شركات صناعة السيارات وشركات التكنولوجيا التي تعمل مع المركبات غير المأهولة قراءة صياغة المبدأ بعناية ، مع اتباع كلماتها بعناية.

أنا أتحدث عن هذا ، حيث يستمر البعض في القول بأن الطائرة بدون طيار المرتكزة على الذكاء الاصطناعي ستعمل من تلقاء نفسها ، وبالتالي سيكون هناك الكثير من القلق حول من سيحملالمسؤولية عن الأخطاء في سلوك السيارة التي تؤدي إلى إصابة شخصية أو الوفاة.

باختصار ، سيكون الناس مسؤولين .

قد يكون هؤلاء أشخاصًا طوروا طائرة بدون طيار قائمة على الذكاء الاصطناعي - صانع سيارات أو شركة تكنولوجيا.

افهم أيضًا أنني أقول باستمرار أن الأشخاص المسؤولين يشملون المطورين وأولئك الذين ينشرون أنظمة الذكاء الاصطناعي هذه ، مما يعني أن العمل مع هذه الأنظمة وتثبيتها لا يقل أهمية عن العمل مع المطورين .

لماذا ا؟

لأن الأشخاص الذين ينشرون أنظمة ذكية يمكنهم أيضًا ارتكاب أخطاء تؤدي إلى عواقب وخيمة.

على سبيل المثال ، افترض ذلكاستحوذت شركة مشاركة في ركوب الخيل على أسطول من المركبات غير المأهولة وتستخدمها في رحلات مشتركة لعملائها.

حتى الان جيدة جدا.

ولكن دعنا نقول أن هذه الشركة غير قادرة على خدمة هذه المركبات غير المأهولة بشكل صحيح . بسبب نقص الصيانة أو إهمال التعليمات ، لا تعمل المركبات غير المأهولة. في هذه الحالة ، قد نجد خطأً مع المطور الأصلي ، ولكن الأمر يستحق طرح الأسئلة لأولئك الذين نشروا نظام الذكاء الاصطناعي ولم يظهروا العناية والمسؤولية الواجبة في عملهم .

المبدأ الثاني: الحياد


"ستتخذ الوزارة خطوات لتقليل ظهور التحيز غير المقصود في تشغيل أنظمة الذكاء الاصطناعي".

ومرة أخرى ، استخدم عبارة "الوزارة" في الصياغة واستبدلها بـ "المطورين والموظفين الذين يقومون بتثبيت أنظمة الذكاء الاصطناعي". سوف تحصل على مبدأ عالمي ومناسب للجميع.

في حالة المركبات غير المأهولة ، هناك خوف من أن نظام الذكاء الاصطناعي قد يتفاعل بشكل مختلف مع المشاة اعتمادًا على عرقهم ، مما يدل على التحامل العنصري ببراعة ودون حسم.

مشكلة أخرى هي أن أسطول المركبات غير المأهولة يمكن أن يتسبب في تجنب السيارات في مناطق معينة. سيؤدي هذا إلى الإقصاء الجغرافي ، والذي سوف يسلب في النهاية الأشخاص الذين يعانون من مشاكل في التنقل.حرية الوصول إلى المركبات غير المأهولة.

ونتيجة لذلك ، هناك احتمال كبير بأن تصبح المركبات غير المأهولة الكاملة غارقة في الأحكام المسبقة بشكل أو بآخر ، وبدلاً من رفع أيديهم والقول إن هذه هي الحياة ، يجب على المطورين والمستخدمين السعي إلى تقليل أي من هذا التحامل أو تخفيفه أو تقليله.

المبدأ الثالث: التتبع


"سيتم تطوير مشاريع الوزارة في مجال الذكاء الاصطناعي ونشرها بطريقة تجعل الموظفين المعنيين يفهمون جيدًا التقنيات وعمليات التطوير وأساليب التشغيل المطبقة في مجال الذكاء الاصطناعي ، بما في ذلك من خلال الأساليب الشفافة والقابلة للتحقق ومصادر البيانات بالإضافة إلى التصميم و توثيق ".

ما عليك سوى إزالة جميع المراجع للوزارة من الصياغة أو ، إذا كنت ترغب ، يمكنك التفكير فيها على أنها أي قسم في أي شركة أو مؤسسة - وهذا سيجعل المبدأ قابلاً للتطبيق على نطاق واسع على الجميع.

هناك الكثير من الأشياء المتأصلة في هذا المبدأ ، ولكن للإيجاز ، سأركز فقط على جانب واحد ربما لم تلاحظه.

يهدف البند الذي يحتوي على "مصادر البيانات" إلى نشر التعلم الآلي والتعلم العميق .

عند العمل مع التعلم الآلي / العميق ، تحتاج عادةً إلى جمع مجموعة كبيرة من البيانات ، ثم استخدام خوارزميات ونماذج خاصة للعثور على الأنماط .

على غرار الفقرة السابقة بشأن التحيز المخفي ، إذا كانت البيانات التي تم جمعها متحيزة في البداية بطريقة ما ، فإن الأنماط ستبرز هذه التحيزات. ونتيجة لذلك ، عندما يعمل نظام الذكاء الاصطناعي في الوقت الفعلي ، فإنه سيترجم هذه التحيزات إلى واقع ملموس.

والأمر الأكثر إثارة للخوف هو حقيقة أن مطوري الذكاء الاصطناعي قد لا يفهمون ما يحدث ، ولن يتمكن أولئك الذين يقومون بتثبيت هذه الأنظمة ونشرها من اكتشافها أيضًا.

يمكن لطائرة بدون طيار مدربة على حركة مجنونة وعدائية في نيويورك المشروطة أن تتولى المسؤوليةأسلوب القيادة العدواني النموذجي للسائق من نيويورك. تخيل أنك أخذت هذا النظام واستخدمه في مدن الولايات المتحدة حيث يكون أسلوب القيادة أكثر هدوءًا وقياسًا.

يشير هذا المبدأ بوضوح إلى أن المطورين والموظفين المسؤولين عن التثبيت والنشر يجب أن يكونوا حذرين بشأن مصادر البيانات ، والشفافية ، ومراجعة هذه الأنظمة.

المبدأ الرابع: الموثوقية


"سيكون لمشاريع الوزارة في مجال الذكاء الاصطناعي استخدامات محددة بوضوح ، وسيتم اختبار سلامة وموثوقية وفعالية هذه المشاريع والتحقق منها ضمن الاستخدامات الموصوفة طوال دورة الحياة."

اتبع نفس الخطوات كما في الفقرات السابقة: إزالة كلمة "الوزارة" و تطبيق هذه الفقرة كما لو كانت تنطبق على أي منظمة ودائرتها.

ومعظم (أو ربما كل) توافق على أن نجاح أو فشل بدون طيار المركبات يعتمد على سلامتهم ، السلامة ، والكفاءة.

آمل أن يكون هذا المبدأ واضحًا بسبب قابلية تطبيقه الصريح للسيارات المعتمدة على الذكاء الاصطناعي.

المبدأ الخامس: الإدارة


"ستقوم الوزارة بتصميم وتطوير المشاريع المتعلقة بالذكاء الاصطناعي لأداء وظائفها المقصودة ، مع القدرة على اكتشاف العواقب غير المقصودة مسبقًا وتجنبها ، بالإضافة إلى القدرة على تعطيل أو تعطيل الأنظمة المنتشرة التي تظهر سلوكًا غير طبيعي."

كالعادة ، أزل كلمة "الوزارة" وطبّق هذه الفقرة على أي شيء.

يكمن الجزء الأول من هذا المبدأ في موضوعي وهو الكشف عن العواقب غير المتوقعة ومنعها ، وخاصة العواقب السلبية.

هذا واضح جدا في حالة المركبات بدون طيار.

هناك أيضًا نقطة دقيقة فيما يتعلق بالمركبات غير المأهولة ، والتي تتضمن القدرة على تعطيل أو تعطيل نظام الذكاء الاصطناعي المنتشر ، والذي أظهر سلوكًا غير متوقع - هناك العديد من الخيارات والصعوبات ، وهذا ليس فقط النقر على زر إيقاف التشغيل "الأحمر" الموجود خارج السيارة ( كما يعتقد البعض )

استنتاج


نتوقع عادة من وزارة الدفاع عدم الكشف عن أوراقها.

في هذه الحالة ، لا ينبغي أن يبقى دليل الأخلاقيات للذكاء الاصطناعي سراً. في الواقع ، من الممتع والجدير بالثناء أن وزارة الدفاع نشرت هذه الوثيقة.

في النهاية ، إن لصق نمر من الورق شيء ، ورؤيته في العالم الحقيقي شيء.

يجب على جميع المطورين والموظفين المسؤولين عن التثبيت والنشر دراسة دليل أخلاقيات الذكاء الاصطناعي بعناية ودقة ، بالإضافة إلى المبادئ الأخلاقية (العديدة) المماثلة من مصادر أخرى.



صورة

حول ITELMA
- automotive . 2500 , 650 .

, , . ( 30, ), -, -, - (DSP-) .

, . , , , . , automotive. , , .

اقرأ المزيد من المقالات المفيدة:


All Articles