البابا: أخلاقيات الذكاء الاصطناعي والمركبات غير المأهولة

صورة

يخشى البابا من أن يضر الذكاء الاصطناعي بالناس بدلاً من أن يصبح أداة تكمل المجتمع وتحسن حياته.

وفقًا للفاتيكان ، تتحدث وثيقة نُشرت مؤخرًا بعنوان " نداء روما لأخلاقيات الذكاء الاصطناعي" عن الاتجاه الذي ينبغي أن يتخذه الذكاء الاصطناعي كتكنولوجيا تهدف إلى تحسين المجتمع ، فضلاً عن منع آفاق الأذى وموت المجتمع.

يميل العلماء في بعض الأحيان إلى إدخال الابتكارات دون دراسة العواقب المحتملة بشكل صريح. وبالتالي ، هناك العديد من الدعوات للانتباه إلى أخلاقيات الذكاء الاصطناعي في عصر سباق تطوير وتنفيذ الأنظمة الذكية (خاصة عندما يتعلق الأمر بالأنظمة القائمة على الآلة والتعلم العميق).

فيما يلي اقتباس رئيسي من وثيقة صادرة عن البابا:

"الآن ، أكثر من أي وقت مضى ، يجب علينا ضمان الاحتمالات التي بموجبها سيتطور الذكاء الاصطناعي مع التركيز ليس على التكنولوجيا ، ولكن على مصلحة الإنسانية ، والبيئة ، وطننا المشترك ، وسكانها ، والتي لا يمكن فصلها مترابط

تطلب الكنيسة الكاثوليكية من جميع المشاركين في إنشاء الذكاء الاصطناعي تذكر الأفعال المحتملة لهذه الأنظمة. يتضمن هذا أيضًا نداءً للانتباه إلى كل من العواقب المتوقعة وغير المحتملة.

يتجاهل بعض مطوري الذكاء الاصطناعي حقيقة أن أفعال تطوراتهم يمكن أن تسبب آثارًا سلبية غير مقصودة.

تذكر الجوانب التالية للديناميكيات الاجتماعية:

  • يعتقد بعض المهندسين والعلماء أنه طالما يقوم نظام الذكاء الاصطناعي على الأقل بما يتوقعونه ، فإن جميع العواقب الأخرى ليست مسؤوليتهم ، وبالتالي يحاولون غسل أيديهم من أي صعوبات من هذا القبيل.
  • ( , , , , ).
  • , , . , , .
  • , «» , - . , .
  • , , . , , ( – , – ).

– ,


تعمل وثيقة نشرتها الكنيسة الكاثوليكية كنوع من التعهد ، وسيُطلب من جميع المشاركين في إنشاء أنظمة الذكاء الاصطناعي بأدب التوقيع على هذا التعهد.

في الواقع ، تم بالفعل التوقيع على هذه الوثيقة من قبل العديد من اللاعبين ، من بينهم IBM و Microsoft.

ما الذي تطلبه هذه الوثيقة من الموقعين؟

سأتحدث بإيجاز عن بعض التفاصيل. يصف هذا ثلاثة مبادئ أساسية. لذا ، يجب على نظام الذكاء الاصطناعي:

"... يجب أن تكون شاملة للجميع ولا تميز ضد أي شخص ؛ ولطف الجنس البشري ككل ولكل شخص على وجه الخصوص يجب أن يكون في قلب هذا النظام ؛ وأخيرًا ، يجب أن يتذكر هذا النظام البنية المعقدة لنظامنا البيئي وأن يتميز بموقفه تجاه وطننا المشترك. النظام الذكي "ينبغي معالجة هذه القضية من الجانب الأكثر عقلانية ، وينبغي أن يشمل نهجها استخدام الذكاء الاصطناعي لضمان استقرار النظم الغذائية في المستقبل".

باختصار:

  1. يجب ألا تميز منظمة العفو الدولية ضد أي شخص
  2. يجب أن يكون للذكاء الاصطناعي فقط النوايا الحسنة
  3. يجب على منظمة العفو الدولية رعاية الاستدامة البيئية

الجانب الذي يجب أن يوضع في الاعتبار هو أن الذكاء الاصطناعي لا يحدد مستقبله بنفسه ، بغض النظر عن كيف يبدو أن هذه الأنظمة مستقلة بالفعل وتخلق نفسها مصيرها.

كل هذا خطأ ، على الأقل في الوقت الحالي (سيكون الأمر كذلك في المستقبل القريب).

بعبارة أخرى ، نحن البشر فقط ننشئ هذه الأنظمة. لذلك ، فإن البشر فقط هم المسؤولون عما تفعله أنظمة الذكاء الاصطناعي.

أنا أتحدث عن هذا لأن هذه طريقة بسيطة للخروج من الوضع الذي يتظاهر فيه مهندسو ومطورو الذكاء الاصطناعي بأنهم ليسوا مسؤولين عن أخطاء منتجهم.

ربما تكون على دراية بالحالة عند الاتصال بإدارة المركبات لتجديد رخصة القيادة وتعطل نظام المعلومات الخاص بها. في الوقت نفسه ، يتجاهل وكيل الإدارة فقط ويشكو من أن كل هذا يحدث دائمًا مع المعدات.

على وجه الدقة ، لا يدوم إلى الأبد ، وليس مع كل التكنولوجيا.

إذا لم يعمل نظام الكمبيوتر ، فإن الأشخاص الذين قاموا بإعداد الكمبيوتر ولم يتمكنوا من النسخ الاحتياطي بشكل صحيح ، ولم يوفروا أيضًا القدرة على الوصول إلى النظام إذا لزم الأمر ، هم المسؤولون.

لا تقع في الفخ المنطقي ، ولا توافق على حقيقة أن أنظمة الكمبيوتر (بما في ذلك أنظمة الذكاء الاصطناعي) لها آرائها الخاصة ، وإذا أصيبوا بالجنون ، فليس هذا "يحدث دائمًا مع التكنولوجيا".

الحقيقة هي أن الأشخاص الذين طوروا ونفذوا نظام الكمبيوتر يتحملون المسؤولية الكاملة ، لأنهم لم يتخذوا إجراءات كافية ولم يعطوا اهتمامًا كافيًا لعملهم.

في حالة دعوة البابا فرنسيس للمشاركة في مناقشة المبادئ الأخلاقية الحيوية ، قد يبدو أن كل هذه الأطروحات بسيطة للغاية وغير قابلة للنقد (لأنها واضحة كبيان بأن السماء زرقاء) ، ولكن على الرغم من ذلك ، هناك أطراف تنكر عروض الفاتيكان.

كيف ذلك؟

أولاً ، يدعي بعض النقاد أنه لا يوجد جانب إلزامي لهذا التعهد. إذا اشتركت الشركة فيه ، فإن عدم الامتثال لمبادئ التعهد لن يتبعه عقاب. وبالتالي ، يمكنك الاشتراك دون خوف من المسؤولية. يبدو أن التعهد بدون عواقب فارغ على الكثيرين.

ثانياً ، يشعر البعض بالقلق من حقيقة أن الكنيسة الكاثوليكية هي التي أطلقت الدعوة إلى أخلاقيات الذكاء الاصطناعي. والسبب هو أن وجود الكنيسة يدخل الدين في الموضوع ، على الرغم من أن البعض يعتقد أنه لا علاقة له بالموضوع.

السؤال الذي يطرح نفسه - هل ستصدر أديان أخرى مكالمات مماثلة؟ وإذا كان الأمر كذلك ، فأي منها سيسود؟ وماذا سنفعل بمجموعة متفرقة ومتباينة من إعلانات أخلاقيات الذكاء الاصطناعي؟

ثالثًا ، يعتقد البعض أن هذا الضمان ضعيف جدًا وعمومي بشكل مفرط.

على الأرجح ، لا تحتوي الوثيقة على توجيهات موضوعية يمكن تنفيذها بأي طريقة عملية.

علاوة على ذلك ، قد يدعي هؤلاء المطورون الذين يريدون التهرب من المسؤولية أنهم أساءوا فهم الأحكام العامة ، أو فسروها بشكل مختلف عما هو مقصود.

لذا ، في ظل فورة الإدانة ، هل يجب أن نتخلص من هذه الدعوة من الفاتيكان لصالح أخلاق الذكاء الاصطناعي؟

بالابتعاد عن الموضوع ، ألاحظ أن علم الأخلاق هو اسم يُعطى للقضايا المتعلقة بأخلاقيات الخوارزميات. قد يكون هذا اسمًا جيدًا ، ولكنه ليس رنانًا جدًا ، ومن غير المحتمل أن يصبح مقبولًا بشكل عام. سيخبرنا الوقت.

بالعودة إلى الموضوع - هل يجب الانتباه إلى هذه الدعوة لأخلاقيات الذكاء الاصطناعي أم لا؟

نعم يجب علينا.

على الرغم من أن هذه الوثيقة ، معترفًا بها ، لا تنص على أي عقوبات مالية لعدم الامتثال للمبادئ ، إلا أن هناك جانبًا آخر مهمًا يجب أخذه في الاعتبار أيضًا. الشركات العامة التي توقع على هذه المكالمة قد تكون مسؤولة أمام عامة الناس. إذا خالفوا وعودهم وأوضحت الكنيسة ذلك ، فقد يؤدي الإعلان السيئ إلى إلحاق الضرر بهذه الشركات - سيؤدي ذلك إلى فقدان الأعمال والسمعة في هذه الصناعة.

يمكنك القول أنه بسبب انتهاك هذه المبادئ ، يتم تضمين نوع من الدفع ، أو افترض أنه مخفي.

أما ظهور الدين في موضوع يبدو أنه لا ينتمي إليه ، ثم نفهم أن هذا أمر مختلف تمامًا. تستحق هذه المسألة مناقشة وجدلًا كبيرًا ، ولكنها تقر أيضًا بوجود العديد من الأنظمة الأخلاقية والمطالبات بأخلاقيات الذكاء الاصطناعي من مصادر متنوعة.

بمعنى آخر ، هذه المكالمة ليست الأولى.

إذا درست هذه الوثيقة بعناية ، سترى أنه لا توجد ملخصات تتعلق بالعقيدة الدينية. هذا يعني أنه لا يمكنك تمييزه عن أي شيء مشابه يتم بدون أي سياق ديني.

أخيرًا ، من وجهة نظر غموض هذه الوثيقة - نعم ، يمكنك بسهولة قيادة شاحنة ماك عبر العديد من الثغرات ، ولكن أولئك الذين يريدون الغش سوف يغشون على أي حال.

أفترض أنه سيتم اتخاذ خطوات أخرى في مجال الذكاء الاصطناعي ، وستكمل هذه الخطوات وثيقة الفاتيكان بتوجيهات محددة ستساعد في سد الثغرات والسهو.

من الممكن أيضًا أن يدين العالم بأسره أي شخص يحاول الغش ، وسيتم اعتبار البيانات الكاذبة حول سوء الفهم المزعوم للوثيقة خدعًا واضحة لازمة إلا لتجنب الامتثال للمعايير الأخلاقية الواضحة والمعقولة تمامًا للذكاء الاصطناعي المُعلن عنها في المستند.

بالحديث عن الاعتقاد بأن الجميع يفهم مبادئ أخلاقيات الذكاء الاصطناعي ، فكر في الاستخدام الضخم للذكاء الاصطناعي.

هناك مثال مثير للاهتمام في مجال الذكاء الاصطناعي التطبيقي المتعلق بموضوع الأخلاقيات: هل يجب تطوير المركبات بدون طيار ووضعها على الطريق وفقًا لجاذبية الفاتيكان؟

جوابي نعم بالتأكيد.

في الواقع ، أحث جميع الشركات المصنعة للسيارات والمركبات للتوقيع على هذه الوثيقة.

على أي حال ، دعنا ننظر إلى هذه المشكلة ونرى كيف ينطبق هذا الاستئناف على المركبات غير المأهولة الحقيقية.

مستويات المركبات بدون طيار


من المهم توضيح ما أعنيه عندما أتحدث عن المركبات بدون طيار تمامًا مع الذكاء الاصطناعي.

المركبات الحقيقية غير المأهولة هي المركبات التي تدير فيها منظمة العفو الدولية نفسها دون أي مساعدة بشرية.

يتم تعيين هذه المركبات إلى المستويين 4 و 5 ، في حين يتم تعيين السيارات التي تتطلب مشاركة بشرية للقيادة المشتركة إلى المستويين 2 أو 3. تُسمى السيارات التي تقود فيها السيارة بمساعدة شخص شبه مستقلة ، وعادةً ما تحتوي على العديد من الوظائف الإضافية التي يشار إليها باسم ADAS (أنظمة مساعدة السائق المتقدمة).

حتى الآن ، لا يوجد مستوى مركبة بدون طيار بالكامل 5. اليوم ، لا نعرف حتى ما إذا كان يمكن تحقيق ذلك ، والوقت الذي سيستغرقه.

وفي الوقت نفسه ، العمل جار في منطقة المستوى 4. يتم إجراء اختبارات ضيقة وانتقائية للغاية على الطرق العامة ، على الرغم من وجود جدل حول مقبولية مثل هذه الاختبارات (يعتقد البعض أن الأشخاص المشاركين في الاختبارات على الطرق والطرق السريعة يعملون كخنازير غينيا ، والتي يمكن أن تعيش أو تموت في كل اختبار) .

نظرًا لأن السيارات شبه المستقلة تتطلب سائقًا بشريًا ، فإن اعتماد هذه السيارات من قبل الجماهير لن يختلف كثيرًا عن قيادة السيارات العادية ، فلا يوجد شيء جديد يمكن أن يقال عنها في سياق موضوعنا (على الرغم من ، كما سترى قريبًا ، النقاط التي سيتم النظر فيها تنطبق كذلك عليهم).

في حالة السيارات شبه المستقلة ، من المهم أن يتم تحذير الجمهور من الجانب المزعج الذي نشأ مؤخرًا - على الرغم من الأشخاص الذين يواصلون نشر مقاطع فيديو حول كيفية نومهم أثناء قيادة السيارات من مستويين أو 3 مستويات ، كلنا بحاجة إلى أن نتذكر أن السائق لا يمكن صرف انتباهه عن قيادة سيارة شبه مستقلة.

أنت مسؤول عن إجراءات التحكم في مستوى السيارة 2 أو 3 ، بغض النظر عن مستوى الأتمتة.

المركبات بدون طيار وأخلاقيات الذكاء الاصطناعي


في المركبات من المستوى 4 و 5 ، لا يشارك الشخص في الإدارة ، وسيكون جميع الأشخاص في هذه المركبات من الركاب ، وسوف تقود منظمة العفو الدولية.

للوهلة الأولى ، يمكنك افتراض أنه لا توجد حاجة للنظر في قضايا أخلاقيات الذكاء الاصطناعي.

المركبة بدون طيار هي مركبة يمكنها نقلك بدون سائق.

قد تعتقد أنه لا يوجد شيء مثل هذا ، ولا توجد اعتبارات أخلاقية في كيفية تعامل سائق AI مع التحكم.

عذرًا ، لكن أولئك الذين يعتقدون أن كل هذا لا علاقة له بأخلاقيات الذكاء الاصطناعي يحتاجون إلى طرق الرأس أو صب الماء البارد على هؤلاء الأشخاص (أنا ضد العنف ، هذا مجرد استعارة).

هناك العديد من الاعتبارات المتعلقة بأخلاقيات الذكاء الاصطناعي (يمكنك قراءة مراجعتي علىهذا الرابط ، مقالا عن الجوانب العالمية من يقع الأخلاق AI هنا ، ومقال حول إمكانيات مشورة الخبراء في هذا المجال هنا ).

دعونا نلقي نظرة سريعة على كل من المبادئ الأساسية الستة الموضحة في الدعوة الرومانية لأخلاقيات الذكاء الاصطناعي.

سأسعى جاهداً لإبقاء هذه المقالة موجزة ، وبالتالي سأقدم روابط لمنشوراتي الأخرى ، التي تحتوي على معلومات أكثر تفصيلاً حول المواضيع الهامة التالية:

المبدأ 1: "الشفافية: يجب أن تكون أنظمة الذكاء الاصطناعي قابلة للتفسير بطبيعتها"


لقد ركبت في سيارة بدون طيار ، ورفض الذهاب إلى حيث قلت.

في الوقت الحاضر ، يتم تطوير معظم أنظمة القيادة بدون طيار دون أي تفسير بشأن سلوكهم.

قد يكون سبب الرفض ، على سبيل المثال ، إعصارًا ، أو طلبًا لا يمكن تلبيته (على سبيل المثال ، لا توجد طرق صالحة بالقرب منها).

ومع ذلك ، بدون XAI (اختصار AI ، الذي يعمل مع التفسيرات) ، لن تفهم ما يحدث (المزيد عن هذا هنا).

المبدأ 2: "الشمولية: يجب أن تؤخذ احتياجات جميع الناس في الاعتبار حتى تكون الفوائد هي نفسها للجميع ، ويجب توفير أفضل الظروف للتعبير عن الذات والتنمية لجميع الناس"


يشعر البعض بالقلق من أن المركبات غير المأهولة ستكون متاحة للأغنياء فقط ، ولن تحقق أي فائدة لبقية السكان (انظر الرابط هنا).

ما الذي نحصل عليه - التنقل للجميع أم القليل؟

المبدأ 3: "المسؤولية: يجب على أولئك الذين يطورون ويطبقون أنظمة الذكاء الاصطناعي أن يتحملوا المسؤولية وأن يكون عملهم شفافًا"


ما الذي ستفعله منظمة العفو الدولية في حالة يتعين عليها فيها اختيار ما إذا كانت ستطرق طفلًا هرب على الطريق أو اصطدم بشجرة ، مما سيضر الركاب؟

تُعرف هذه المعضلة أيضًا باسم مشكلة العربة (انظر الرابط). يطلب الكثير من شركات صناعة السيارات وشركات تكنولوجيا المركبات بدون طيار أن تكون شفافة حول كيفية اتخاذ أنظمتهم قرارات لصالح الحياة أو الموت.

المبدأ 4: "الحياد: بناء أنظمة الذكاء الاصطناعي والتصرف بدون تحيز ، وبالتالي ضمان العدالة والكرامة الإنسانية"


افترض أن سيارة ذات تحكم آلي تستجيب للمشاة اعتمادًا على خصائص عرقهم.

أو افترض أن أسطولًا من المركبات غير المأهولة يتعلم تجنب القيادة في مناطق معينة ، الأمر الذي سيحرم السكان من الوصول المجاني إلى السيارات التي لا تحتاج إلى سائق.

تشكل الأحكام المسبقة المرتبطة بالتعلم الآلي وأنظمة التعلم العميق مصدر قلق كبير

المبدأ الخامس: "الموثوقية: يجب أن تعمل أنظمة الذكاء الاصطناعي بشكل موثوق"


أنت تقود سيارة ذات تحكم آلي ، وينتقل فجأة إلى جانب الطريق ويتوقف. لماذا ا؟ قد لا يكون لديك دليل.

ربما يكون الذكاء الاصطناعي قد وصل إلى حدود نطاقه.

أو ربما تعطل نظام الذكاء الاصطناعي ، حدث خطأ ، أو شيء آخر من هذا القبيل.

المبدأ 6: "الأمن والسرية: يجب أن تعمل أنظمة الذكاء الاصطناعي بأمان وتحترم سرية المستخدم"


تحصل في مركبة بدون طيار بعد قضاء وقت ممتع في الحانات.

اتضح أن هذا الجهاز يحتوي على كاميرات ليس فقط بالخارج ولكن أيضًا بالداخل.

في الواقع ، هناك حاجة إلى الكاميرات الموجودة في المقصورة للقبض على الركاب الذين سيرسمون الكتابة على الجدران أو يفسدون الجزء الداخلي من السيارة.

على أي حال ، تأخذك جميع هذه الكاميرات طوال الوقت أثناء القيادة في سيارة بدون طيار ، وستظهر عباراتك غير المترابطة أيضًا على هذا الفيديو ، لأنك في حالة ذهول مخمور.

من يملك هذا الفيديو وماذا يفعل به؟

هل يجب على مالك سيارة بدون طيار تزويدك بفيديو ، وهل هناك شيء يمنعه من تحميل هذا الفيديو على الإنترنت؟

هناك العديد من مشكلات الخصوصية التي لا تزال بحاجة إلى معالجة.

من منظور أمني ، هناك العديد من خيارات القرصنة لأنظمة القيادة الذكية.

تخيل مهاجمًا يمكنه اختراق سيارة بدون طيار. يمكنه السيطرة ، أو على الأقل طلب سيارة لتأخذك إلى المكان الذي ينتظره الخاطفون.

هناك العديد من السيناريوهات المخيفة المرتبطة بالثقوب الأمنية في أنظمة المركبات غير المأهولة أو في أنظمة السحابة الخاصة بهم. ويتعين على مصنعي السيارات ، إلى جانب شركات التكنولوجيا ، استخدام أنظمة الحماية والاحتياطات اللازمة.

استنتاج


إذا قارنت هذه الدعوة بأخلاقيات الذكاء الاصطناعي مع العديد من الآخرين ، فستجد أن لديهم الكثير من القواسم المشتركة.

الانتقاد ، الذي يدعي أنه سيكون لدينا في النهاية عدد لا يحصى من هذه النداءات ، صحيح إلى حد ما ، ولكن يمكن الافتراض أن تغطية جميع الأساسيات على الإطلاق لن يضر.

هذا الوضع بدأ يصبح مربكًا بعض الشيء ، وسيستخدم مصنعو الذكاء الاصطناعي عذرًا لأنه نظرًا لعدم وجود معيار واحد مقبول ، فإنهم سينتظرون حتى يظهر مثل هذا المستند.

يبدو وكأنه عذر معقول ، لكنني لن أشتريه.

جميع الشركات المصنعة التي تقول أنها ستنتظر حتى الإصدار المقبول عالميًا ، الذي تم تجميعه بواسطة بعض اللقطات الكبيرة ، تمت الموافقة عليه ، في الواقع ، هم على استعداد لتأجيل اعتماد أي مدونة أخلاقيات للذكاء الاصطناعي ، وقد تكون توقعاتهم هي نفسها. مثل توقعات جودو.

أحثك على اختيار أي دليل عن أخلاقيات الذكاء الاصطناعي ، حيث يوجد شيء مهم ، والذي يقترحه مصدر موثوق ، والمضي في تنفيذ هذه الأخلاقيات.

أفضل عاجلا وليس آجلا.



صورة

حول ITELMA
- automotive . 2500 , 650 .

, , . ( 30, ), -, -, - (DSP-) .

, . , , , . , automotive. , , .

اقرأ المزيد من المقالات المفيدة:


All Articles