لماذا تجعل متطلبات الذكاء الاصطناعي الأمور أسوأ فقط

من خلال إنشاء شبكات عصبية أكثر شفافية ، يمكننا البدء في الوثوق بها بشكل مفرط. قد يكون من المفيد تغيير الأساليب التي يشرحون بها عملهم.




قام أبول إيسان مرة واحدة في المحاكمة برحلة في سيارة روبوتية من أوبر. بدلاً من القلق بشأن مقعد السائق الفارغ ، طُلب من الركاب مشاهدة شاشة "تهدئة" ، والتي أظهرت كيف ترى السيارة الطريق: تم رسم المخاطر باللون البرتقالي والأحمر ، والمناطق الآمنة باللون الأزرق الداكن.

بالنسبة لإيسان ، الذي يدرس تفاعل الأشخاص مع الذكاء الاصطناعي في معهد جورجيا للتكنولوجيا في أتلانتا ، كانت الرسالة التي حاولوا إيصالها إليه مفهومة: "لا تقلق ، فهذه هي الأسباب التي تجعل الجهاز يتصرف بهذه الطريقة". ومع ذلك ، لم يطمئن شيء ما في الصورة الغريبة للشارع ، بل أكد غرابة ما كان يحدث. تساءل إيسان: ماذا لو كان بإمكان السيارة الآلية أن تشرح حقًا؟

يعتمد نجاح التعلم العميق على الانتقاء غير المؤكد في الشفرة: أفضل الشبكات العصبية تتكيف وتتكيف لتحسينها بشكل أكبر ، وتتفوق النتائج العملية على فهمها النظري. باختصار ، عادة ما تكون تفاصيل كيفية عمل النموذج المدرّب غير معروفة. لقد اعتدنا بالفعل على التفكير في الذكاء الاصطناعي كمربع أسود.

ومعظم الوقت يناسبنا - عندما يتعلق الأمر بمهام مثل اللعب ، ترجمة النص ، أو التقاط المسلسل التالي مع Netflix. ولكن إذا تم استخدام الذكاء الاصطناعي للمساعدة في اتخاذ القرارات في مجالات مثل إنفاذ القانون والتشخيصات الطبية والمركبات الآلية ، فإننا بحاجة إلى فهم كيفية اتخاذ قراراتها ومعرفة متى تصبح خاطئة.

يقول Iris Hawley ، عالم الكمبيوتر في كلية ويليامز في ويليامزتاون ، ماساتشوستس ، إن الناس يحتاجون إلى فرصة الاختلاف مع الحل التلقائي أو رفضه . وبدونها ، سيقاوم الناس هذه التكنولوجيا. وتقول: "يمكنك الآن ملاحظة كيفية حدوث ذلك ، في شكل ردود فعل الناس تجاه أنظمة التعرف على الوجه".

إن Esan جزء من مجموعة صغيرة ولكنها متزايدة من الباحثين الذين يحاولون تحسين قدرة الذكاء الاصطناعي على شرح ومساعدةنا على النظر إلى الصندوق الأسود. الغرض من إنشاء ما يسمى ب يتم تفسيره أو شرحه بواسطة AI (III) لمساعدة الأشخاص على فهم علامات البيانات التي تتعلمها الشبكة العصبية حقًا - وتحديد ما إذا كان النموذج الناتج قد تبين أنه دقيق وغير متحيز.

يتمثل أحد الحلول في إنشاء أنظمة التعلم الآلي (MO) التي توضح الجوانب الداخلية لعملهم - ما يسمى ب حوض السمك AI ، بدلاً من AI في الصندوق الأسود. عادة ما تكون نماذج حوض السمك عبارة عن إصدارات مبسطة جذريًا من NS ، حيث يسهل تتبع كيفية تأثير قطع البيانات الفردية على النموذج.

يقول: "هناك أشخاص في هذا المجتمع يحثون على استخدام نماذج أحواض السمك في أي حالة عالية المخاطر"جنيفر ورتمان فون ، اختصاصي تكنولوجيا المعلومات في Microsoft Research. "وبشكل عام ، أنا أوافق". يمكن أن تعمل نماذج الأحواض المائية البسيطة مثل NSs الأكثر تعقيدًا ، على أنواع معينة من البيانات المنظمة ، مثل الجداول أو الإحصاءات. وهذا يكفي في بعض الحالات.

ومع ذلك ، كل هذا يتوقف على مجال العمل. إذا أردنا أن نتعلم من هذه البيانات الغامضة مثل الصور أو النصوص ، فليس لدينا خيار سوى استخدام الشبكات العصبية العميقة - وبالتالي الغامضة -. ترتبط قدرة مثل هذه NS على العثور على اتصال ذي معنى بين عدد كبير من الميزات المتباينة بتعقيدها.

وحتى هنا ، يمكن أن يساعد حوض السمك MO. أحد الحلول هو مراجعة البيانات مرتين ، وتدريب نموذج الحوض غير الكامل كخطوة تصحيح للقبض على الأخطاء المحتملة التي ترغب في إصلاحها. بعد تنظيف البيانات ، يمكنك أيضًا تدريب نموذج أكثر دقة للذكاء الاصطناعي في صندوق أسود.

ومع ذلك ، من الصعب الحفاظ على هذا التوازن. يمكن أن تؤدي الشفافية المفرطة إلى زيادة التحميل على المعلومات. في دراسة أجريت عام 2018 ، والتي فحصت تفاعل المستخدمين غير المدربين مع أدوات MO ، وجد فون أن النماذج الشفافة يمكن أن تعقد في الواقع عملية البحث وتصحيح أخطاء النموذج.

نهج آخر هو تضمين تصور يظهر العديد من الخصائص الرئيسية للنموذج والبيانات الأساسية. الفكرة هي تحديد المشاكل الخطيرة بالعين. على سبيل المثال ، قد يعتمد النموذج بشكل كبير على سمات معينة ، والتي قد تكون إشارة للتحيز.

أصبحت أدوات التصور هذه شائعة للغاية في وقت قصير. ولكن هل هناك أي فائدة لهم؟ في الدراسة الأولى من هذا النوع ، حاول فون وفريق الإجابة على هذا السؤال ، ووجدوا في النهاية العديد من المشاكل الخطيرة.

أخذ الفريق أداتين تفسيرية شائعة تقدم نظرة عامة على النموذج بمساعدة الرسوم البيانية والمخططات ، حيث يلاحظ البيانات التي اهتم بها النموذج بشكل أساسي أثناء التدريب. تم تعيين أحد عشر متخصصًا في الذكاء الاصطناعي من خلفيات وخلفيات وخلفيات متنوعة من Microsoft. شاركوا في محاكاة للتفاعل مع نموذج MO ، تم تدريبهم على بيانات الدخل القومي من تعداد الولايات المتحدة عام 1994. تم تصميم التجربة خصيصًا لمحاكاة كيفية استخدام علماء البيانات لأدوات التفسير لأداء مهامهم اليومية.

وجد الفريق شيئًا رائعًا. نعم ، ساعدت الأدوات أحيانًا الأشخاص في العثور على القيم المفقودة في البيانات. ومع ذلك ، تلاشت كل هذه الفائدة بالمقارنة مع الميل إلى الثقة المفرطة في التصورات ، وكذلك الأخطاء في فهمها. في بعض الأحيان ، لا يمكن للمستخدمين وصف ما تظهره التصورات بالضبط. وأدى ذلك إلى افتراضات غير صحيحة فيما يتعلق بمجموعة البيانات والنماذج وأدوات التفسير نفسها. كما ألهمت الثقة الزائفة في الأدوات وأثارت حماسًا لوضع هذه النماذج موضع التنفيذ ، على الرغم من أنه يبدو أحيانًا للمشاركين أن شيئًا ما كان يسير على نحو خاطئ. وهو أمر غير سار ، فقد نجح حتى عندما تم تعديل الناتج بشكل خاص بحيث لا يكون لتفسيرات العمل أي معنى.

لتأكيد النتائج ، أجرى الباحثون دراسة استقصائية عبر الإنترنت بين 200 متخصص في مجال موسكو ، تم اجتذابهم من خلال القوائم البريدية والشبكات الاجتماعية. وجدوا ارتباكًا مشابهًا وثقة لا أساس لها.

لجعل الأمور أسوأ ، كان العديد من المشاركين في المسح على استعداد لاستخدام التصورات لاتخاذ قرارات حول تطبيق النموذج ، على الرغم من الاعتراف بأنهم لم يفهموا الرياضيات الأساسية. يقول Harmanpreet Kaur من جامعة ميشيغان ، مؤلف مشارك في الدراسة: "كان من المفاجئ بشكل خاص أن نرى الناس يبررون الشذوذ في البيانات من خلال الخروج بتفسيرات لهذا" . "إن تشويه الأتمتة عامل مهم للغاية لم نأخذه في الاعتبار."

أوه ، هذا تشويه للأتمتة. وبعبارة أخرى ، يميل الناس إلى الوثوق بالحواسيب. وهذه ليست ظاهرة جديدة. من الطيار الآلي للطائرات إلى أنظمة التدقيق الإملائي ، في كل مكان ، وفقًا للبحث ، غالبًا ما يميل الناس إلى الثقة في حلول النظام ، حتى عندما تكون خاطئة بشكل واضح. ولكن عندما يحدث هذا باستخدام أدوات مصممة خصيصًا لتصحيح هذه الظاهرة فقط ، تكون لدينا مشكلة أكبر.

ما الذى يمكن فعله حيال ذلك؟ يعتقد البعض أن جزءًا من مشاكل الموجة الأولى من III مرتبط بحقيقة أن باحثين من وزارة الدفاع يهيمنون عليها ، ومعظمهم خبراء يستخدمون أنظمة الذكاء الاصطناعي. تيم ميللر من جامعة ملبورن ، يدرس استخدام أنظمة الذكاء الاصطناعي من قبل الناس: "هذا مستشفى للأمراض العقلية تحت سيطرة نفسية".

هذا ما أدركه إيسان في المقعد الخلفي لسيارة أوبر بدون سائق. سيكون من الأسهل فهم ما يفعله النظام الآلي - ومعرفة مكان الخطأ - إذا كان يشرح أفعاله بالطريقة التي سيفعلها الشخص. يقوم Esan وزميله Mark Riddle بتطوير نظام MO ينتج تلقائيًا تفسيرات مماثلة في اللغة الطبيعية. في نموذج أولي مبكر ، أخذ الزوجان شبكة عصبية ، تدربوا على لعب لعبة كلاسيكية من الثمانينيات ، Frogger ، ودربوها على تقديم تفسيرات قبل كل خطوة.


بين السيارات ... لا أستطيع المرور ... سأنتظر الفجوة ...

للقيام بذلك ، أظهروا للنظام العديد من الأمثلة على كيفية لعب الناس لهذه اللعبة ، وعلقوا على الإجراءات بصوت عال. ثم أخذوا شبكة عصبية ترجمت من لغة إلى أخرى ، وتكييفها لترجمة إجراءات اللعبة إلى تفسيرات بلغة طبيعية. والآن ، عندما ترى الجمعية الوطنية إجراءً في اللعبة ، فإنها "تترجمه" إلى تفسير. والنتيجة هي لعبة Frogger بالذكاء الاصطناعي تقول أشياء مثل "تحرك يسارًا لتكون خلف الشاحنة الزرقاء مع كل حركة".

عمل إيسان وريدل ليس سوى البداية. أولاً ، ليس من الواضح ما إذا كان نظام MO سيكون قادرًا دائمًا على شرح أفعاله بلغة طبيعية. خذ AlphaZero من DeepMind وهو يلعب لعبة go board. واحدة من أكثر الميزات المدهشة في هذا البرنامج هي أنه يمكن أن يقوم بحركة فائزة لا يمكن للاعبين البشريين التفكير فيها في تلك اللحظة بالذات في اللعبة. إذا استطاع AlphaZero شرح تحركاته ، فهل يكون ذلك ذا مغزى؟

تقول إيسان أن الأسباب يمكن أن تساعد ، سواء فهمناها أم لم نفهمها: "إن الهدف من الهدف الثالث مع التركيز على الأشخاص ليس فقط جعل المستخدم يقبل ما تقوله منظمة العفو الدولية - ولكن أيضًا يسبب بعض التفكير." يتذكر ريدل مشاهدة بث مباراة بين DeepMind AI والبطل الكوري Lee Sedol. ناقش المعلقون ما يراه ويفكر فيه AlphaZero. يقول ريدل: "لكن AlphaZero لا يعمل بهذه الطريقة". "ومع ذلك ، بدا لي أن التعليقات ضرورية لفهم ما كان يحدث."

وعلى الرغم من أن هذه الموجة الجديدة من الباحثين III تتفق على أنه إذا استخدم المزيد من الأشخاص أنظمة الذكاء الاصطناعي ، فيجب أن يشارك هؤلاء الأشخاص في التصميم منذ البداية - ويحتاج أشخاص مختلفون إلى تفسيرات مختلفة. تم تأكيد ذلك من خلال دراسة جديدة أجرتها Howley وزملاؤها ، حيث أظهروا أن قدرة الناس على فهم التصور التفاعلي أو الثابت تعتمد على مستوى تعليمهم. يقول إيسان ، تخيل تشخيص السرطان بالذكاء الاصطناعي. أود أن يكون التفسير الذي يقدمه لطبيب الأورام مختلفًا عن التفسير للمريض.

في النهاية ، نريد أن يكون الذكاء الاصطناعي قادرًا على التوضيح ليس فقط للعلماء الذين يعملون مع البيانات والأطباء ، ولكن أيضًا لرجال الشرطة الذين يستخدمون نظام التعرف على الصور ، والمدرسين الذين يستخدمون البرامج التحليلية في المدرسة ، والطلاب الذين يحاولون فهم عمل الأشرطة على الشبكات الاجتماعية - وقبل ذلك أي شخص في المقعد الخلفي للسيارة الآلية. يقول ريدل: "كنا نعلم دائمًا أن الناس يميلون إلى الوثوق المفرط بالتكنولوجيا ، وهذا ينطبق بشكل خاص على أنظمة الذكاء الاصطناعي". "كلما سميت النظام بذكاء أكثر ، زاد ثقة الناس في أنه أكثر ذكاءً من الناس".

التفسيرات التي يمكن للجميع فهمها يمكن أن تدمر هذا الوهم.

All Articles