Header ADs 728x90

banner728

شريط

6/recent/ticker-posts

القضاء على التحيز في الذكاء الاصطناعي: خبراء الصناعة يفكرون في ذلك


"التحيز في الذكاء الاصطناعي ليس مشكلة تقنية فقط ؛ إنها متداخلة عبر الإدارات.





إن المطورين وعلماء البيانات بشر بالطبع ، لكن الأنظمة التي ينشئونها ليست كذلك - فهي مجرد انعكاسات قائمة على الكود للتفكير البشري الذي يدخل فيها. يتطلب الحصول على أنظمة ذكاء اصطناعي لتقديم نتائج غير متحيزة وضمان اتخاذ قرارات الأعمال الذكية نهجًا شاملاً يشمل معظم المؤسسات.

لا يمكن - ولا ينبغي - أن يتوقع من موظفي تكنولوجيا المعلومات وعلماء البيانات أن يكونوا منفردين عندما يتعلق الأمر بالذكاء الاصطناعي.

هناك دفعة متزايدة لتوسيع الذكاء الاصطناعي خارج حدود تطوير الأنظمة إلى مجموعة الأعمال. على سبيل المثال ، في لجنة حديثة في قمة الذكاء الاصطناعي ، اتفق أعضاء اللجنة على أن قادة الأعمال والمديرين لا يحتاجون فقط إلى التشكيك في جودة القرارات التي يتم اتخاذها من خلال الذكاء الاصطناعي ، ولكن أيضًا المشاركة بشكل أكثر فاعلية في صياغتها. (لقد شاركت في رئاسة المؤتمر وأدارت الجلسة.)


هناك حاجة إلى طرق منظمة لفتح عملية تطوير ونمذجة الذكاء الاصطناعي ، كما يصر رود باترز ، كبير مسؤولي التكنولوجيا في Aible . "عندما نخبر علماء البيانات بالخروج وإنشاء نموذج ، فإننا نطلب منهم أن يكونوا قارئي للعقل وعرافين. يحاول عالم البيانات فعل الشيء الصحيح ، وإنشاء نموذج مسؤول ومتين ، ولكن بناءً على ما ؟،" هو يقول.

"مجرد إنشاء نموذج رائع لا يحل بالضرورة جميع المشكلات."



إذن كيف يمكننا تصحيح الموقف الذي يصفه الزبدات ويتعامل مع التحيز المحتمل أو عدم الدقة؟ من الواضح أن هذا هو التحدي الذي يجب معالجته عبر طيف قيادة المؤسسة. لا تستطيع تكنولوجيا المعلومات ، التي كانت تحمل معظم ثقل الذكاء الاصطناعي ، أن تفعل ذلك بمفردها. يحث الخبراء في جميع أنحاء الصناعة على الانفتاح على تطوير الذكاء الاصطناعي لمزيد من المشاركة البشرية.

يقول ريد بلاكمان ، الرئيس التنفيذي لشركة Virtue ومستشار بيزكونيكت: "إن إلقاء العبء على قادة وموظفي تكنولوجيا المعلومات هو التعميم عن طريق الخطأ لمجموعة من القضايا الأخلاقية والقانونية على مستوى المؤسسة ، والتي تتعلق بالسمعة والمسائل القانونية لمشكلة فنية" . "التحيز في الذكاء الاصطناعي ليس مشكلة تقنية فقط ؛ إنه متشابك عبر الإدارات."

حتى الآن ، لم يتم عمل ما يكفي لمكافحة تحيز الذكاء الاصطناعي ، كما يتابع بلاكمان. "على الرغم من الاهتمام بالخوارزميات المتحيزة ، إلا أن الجهود المبذولة لحل هذه المشكلة كانت ضئيلة إلى حد ما. النهج القياسي - بصرف النظر عن عدم القيام بأي شيء ، بالطبع - هو استخدام مجموعة متنوعة من الأدوات التي ترى كيف يتم توزيع السلع والخدمات المتنوعة عبر عدة مجموعات سكانية فرعية ، بما في ذلك بشكل ملحوظ المجموعات المتعلقة بالعرق والجنس ؛ أو استخدام مجموعة من المقاييس الكمية لتحديد ما إذا كان التوزيع عادلًا أم متحيزًا ".

يستغرق القضاء على التحيز وعدم الدقة في الذكاء الاصطناعي وقتًا. "تدرك معظم المؤسسات أن نجاح الذكاء الاصطناعي يعتمد على بناء الثقة مع المستخدمين النهائيين لهذه الأنظمة ، الأمر الذي يتطلب في النهاية خوارزميات ذكاء اصطناعي عادلة وغير متحيزة" ، كما يقول بيتر أوجيل ، كبير مسؤولي التكنولوجيا ونائب الرئيس الأول للعمليات التكنولوجية في Irdeto . ومع ذلك ، فإن تحقيق هذا الأمر أكثر تعقيدًا بكثير من مجرد الاعتراف بوجود المشكلة والتحدث عنها ".

مطلوب مزيد من الإجراءات خارج حدود مراكز البيانات أو مواقع المحللين. يقول بلاكمان: "يفتقر علماء البيانات إلى التدريب والخبرة واحتياجات العمل لتحديد المقاييس غير المتوافقة للعدالة المناسبة". "علاوة على ذلك ، غالبًا ما يفتقرون إلى النفوذ لرفع مخاوفهم إلى كبار المديرين التنفيذيين المطلعين أو الخبراء المعنيين بالموضوع."

حان الوقت لبذل المزيد من الجهد "لمراجعة هذه النتائج ليس فقط عندما يكون المنتج نشطًا ، ولكن أثناء الاختبار وبعد أي مشروع مهم" ، كما يقول باتريك فين ، الرئيس والمدير العام للأمريكتين في Blue Prism . "يجب عليهم أيضًا تدريب كل من الموظفين التقنيين ورجال الأعمال على كيفية التخفيف من التحيز داخل الذكاء الاصطناعي ، وداخل فرقهم البشرية ، لتمكينهم من المشاركة في تحسين استخدام الذكاء الاصطناعي في مؤسستهم. إنه جهد من أعلى إلى أسفل ومن أسفل إلى أعلى مدعوم ببراعة بشرية: إزالة التحيز الواضح بحيث لا يدمجه الذكاء الاصطناعي ، وبالتالي لا يبطئ العمل أو يؤدي إلى تفاقم نتائج شخص ما. "
يضيف فين ، "أولئك الذين لا يفكرون بشكل عادل في الذكاء الاصطناعي لا يستخدمونه بالطريقة الصحيحة."

يقول Oggel إن حل هذا التحدي "يتطلب أكثر من التحقق من صحة أنظمة الذكاء الاصطناعي مقابل مقياسين". "إذا فكرت في الأمر ، فكيف يمكن للمرء حتى تحديد مفهوم الإنصاف؟ يمكن أن يكون لأي مشكلة معينة وجهات نظر متعددة ، ولكل منها تعريف مختلف لما يعتبر عادلاً. من الناحية الفنية ، من الممكن حساب المقاييس لمجموعات البيانات والخوارزميات التي قل شيئًا عن الإنصاف ، ولكن ما الذي يجب أن يقاس به؟ "

يقول Oggel إن هناك حاجة إلى مزيد من الاستثمار "في البحث عن التحيز وفهم كيفية إزالته من أنظمة الذكاء الاصطناعي. يجب دمج نتيجة هذا البحث في إطار من المعايير والسياسات والإرشادات وأفضل الممارسات التي يمكن للمنظمات اتباعها. بدون إجابات واضحة على هذه الأسئلة والعديد من الأسئلة الأخرى ، ستواجه جهود الشركات للقضاء على التحيز صعوبات ".

ويضيف أن تحيز الذكاء الاصطناعي غالبًا ما يكون "غير مقصود وغير واعٍ". "إن توعية الموظفين بالمشكلة سيقطع شوطًا ما في معالجة التحيز ، ولكن بنفس القدر من الأهمية هو ضمان وجود تنوع في فرق علوم وهندسة البيانات لديك ، وتقديم سياسات واضحة ، وضمان الإشراف المناسب."

بينما يستغرق فتح المشاريع والأولويات للمؤسسة وقتًا ، فهناك تدابير قصيرة المدى يمكن اتخاذها على مستوى التطوير والتنفيذ.


ينصح هاريش دودي ، الرئيس التنفيذي لشركة Datatron ، بطرح الأسئلة التالية أثناء تطوير نماذج الذكاء الاصطناعي:  


كيف كانت الإصدارات السابقة؟  
ما متغيرات الإدخال التي تدخل النموذج؟  
ما هي متغيرات الإخراج؟  
من لديه حق الوصول إلى النموذج؟  
هل كان هناك أي وصول غير مصرح به؟  
كيف يتصرف النموذج عندما يتعلق الأمر بمقاييس معينة؟  


يوضح دودي أنه أثناء التطوير ، "ترتبط نماذج التعلم الآلي بافتراضات وقواعد وتوقعات معينة" والتي قد تؤدي إلى نتائج مختلفة بمجرد وضعها في الإنتاج. "هذا هو المكان الذي تكون فيه الحوكمة أمرًا بالغ الأهمية." جزء من هذه الإدارة عبارة عن كتالوج لتتبع جميع إصدارات النماذج. "يجب أن يكون الكتالوج قادرًا على تتبع وتوثيق إطار العمل حيث يتم تطوير النماذج ونسبها."

يقول Oggel: "تحتاج الشركات إلى ضمان أن الاعتبارات التجارية لا تفوق الاعتبارات الأخلاقية. هذا ليس عملاً سهلاً لتحقيق التوازن". "تتضمن بعض الأساليب المراقبة التلقائية لكيفية تغير سلوك النموذج بمرور الوقت على مجموعة ثابتة من نقاط البيانات النموذجية. وهذا يساعد في التحقق من أن النماذج تتصرف بطريقة متوقعة والالتزام ببعض القيود حول الفطرة السليمة ومخاطر التحيز المعروفة. بالإضافة إلى ذلك ، إجراء فحوصات يدوية لأمثلة البيانات بانتظام لمعرفة كيف يمكن أن تتماشى تنبؤات النموذج مع ما نتوقعه أو نأمل في تحقيقه يمكن أن تساعد في اكتشاف المشكلات الناشئة وغير المتوقعة ".