النجاح الإخباري - يبدو أن خوارزميات الذكاء الاصطناعي التي لم تخضع للتجريب والتدريب الجيد قد تؤدي بالجهاز إلى اتخاذ قرارات تمييزية، مما يعتبر مشكلة تتطلب حلا جذريا، حسب ما جاء في صحيفة ليزيكو الفرنسية كاتبة التقرير دبورا لوي ضربت مثالا على ذلك هو تصنيف نظام غوغل للتعرف على الوجه في عام 2015 صورة لشخص أميركي من أصل أفريقي في فئة "الغوريلا".

كما أوردت قصة الباحثة في معهد ماساتشوستس للتكنولوجيا جوي بولامويني ذات البشرة السوداء التي اكتشفت بالصدفة وهي تجرب برنامج تعرف على الوجه أنه لا يتعرف على وجهها، في حين أنه يتعرف بشكل جيد على وجوه أصدقائها، فدفعها ذلك لارتداء قناع أبيض، وكانت المفاجأة أن البرنامج تعرف فورا على "وجهها".

ومع زيادة وتنويع استخدامات الذكاء الاصطناعي يمكن أن تكون لهذا التحيز عواقب كارثية، فالمستقبل سيجعل من الخوارزميات وسيلة للتنبؤ، إذ سوف تساعد مصرفنا على اتخاذ قرار بإعطائنا قرضا أو حرماننا منه، وستساعد طبيبنا على معرفة العلاج المناسب وعلينا بالتالي أن نكون يقظين كي لا تضخم هذه القرارات الآلية التحيزات البشرية "، حسب ما تراه المؤسسة المشاركة لهيئة تطلق على نفسها "نساء في الذكاء الاصطناعي" كارولين لير.

وبما أن هذه المشاكل قد تم تحديدها فإن العديد من الباحثين يعملون الآن على حلها، مثل الباحث في مختبر الذكاء الاصطناعي في فيسبوك محمد مصطفى سيسي الذي يقول "أنا أعمل على خلق ذكاء اصطناعي يتماشى مع القيم التي يريد المجتمع أن يكون معروفا بها"، وللقيام بذلك قال سيسي إنه يدقق في النماذج من خلال تفكيكها لاكتشاف أي تحيز محتمل فيها.

وإذا كانت هذه المشكلة قد طرحت عالميا فإن تسويتها ستظل شائكة، إذ علينا أن نجد الأدوات التقنية الضرورية "لتصحيح" الخوارزميات، ولا بد قبل ذلك من اتفاق دولي لتحديد المجتمع الذي نريده

والقيم التي نعتبرها غير قابلة للتصرف، وإذا نجحنا في ذلك يمكن للذكاء الاصطناعي حينها أن يحمي الإنسان من التحيز، ويجعل عمليات مثل التوظيف أو منح الائتمان أكثر عدلا، حسب لوي.