أحد صفحات التقدم العلمي للنشر
اخترنا لكبحثذكاء اصطناعي

استخدام الذكاء الاصطناعي لتعزيز التنوع

هذا الموضوع جزء من مبادرة إم آي تي سلون مانجمنت ريفيو لاستكشاف الكيفية التي تعيد بها التكنولوجيا تشكيل ممارسة الإدارة.

قد يساعدنا الذكاء الاصطناعي على التغلب على التحيزات بدلاً من إدامتها، بالاستعانة بتوجيهات من البشر الذين يصممون أنظمته ويدربون عليها ويحسّنونها.

عانى الذكاء الاصطناعي بعضَ التغطية الصحافية السيئة المبررة في الآونة الأخيرة. وتناول بعض من أسوأ القصص الأنظمةَ التي تظهر تحيزاً حول العرق أو الجنوسة (النوع الاجتماعي) Gender في تطبيقات التعرف على الوجوه أو في تقييم الأشخاص من أجل تولي وظائف أو الحصول على قروض أو اعتبارات الأخرى.1 وكان أحد البرامج يوصي بشكل روتيني بعقوبات سجن أطول للسود مقارنة بالبيض على أساس استخدام معيب لبيانات تتعلق بتكرار الجرائم.2

لكن ماذا لو ساعد الذكاء الاصطناعي، بدلاً من إدامة التحيزات السيئة، على التغلب عليها واتخاذ قرارات أكثر إنصافاً؟ فقد يؤدي ذلك في المُحصّلة إلى عالم أكثر تنوعاً وشمولاً. وماذا لو، مثلاً، أمكن أن تساعد الأجهزة الذكية المؤسسات على التعرف على جميع المرشحين الجديرين بالتوظيف من خلال تجنب التحيزات الخفية المعتادة التي تعيق المتقدمين الذين لا يشبهون أولئك الذين في السلطة ولا يتكلمون مثلهم، أو المتقدمين الذين لا ترد مؤسسات «صحيحة» في سيرهم الذاتية؟ وماذا لو كانت البرمجيات قادرة على تفسير أوجه عدم المساواة التي حدت من حصول الأقليات إلى القروض العقارية والقروض الأخرى؟ بمعنى آخر، ماذا لو علَّمنا أنظمتنا تجاهل البيانات حول العرق والجنوسة، وغيرهما من الخصائص غير ذات الصلة بالقرارات قيد النظر؟

يمكن للذكاء الاصطناعي إجراء كل ذلك – بتوجيه من الخبراء البشريين الذين يصممون أنظمته ويدربونه عليها ويحسّنونها. وعلى وجه التحديد، يجب على الأشخاص الذين يعملون مع التكنولوجيا أن يؤدوا عملا أفضل بكثير في دمج الشمولية والتنوع في تصميم الذكاء الاصطناعي من خلال استخدام البيانات الصحيحة لتدريب أنظمته الذكاء الاصطناعي على الشمولية والتفكير في التنوع عند تطوير البوتات Bots والتطبيقات الأخرى التي تتعامل مع الجمهور.

التصميم من أجل الشمولية

لا يزال تطوير البرمجيات مجالاً يسيطر عليه الذكور، فنحو الربع فقط من علماء الحاسوب في الولايات المتحدة هم من النساء3 – أما مجموعات الأقليات العرقية، بمن في ذلك السود وذوو الأصول اللاتينة، فممثلة تمثيلاً ناقصاً في العمل التقني أيضاً.4 وأُسِّست مجموعات مثل Girls Who Code و AI4ALL للمساعدة على سدِّ هذه الفجوات. وبلغ عدد الأعضاء في مجموعة Girls Who Code تسعين ألف فتاة من خلفيات مختلفة في كل الولايات الخمسين،5 وتستهدف الجموعة AI4ALL بشكل خاص الفتيات في المجتمعات الصغيرة من الأقليات. ومن بين أنشطة أخرى، ترعى المجموعة AI4ALL برنامجاً صيفياً يشمل زيارات إلى أقسام الذكاء الاصطناعي في جامعات مثل ستانفورد وكارنيغي ميلون لكي تتمكن المشاركات من تطوير علاقات مع باحثين قد يكونون بمثابة مرشدين وقدوات. ولحسن الحظ، يضم حقل الذكاء الاصطناعي عدداً من النساء البارزات – بمن في ذلك فاي – فاي لي Fei-Fei Li (ستانفورد)، وفيفيان مينغ Vivienne Ming (جامعة سنغولاريتي)، ورنا القليوبي Rana el Kaliouby (أفكتيفا)، وسينثيا بريزيل Cynthia Breazeal (معهد ماساتشوستس للتكنولوجيا) – اللواتي استطعن مِلْء جزء من الفراغ.

ولا تقتصر هذه العلاقات على إتاحة فرص تطوير المهن للحاصلات على الإرشاد – بل من المحتمل أيضاً أن تحول المرشدين إلى رواد للتنوع والشمول، وهي تجربة قد تؤثر في كيفية التعامل مع تصميم الخوارزميات. ويدعم بحث أجراه عالما الاجتماع فرانك دوبين Frank Dobbin من جامعة هارفارد وألكسندرا كيليف Alexandra Kalev من جامعة تل أبيب هذه الفكرة: ووجدا أن تقديم الإرشاد للآتيات من الأقليات يُحدِث بالفعل تغييراً في تحيز المديرين والمحترفين الذين يقدمون الإرشاد، بطريقة لا يحدثها التدريب القسري.6
وسعت مؤسسات أخرى إلى تطبيق حلول قريبة الأجل لفرق تصميم الذكاء الاصطناعي. فشركة لايف بيرسون LivePerson، وهي شركة تطور منتجات مراسلة وتسويق وتحليلات على الإنترنت، تضع موظفي خدمة العملاء (وهي مهنة يشغلها الإناث بنسبة %65 في الولايات المتحدة) إلى جانب مبرمجيها (الذكور عادة) أثناء عملية التطوير لتحقيق توازن أفضل في وجهات النظر.7 وأنشأت مايكروسوفت إطاراً لتشكيل فرق تصميم «شاملة»، فقد تكون أكثر فاعلية في النظر في الاحتياجات والحساسيات الخاصة بأنواع عديدة من العملاء، بمن في ذلك ذوو الإعاقات الجسدية.8 ولدى مشروع الأصوات المتنوعة Diverse Voicesـ في جامعة واشنطن هدف مماثل لتطوير التكنولوجيا على أساس مدخلات من الأطراف المعنية المتعددة لتمثيل احتياجات المجموعات السكانية غير المنتمية إلى التيار السائد بشكل أفضل.

العديد من مجموعات البيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي تحتوي على المنتجات التاريخية للتحيزات وإذا لم يجرِ التعرف على هذه الارتباطات وإزالتها؛ فسيؤدي ذلك إلى استدامتها وتعزيزها.

 

وصُمِّمت بعض الأدوات التي يحركها الذكاء الاصطناعي للتخفيف من التحيزات في التوظيف. ويمكن للأدوات الذكية لتحرير النصوص مثل تكستيو Textio إعادة كتابة أوصاف الوظائف لاجتذاب مرشحين من المجموعات غير الممثلة بشكل جيد. وباستخدام تكستيو، تمكنت شركة البرمجيات أطلسيان Atlassian من زيادة نسبة الإناث بين موظفيها الجدد من نحو %10 إلى %57 9. ويمكن للشركات أن تستخدم تكنولوجيا الذكاء الاصطناعي للمساعدة على تحديد التحيز في قراراتها السابقة في مجال التوظيف. ويمكن للشبكات العصبية العميقة – مجموعات الخوارزميات التي تحاكي القدرة البشرية على تحديد الأنماط في البيانات – أن تكون فاعلة بشكل خاص في الكشف عن أدلة على تفضيلات مخفية. وباستخدام هذه التقنية، يمكن لخدمة قائمة على الذكاء الاصطناعي مثل ميا Mya أن تساعد الشركات على تحليل سجلات التوظيف الخاصة بها ومعرفة ما إذا كانت تفضل المرشحين الذين لديهم، مثلاً، بشرة فاتحة.

تدريب الأنظمة ببيانات أفضل

لا يتعلق بناء أنظمة الذكاء الاصطناعي التي تحارب التحيز فقط بوجود فرق تصميم أكثر تنوعاً وتفكر بشكل متنوع؛ بل يشمل أيضاً تدريب البرامج على التصرف بشكل شمولي. فالعديد من مجموعات البيانات المستخدمة لتدريب أنظمة الذكاء الاصطناعي تحتوي على المنتجات التاريخية للتحيزات – مثلاً، ترتبط كلمة امرأة بممرضة أكثر منها بطبيب – وإذا لم يجرِ التعرف على هذه الارتباطات وإزالتها؛ فسيؤدي ذلك إلى استدامتها وتعزيزها.10

وبينما تتعلم برامج الذكاء الاصطناعي من خلال إيجاد أنماط في البيانات، فإنها تحتاج إلى توجيه من البشر لضمان أن البرمجيات لا تقفز إلى استنتاجات خاطئة. وهذا يوفر فرصة مهمة لتعزيز التنوع والشمولية. مثلاً، أعدت مايكروسوفت فريق «العدالة والمساءلة والشفافية والأخلاق» في الذكاء الاصطناعي Fairness, Accountability, Transparency, and Ethics in AI team،
وهو مسؤول عن الكشف عن أي تحيز تسلل إلى البيانات التي تستخدمها أنظمة الذكاء الاصطناعي الخاصة بالشركة.

وفي بعض الأحيان يجب تحسين أنظمة الذكاء الاصطناعي من خلال تمثيل أكثر شمولية في الصور. خذوا مثلاً حقيقة أن التطبيقات التجارية للتعرف على الوجه تكافح من أجل الدقة عند التعامل مع الأقليات: ويبلغ معدل الخطأ في تحديد النساء ذوات البشرة الداكنة %35، مقارنة بـ%0.8 للرجال ذوي البشرة الفاتحة. وتنبع المشكلة من الاعتماد على مجموعات البيانات المتاحة مجاناً (التي تنتشر فيها صور الوجوه البيضاء) في تدريب الأنظمة. ويمكن تصحيح الأمر من خلال تنظيم مجموعة بيانات جديدة للتدريب مع تمثيل أفضل للأقليات أو بتطبيق أوزان أثقل على النقاط الممثلة تمثيلاً ناقصاً في البيانات.11 وهناك نهج آخر – اقترحه الباحث في مايكروسوفت آدم كالاي Adam Kalai وزملاؤه – يتمثل باستخدام خوارزميات مختلفة لتحليل مجموعات مختلفة. مثلاً، قد تكون خوارزمية تحديد أيٍّ من المرشحات الإناث أفضل كمندوبة مبيعات مختلفة عن الخوارزمية المستخدمة لتقييم الذكور – أي نوع من تكتيك العمل الإيجابي الرقمي.12 وفي هذا السيناريو، قد يكون لعب رياضة جماعية في الكلية مؤشراً أعلى على نجاح المرأة أكثر منه في الرجال الذين يمارسون دوراً معيناً في المبيعات في شركة معينة.

منح البوتات مجموعة متنوعة

من الأصوات يجب على الشركات ومطوري أنظمة الذكاء الاصطناعي فيها التفكير أيضاً في كيفية مشاركة تطبيقاتهم مع العملاء. وللتنافس في الأسواق الاستهلاكية المتنوعة، تحتاج الشركة إلى منتجات وخدمات يمكنها التحدث إلى الأشخاص بطرق يفضلونها.
وفي الدوائر التكنولوجية، يدور نقاش كبير حول لماذا، مثلاً، تكون الأصوات التي تجيب عن المكالمات في مراكز المساعدة أو التي تُبرمَج في مساعدين شخصيين مثل أليكسا Alexa من أمازون أنثوية. وتظهر الدراسات أن الرجال والنساء يميلون إلى تفضيل صوت مساعدة أنثى، يرون أنه يوفر الدفء والرعاية.

ويمكن لهذا التفضيل أن يتغير حسب الموضوع: عادةً ما يتم تفضيل أصوات الذكور للحصول على معلومات حول أجهزة الحاسوب، في حين تُفضَّل أصوات الإناث للحصول على معلومات حول العلاقات الشخصية.13

لكن هل تُديم هؤلاء «المساعِدات» الإناث القوالبَ النمطية الخاصة بالجنسيين؟ وحقيقة أن للعديد من البوتات النسائية لها أصوات خانعة ومطيعة لا يساعد على الأمر. وهذا شيء بدأه موقع أمازون بمعالجته في نسخته الحديثة من أليكسا: لقد أُعيدَت برمجة البوت الذكي ليكون قليل الصبر أمام التحرش، مثلاً، فهو يجيب الآن بشكل حاد عن الأسئلة الجنسية الصريحة على غرار «لن أرد على ذلك» أو «لست على ثقة بالنتيجة التي توقعتموها».14

تظهر الدراسات أن الرجال والنساء يميلون إلى تفضيل صوت مساعدة أنثى لأنهم يرون أنه يوفر الدفء والرعاية. لكن هل تُديم هؤلاء «المساعِدات» الإناث القوالبَ النمطية الخاصة بالجنسيين؟

 

وقد تنظر الشركات في تقديم إصدارات مختلفة من بوتاتها لتناسب قاعدة عملاء متنوعة. فالبوت سيري من أبل متاح الآن بصوت ذكر أو أنثى ويمكنه التحدث بلكنة بريطانية أو هندية أو أيرلندية أو أسترالية. ويمكنه أيضاً التحدث بلغات متنوعة، بما في ذلك الفرنسية والألمانية والإسبانية والروسية واليابانية. وعلى الرغم من أن سيري عادة ما يكون في وضعيته الافتراضية بصوت أنثى، يكون الصوت الذكري هو الافتراضي في اللغات العربية والإنجليزية والفرنسية والهولندية والبريطانية.

وبقدر أهمية الطريقة التي تتكلم بها، يجب أن تكون البوتات العاملة بالذكاء الاصطناعي قادرة على فهم كل أنواع الأصوات. وأما في الوقت الحالي؛ فلا يتحقق ذلك في معظم البوتات.15 ولتدريب خوارزميات التعرف على الصوت، اعتمدت الشركات على مجاميع الكلام، أو قواعد بيانات خاصة بالمقاطع الصوتية. فالمجموعات المهمشة في المجتمع – من ذوي الدخل المنخفض، والريفيين، والأقل تعليماً، والناطقين بلغة ليست لغتهم الأم – تميل إلى أن تكون ممثلة تمثيلاً ناقصاً في مجموعات البيانات هذه. ويمكن لقواعد البيانات المتخصصة أن تساعد على تصحيح أوجه القصور هذه، لكنها أيضاً تعاني قصوراً. فمثلاً، يتضمن مجمع الكلام الخاص بالبوت فيشر Fisher، كلاماً من متحدثين باللغة الإنجليزية ممن هي ليست لغتهم الأم، لكن التنوع ليس متسقاً. فعلى الرغم من أن اللهجات الإسبانية والهندية مشمولة، فإن اللهجات البريطانية قليلة نسبياً. وتتخذ شركة محركات البحث الصينية بايدو Baidu، نهجاً مختلفاً من خلال محاولة تحسين الخوارزميات نفسها. فهي تطور خوارزمية الكلام العميق Deep speech التي تقول إنها ستتعامل مع اللهجات واللهجات المحلية المختلفة.

وفي المُحصّلة نعتقد أن الذكاء الاصطناعي سيساعد على إيجاد عالَم أكثر تنوعاً وأفضل إذا كان البشر الذين يعملون مع التكنولوجيا يصممون هذه الأنظمة ويدربونها ويعدلونها بشكل صحيح. ويتطلب هذا التحول التزاماً من كبار المسؤولين التنفيذيين لتحديد الاتجاه. وقد يدّعي قادة الأعمال أن التنوع والشمول هما هدفان أساسيان، لكنهم يحتاجون بعد ذلك إلى متابعة الأشخاص الذين يوظفونهم والمنتجات التي تطورها شركاتهم.

المنافع الممكنة جذّابة: الوصول إلى المواهب التي نحن في أَمسِّ الحاجة إليها، والقدرة على خدمة مجموعة واسعة من المستهلكين بشكل فاعل.

بول آر. دوغيرتي، جيمس ويلسون، رومان تشودري

بول آر. دوغيرتي Paul R. Daugherty

بول آر. دوغيرتي Paul R. Daugherty

رئيس قسم التكنولوجيا والابتكار في «أكسنتشر» Accenture. وهو يغرد على @pauldaugh.

 إتش. جيمس ويلسون H. James Wilson

إتش. جيمس ويلسون H. James Wilson

المدير التنفيذي لأبحاث تكنولوجيا المعلومات والأعمال في «أكسنتشر للأبحاث» Accenture Research. وهو يغرد على @hjameswilson.

 رومان تشودري Rumman Chowdhury

رومان تشودري Rumman Chowdhury

عالمة بيانات وعالمة اجتماع، والقائدة العالمية لـ«أكسنتشر» Accenture للذكاء الاصطناعي المسؤول. وهي تغرد على @ruchowdh.

المراجع (15)

  1. L. Hardesty, “Study Finds Gender and Skin-Type Bias in Commercial Artificial Intelligence Systems,” MIT News Office, Feb. 11, 2018.
  2. E.T. Israni, “When an Algorithm HelpsSend You to Prison,” The New York Times, Oct. 26, 2017.
  3. L. Camera, “Women Can Code — as Long as No One Knows They’re Women,” U.S. News & World Report, Feb. 18, 2016.
  4. M. Muro, A. Berube, and J. Whiton, “Black and Hispanic Underrepresentation in Tech: It’s Time to Change the Equation,” The Brookings Institution, March 28, 2018.
  5. “About Us,” girlswhocode.com.
  6. F. Dobbin and A. Kalev, “Why Diversity Programs Fail,” Harvard Business Review 94, no. 7/8 (July-August 2016).
  7. R. Locascio, “Thousands of Sexist AI Bots Could Be Coming. Here’s How We Can Stop Them,” Fortune, May 10, 2018.
  8. “Inclusive Design,” Microsoft.com.
  9. T. Halloran, “How Atlassian Went From 10% Female Technical Graduates to 57% in Two Years,” Textio, Dec. 12, 2017.
  10. C. DeBrusk, “The Risk of Machine-Learning Bias (and How to Prevent It),” MIT Sloan Management Review, March 26, 2018.
  11. J. Zou and L. Schiebinger, “AI Can Be Sexist and Racist — It’s Time to Make It Fair,” Nature, July 12, 2018.
  12. D. Bass and E. Huet, “Researchers Combat Gender and Racial Bias in Artificial Intelligence,” Bloomberg.com, Dec. 4, 2017.
  13. B. Lovejoy, “Sexism Rules in Voice Assistant Genders, Show Studies, but Siri Stands Out,” 9to5Mac.com, Feb. 22, 2017.
  14. J. Elliot, “Let’s Stop Talking to Sexist Bots: The Future of Voice for Brands,” Fast Company, March 7, 2018.
  15. S. Paul, “Voice Is the Next Big Platform, Unless You Have an Accent,” Wired, March
    20, 2017.
اظهر المزيد

مقالات ذات صلة

زر الذهاب إلى الأعلى