الذكاء الاصطناعي AI على الخطوط الأمامية
قد يجمُد تقدم الذكاء الاصطناعي AI عندما يقاوم المستخدمون النهائيون التبني. ويتعين على المطورين أن يفكروا فيما هو أبعد من فوائد الأعمال الخاصة بالمشروع، وأن يضمنوا التعامل مع مخاوف تدفق العمل لدى المستخدمين النهائيين.
عند الساعة العاشرة من صباح أحد أيام الاثنين، كان ”أمان“- أحد مطوري أداة الذكاء الاصطناعي AI الجديدة- متحمساً بشأن إطلاق التكنولوجيا في ذلك اليوم. كان قادة وحدة العناية المركزة في مستشفى جامعة ديوك Duke University Hospital طلبوا إلى أمان وزملائه تطوير أداة الذكاء الاصطناعي AI للمساعدة على منع اكتظاظ وحدتهم. وأظهرت الأبحاث أن المرضى الذين يأتون إلى المستشفى ويعانون نوعاً معيناً من الأزمات القلبية لم يكونوا في حاجة إلى دخول وحدة العناية المركزة ICU، وأعرب قادة الوحدة عن أملهم أن تساعد أداة الذكاء الاصطناعي AI الأطباء الإكلينيكيين في غرفة الطوارئ على تحديد هؤلاء المرضى وإرسالهم إلى الرعاية غير الحرجة Noncritical care. وهذا من شأنه أن يحسن من جودة الرعاية للمرضى، وأن يقلل من التكاليف غير الضرورية في الوقت نفسه.
وكان أمان وفريقه من أطباء القلب وعلماء البيانات وعلماء الحاسوب ومديري المشروعات قد طوروا أداة الذكاء الاصطناعي AI التي جعلت من السهل على الأطباء الإكلينيكيين تحديد هؤلاء المرضى. كذلك أضافت الأداة شرحاً في السجلات الطبية الإلكترونية للمرضى لتفسير السبب وراء عدم حاجتهم إلى الانتقال إلى وحدة العناية المركزة. وأخيرا، بعد سنة من العمل، كانت الأداة جاهزة للعمل.
ومرت ثلاثة أسابيع. فشل إطلاق الأداة. ويُعَد قول أحد أطباء غرفة الطوارئ: ”لا نحتاج إلى أداة لإخبارنا كيف نضطلع بوظيفتنا“ نموذجاً لردود فعل موظفي الصفوف الأمامية- الذين هم على تماسٍّ مع العملاء- إزاء تقديم أدوات لدعم القرار تعمل بالذكاء الاصطناعي AI. واعترض الأطباء الإكلينيكيون المشغولون في بيئة غرفة الطوارئ السريعة الإيقاع على العمل الإضافي لإدخال البيانات في النظام إضافةً إلى أعمالهم الاعتيادية– كما أنهم كرهوا التدخل في نطاق خبرتهم من قِبل غرباء شعروا بأن لديهم القليل من الفهم لعمليات غرفة الطوارئ.
تحصل إخفاقات مشابهة لتطبيقات الذكاء الاصطناعي AI في قطاعات أخرى، على الرغم من أن هذه الطرق الجديدة للعمل يمكن أن تساعد المؤسسات على تحسين جودة المنتجات والخدمات، وتقليل التكاليف، وزيادة الإيرادات. وفي الأغلب يقاوم المستخدمون ”النهائيون“ End users استخدام أدوات الذكاء الاصطناعي AI لتوجيه اتخاذ القرار، لأنهم لا يرون سوى القليل من الفوائد لأنفسهم، وقد تتطلب الأدوات الجديدة عملاً إضافياً، وتؤدي إلى فقدان الاستقلالية.
هذه المصالح المتضاربة بين المستخدمين المُستَهدفين وكبار المديرين أو أصحاب المصلحة في الإدارات الأخرى حول تنفيذ التكنولوجيا ليست جديدة. وعلى الرغم من ذلك أصبحت هذه المشكلة أكثر حدة في عصر أدوات الذكاء الاصطناعي AI، لأن هذه الأدوات توقعية ووصفية، وتتطلب عملية تطوير شاقة في الاتجاهين بين المطورين والمستخدمين.
كيف، إذن، يمكن لقادة مشروعات الذكاء الاصطناعي AI زيادةُ قبول المستخدم واستخدام أدوات الذكاء الاصطناعي AI؟ تشير ملاحظتنا الوثيقة للتصميم والتطوير والتكامل في 15 أداة لدعم القرار بالذكاء الاصطناعي AI على مدى السنوات الخمس الماضية في ديوك هيلث Duke Health إلى مجموعة من أفضل الممارسات لتحقيق التوازن بين مصالح الأطراف المعنية. ووجدنا أنه من أجل زيادة قبول المستخدم واستخدام أدوات دعم القرار بالذكاء الاصطناعي AI يجب على قادة مشروعات الذكاء الاصطناعي AI في المؤسسات زيادة الفوائد المرتبطة باستخدام الأدوات، وخفض حجم العمل المطلوب لتطوير الأدوات، وحماية الاستقلالية، وذلك عن طريق حماية العمل الأساسي للمستخدمين.
وجمعنا بيانات عن التحديات التي واجهها مديرو المستشفيات والمستخدمون ومطورو الأدوات عند تطبيق أداة الذكاء الاصطناعي AI، مع التركيز بنحو خاص على أدوات دعم القرار التي طُبقت بنجاح. وعلى الرغم من أن هذا البحث ركز على تطبيق أدوات دعم القرار بالذكاء الاصطناعي AI في مجال الرعاية الصحية، وجدنا أن المسائل والديناميكيات التي حددناها موجودة أيضاً في مجالات أخرى، مثل التكنولوجيا والتصنيع والتأمين والاتصالات، والبيع بالتجزئة.
جذور مقاومة المستخدمين النهائيين
تنبع الانقطاعات بين ما تأمُل فرق مشروعات الذكاء الاصطناعي AI تنفيذَه وما يعتمده المستخدمون عن طيب خاطر من ثلاثة تضاربات رئيسة في المصالح.
1. كثيراً ما تقدم أدوات الذكاء الاصطناعي AI التوقعية نصيب الأسد من الفوائد إلى المؤسسة، وليس المستخدم النهائي. تسمح التوقعات التي توفرها أدوات الذكاء الاصطناعي AI بتدخلات سابقة في سلسلة القيمة في أي مؤسسة، مع إمكانية تحسين الجودة وخفض التكاليف لكل من المؤسسة والأطراف المعنية. ومع ذلك لا توجد في كثير من الأحيان فوائد مباشرة للمستخدمين النهائيين المقصودين للأدوات، كما هي الحال أعلاه، إذ طلب إلى الأطباء الإكلينيكيين في غرفة الطوارئ استخدامَ أداة تنتج فوائد للأطباء الإكلينيكيين في وحدة العناية المركزة.
وحدث موقف مماثل في طرف للبيع بالتجزئة عبر الإنترنت يطور أداة بالذكاء الاصطناعي لوضع علامة على المرشحين المقبلين للوظائف الذين تتطابق سيرهم الذاتية مع ملف تعريف Profile يستند إلى الموظفين الذين نجحوا في المؤسسة في الماضي. ففي الأغلب أهمل الباحثون عن موظفين في إدارة الموارد البشرية، المستخدمون النهائيون المستهدفون للأداة، هؤلاء المرشحين المقبلين لمصلحة بحث خارج عبر منصات مثل لينكد إن LinkedIn، لأنهم سعوا إلى جذب عدد كبير من المرشحين ذوي المهارات التقنية التي يصعب العثور عليها، كما أن عدداً قليلاً من المرشحين المقبلين كانوا يتمتعون بالمهارات المطلوبة. ومع ذلك كان المرشحون الآتون أكثر ميلاً إلى قبول عروض الوظائف مقارنةً بالمرشحين الذين جرى التوصل إليهم بوسائل أخرى، لذلك ستفيد الأداة المؤسسة ككل، فضلاً عن تفاعل من يجرون المقابلات في إدارة الموارد البشرية النهائيين بعد الباحثين عن مرشحين.
2. قد تتطلب أدوات الذكاء الاصطناعي عملاً إضافياً من قِبل المستخدمين النهائيين الذين ليسوا المستفيدين الرئيسين من الأدوات. تتطلب أدوات الذكاء الاصطناعي AI عملية شاقة في الاتجاهين بين المطورين والمستخدمين النهائيين. وما دام انخرط مطورو التكنولوجيا في التصميم المتمحور حول المستخدم، باستخدام تحليل المهام، والملاحظة، واختبار المستخدم لدمج احتياجات المستخدمين النهائيين. لكن أدوات الذكاء الاصطناعي AI تتطلب مستوى أعمق من التفاعل من قِبل المستخدمين النهائيين.
ونظراً إلى أن كمية كبيرة من البيانات العالية الجودة مطلوبة لإنشاء أداة الذكاء الاصطناعي AI، يعتمد المطورون على المستخدمين النهائيين لتحديد اختلافات البيانات ومعالجتها، وتوحيد أساليب إعداد التقارير. كذلك يعتمد المطورون على المستخدمين النهائيين في تحديد مُدخلات الأجهزة ومخرجاتها وتقييمها واستكمالها في كل خطوة من خطوات العملية، ومواجهة الافتراضات التي توجه اتخاذ القرار من قبل المستخدم النهائي.
وفي الحالات التي تكون فيها أصحاب المصلحة في مرحلة ما بعد الإنتاج، أو يكون كبار المديرين هم المستفيدين الرئيسين من أداة الذكاء الاصطناعي AI، قد لا يكون المستخدمون النهائيون متحمسين للمشاركة في هذه العملية الشاقة في الاتجاهين مع المطورين. مثلاً لم يكن أطباء غرفة الطوارئ مهتمين بالمساهمة في الوقت والجهد المبذولين لتطوير الأداة اللازمة لتحديد الأزمات القلبية المنخفضة الخطورة.
ووجد باحثون في جامعة أكسفورد Oxford University مشكلة مماثلة في شركة اتصالات تعمل على تطوير أداة بالذكاء الاصطناعي AI لمساعدة مندوبي المبيعات على تحديد حسابات عالية القيمة.1S. Pachidi, H. Berends, S. Faraj, et al., “Make Way for the Algorithms: Symbolic Actions and Change in a Regime of Knowing,” Organization Science 32, no. 1 (January-February 2021): 18-41. وبينما كان المديرون الأوائل مهتمين بتوفير الخبرة الفنية لمندوبي المبيعات، قيم مندوبو المبيعات الحفاظ على علاقات شخصية وجديرة بالثقة مع العملاء واستخدام مشاعرهم الخاصة لتحديد فرص المبيعات. ولم يتحمس هؤلاء للانخراط في عملية تتطلب عملاً مكثفاً في التصميم والتطوير والدمج لأداة لم يصدقوا أنها قد تفيدهم.
3. في الأغلب تَحِد أدوات الذكاء الاصطناعي AI الإلزامية من استقلالية المستخدم النهائي. إن أدوات دعم القرار بالذكاء الاصطناعي AI، بطبيعتها، هي أدوات إرشادية إذ توصي باتخاذ إجراءات من قِبل المستخدم النهائي، مثل نقل مريض إلى وحدة العناية المركزة. وتسمح الوصفات التي توفرها أدوات الذكاء الاصطناعي AI للأطراف المعنية من الجهات الثالثة الداخلية، مثل المديرين التنظيميين أو أصحاب المصلحة في الإدارات المختلفة، بالحصول على مرئية جديدة لاتخاذ القرار من قِبل المستخدمين النهائيين المستهدفين بالأدوات، بل حتى على بعض السيطرة عليها. ولم يكن في وسع أصحاب المصلحة Internal third-party stakeholders، مثل كبار المديرين، في السابق، وضْعُ بروتوكولات للعمل، سيفسرها المستخدمون النهائيون ويطبقون وفق تقديرهم الخاص بشأن حالة معينة. ويمكن الآن لأدوات الذكاء الاصطناعي AI إنارة هذه الأحكام وتقديم توصيات مقابلة ومتابعة ما إذا كان المستخدمون النهائيون يقبلون هذه الاقتراحات، ومن ثم يمكنهم انتهاك استقلالية المستخدم النهائي.
مثلاً، بمجرد تنفيذ أداة ديوك للتعرف على الأزمات القلبية المنخفضة المخاطر، عندما اختار طبيب إكلينيكي في غرفة الطوارئ قبولَ مريض في الأزمات القلبية إلى وحدة الرعاية المركزة، يصبح في وسع كبار المديرين والأطباء الإكلينيكيين في وحدة الرعاية المركزة أن يروا ما أوصت به أداة الذكاء الاصطناعي AI، وما إذا كان الطبيب الإكلينيكي في غرفة الطوارئ قد اتبع التوصية. لم يكن الأطباء الإكلينيكيون في غرفة الطوارئ معجبين بفكرة أن آخرين، لم يكن لديهم اطلاع على مرضاهم، تدخلوا في مجالهم وحاولوا التحكم في قراراتهم.
ووجدت دراسة عن استخدام أدوات الذكاء الاصطناعي AI في البيع بالتجزئة ديناميكيات مماثلة.2M. Valentine and R. Hinds, “‘Rolling Up the Leaf Node’ to New Levels of Analysis: How Algorithmic Decision-Making Changes Roles, Hierarchies, and Org Charts,” working paper, Stanford University, Stanford, California, May 2021. فحص باحثون في ستانفورد Stanford تنفيذ أداة دعم قرار خوارزمية لمشتري الأزياء. كانوا قد اعتمدوا تاريخياً على تجربتهم وحدسهم في اتجاهات الأزياء المقبلة لتحديد أي الملابس تخزَّن تحسباً للطلب في المستقبل. مثلاً كان على المشترين المسؤولين عن طلب بنطلونات الجينز الرجالية أن يختاروا من بين الأنماط (النحيفة، الواسعة الساقين، المستقيمة) وألوان الدنيم (فاتح، متوسط، داكن). وكان للمشترين قدر كبير من الاستقلالية ولم يكونوا معتادين نمذجةَ تأثير أحكامهم البديهية وقياسها بنمط صريح.
تشجيع التبني في الخطوط الأمامية
وجدنا أنه من أجل تنفيذ أدوات الذكاء الاصطناعي AI بنجاح في مواجهة هذه الحواجز، يجب على قادة مشروعات الذكاء الاصطناعي AI معالجةُ الاختلال بين المستخدم النهائي والقيمة المؤسسية المولدة التي تقدمها هذه الأدوات. وفي الممارسة العملية، يعني هذا زيادة فوائد المستخدم النهائي المرتبطة باستخدام الأدوات، والحد من العمالة في تطوير الأدوات، وحماية استقلالية المستخدمين النهائيين من خلال حماية عملهم الأساسي. (انظر: التغلب على المقاومة لتنفيذ الذكاء الاصطناعي AI في الخطوط الأمامية).
1. زيادة فوائد المستخدم النهائي. من المرجح أن يعتمد المستخدمون النهائيون على الأدوات إذا أدركوا أنها تعود عليهم بالنفع على نحو واضح. ويمكن أن يستخدم قادة مشروعات الذكاء الاصطناعي AI الاستراتيجيات التالية للمساعدة على تحقيق ذلك.
بينما يضع مطورو أدوات الذكاء الاصطناعي AI أهداف المؤسسة في اعتبارهم، هم يحتاجون أيضاً إلى التركيز على كيفية مساعدة المستخدم النهائي المقصود على حل المشكلات التي يواجهها– أو التكيف مع متطلبات حمل العمل الجديد الناتج عن استخدام الأداة.
تحديد ”ما يزعج“ المستخدمين النهائيين. حتى في حين يضع مطورو أدوات الذكاء الاصطناعي AI أهداف المؤسسة في اعتبارهم، هم يحتاجون أيضاً إلى التركيز على كيفية مساعدة المستخدم النهائي المقصود على حل المشكلات التي يواجهها في عمله اليومي– أو التكيف مع متطلبات حمل العمل الجديد الناتج عن استخدام الأداة. مثلاً، عندما طلب أطباء القلب في ديوك إلى أعضاء فريق المشروع إنشاء أداة الذكاء الاصطناعي AI لاكتشاف المرضى الذين يعانون انصماماً رئوياً Pulmonary embolism (PE) منخفض الخطورة، لكي يمكن إخراج المرضى من المستشفى إلى مكان خارج المستشفى بدلاً من علاجهم في بيئة عالية التكلفة للمرضى الداخليين، تَواصل أعضاء فريق المشروع على الفور مع الأطباء الإكلينيكيين في غرفة الطوارئ الذين قد يكونون المستخدمين النهائيين الفعليين لهذه الأداة. وتعلم أعضاء فريق مشروع الانصمام الرئوي أن ”ما يزعج“ الأطباء الإكلينيكيين في غرفة الطوارئ كان الإعدادَ السريع لمرضى الانصمام الرئوي من ذوي المخاطر المنخفضة لإخراجهم من المستشفى، والتأكد من أنهم سيحصلون على الرعاية اللازمة في العيادة الخارجية.
استخدم قادة مشروع الذكاء الاصطناعي AI الذين يحاولون تطبيق أداة الموارد البشرية لفحص المرشحين المقبلين هذه الاستراتيجية نفسها لتحديد تحديات الباحثين عن موظفين في إدارة الموارد البشرية. لقد تعلم المطورون أن الباحثين عن موظفين في الموارد البشرية لا يمكنهم جدولة المقابلات للمرشحين بالسرعة نفسها التي يرغبون فيها لأن من يُجرون المقابلات النهائيين لم يكن لديهم النطاق الترددي Bandwidth المطلوب.
قد يبدو من الواضح أن قادة الذكاء الاصطناعي AI يجب أن يركزوا على كيفية مساعدة الأداة للمستخدمين النهائيين الذين يعتزمون حل المشكلات التي يواجهونها في عملهم اليومي. لماذا يفشل قادة مشروعات الذكاء الاصطناعي AI في الأغلب في الاضطلاع بذلك؟ لأن الأشخاص الذين يقاربون هؤلاء القادة في المقام الأول، والذين يوفرون الموارد لتطوير الأدوات، يكونون في الأغلب كبار المديرين أو أصحاب المصلحة النهائية الذين سيكسبون أكبر قدر ممكن من أداة الذكاء الاصطناعي AI. وفي الأغلب يراهم رؤساء المشروعات كعملاء رئيسين، وقد يغفلون عن الحاجة إلى إشراك المستخدمين النهائيين المقصودين.
تطوير التدخلات التي تعالج مشكلة المستخدمين النهائيين. هدد تقديم أداة الانصمام الرئوي في ديوك بتفاقم مشكلة الأطباء الإكلينيكيين في غرفة الطوارئ، والتي تتلخص في عدم وجود وسيلة سهلة لضمان جدولة المرضى من ذوي المخاطر المنخفضة بسهولة وبنحو جدير بالثقة لمتابعتهم في العيادات الخارجية بمجرد تحديدهم. وبمجرد أن تعلَّم أعضاء الفريق هذا، بدؤوا في التركيز على الكيفية التي يستطيع بها الأطباء الإكلينيكيون في غرفة الطوارئ الحصولَ بسهولة على مواعيد متابعة لهؤلاء المرضى في العيادات.
وعلى نحو مماثل، لاحظ مطورو أداة الفرز الخاصة بالموارد البشرية أن الباحثين عن الموارد البشرية عانوا في جدولة المقابلات مع المرشحين الذين وضعت الأداة علامة لهم. لذلك نظر المطورون في كيفية زيادة عرض النطاق الترددي لمن يُجرون المقابلات في إدارة الموارد البشرية، كما اقترحوا إشراك مزوِّد خدمات فرز قبل المقابلة لخفض عبء عمل من يجرون المقابلات حالياً في الموارد البشرية.
زيادة الحوافز للمستخدمين النهائيين لتحقيق نتائج صُمِّمت أداة الذكاء الاصطناعي AI لتحسينها. المستخدمون النهائيون الذين يتوقع منهم استخدام أداة ذكاء اصطناعي جديدة لتوجيه اتخاذ القرار لديهم لا يحدث في الأغلب قياسهم ومكافأتهم للنتائج التي صُمِّمت الأداة لتحسينها. مثلاً قُيِّم أداء الأطباء الإكلينيكيين في غرفة الطوارئ بديوك استناداً إلى مدى حسن تعرفهم على المشكلات الحادة الشائعة وكيفية علاجها، بدلاً من حسن تحديدهم للمشكلات الأكثر ندرة مثل الانصمام الرئوي المنخفض المخاطر. وعمل أعضاء الفريق مع قادة المستشفى لمراجعة نظام الحوافز لكي يُقيَّم الآن الأطباءُ الإكلينيكيون في غرفة الطوارئ على أساس مدى حسن تعرفهم على مرضى الانصمام الرئوي المنخفض المخاطر وفرزهم.
وعلى نحو مماثل أدرك كبار المديرين الذين يأملون تطبيقَ أداة الذكاء الاصطناعي AI لفحص المرشحين في مثالنا السابق أنهم سيحتاجون إلى تغيير الحوافز التي تدفع المستخدمين النهائيين إلى تحقيق النتيجة التي صُمِّمت أداة الذكاء الاصطناعي AI لتحسينها. وعندما استخدم موظفو الموارد البشرية أداةَ الذكاء الاصطناعي AI، اعتُبِروا أقل إنتاجية إذا قيموا فقط على مقاييس الأداء التقليدية مثل العدد الإجمالي للمرشحين الذين يتمتعون بمهارات تقنية يصعب العثور عليها. وأدرك المديرون أنهم سيحتاجون إلى تكييف ممارسات التقييم والمكافآت لكي تصبح لدى الموظفين حوافز، ليس فقط للبحث عن عدد كبير من المرشحين يتمتعون بمهارات يصعب العثور عليها، بل أيضاً للبحث عن عدد كبير من المرشحين الذين قبلوا في نهاية المطاف عروض الوظائف.
لكن، لا يستطيع قادة الذكاء الاصطناعي AI أن يزيدوا بسهولة الحوافز التي تدفع المستخدمين النهائيين إلى تحقيق النتائج التي صُمِّمت أداة الذكاء الاصطناعي AI لتحسينها، لأن أصحاب المصلحة الذين من الممكن أن يستفيدوا إلى أقصى حدٍّ من الأداة ليسوا في كثير من الأحيان هم الأشخاصَ الذين يديرون الأداء والتعويض للمستخدمين النهائيين المستهدفين. وفي الأغلب يحتاج قادة مشروعات الذكاء الاصطناعي AI إلى الحصول على دعم كبار المديرين للمساعدة على تغيير هذه الحوافز.
2. تقليل عمالة المستخدم النهائي في تصميم أدوات الذكاء الاصطناعي AI وتطويرها وتكاملها. هناك عدد من الطرق التي يمكن أن تقلل بها فرق تطوير الذكاء الاصطناعي AI من مدى تطلبها من المستخدمين النهائيين المساعدة.
يستغرق تجميع كميات كبيرة من بيانات التدريب والتوفيق بين مجموعات البيانات وقتاً طويلاً. ويمكن أن يقلل قادةُ مشروعات الذكاء الاصطناعي من عمالة المستخدم النهائي المرتبطة بعمل كهذا من خلال إشراك أصحاب المصلحة من الجهات الثالثة في بناء البيانات.
في أثناء تصميم الأداة، قلِّلوا من عمالة المستخدم النهائي المرتبطة بإنشاء مجموعات البيانات ذات الصلة. يجب أن تكون البيانات المستخدمة لتدريب أدوات الذكاء الاصطناعي AI ممثلة للكتلة السكانية المستهدفة. وهذا يستلزم أن يكون حجم بيانات التدريب كبيراً، لكن تجميع هذه البيانات وتسوية الاختلافات بين مجموعات البيانات يستغرق وقتاً طويلاً جداً. ويمكن أن يقلل قادة مشروعات الذكاء الاصطناعي AI من عمالة المستخدم النهائي المرتبطة بعمل كهذا من خلال إشراك أصحاب المصلحة من الجهات الثالثة في بناء البيانات. مثلاً عمل أعضاء فريق مشروع ديوك على أداة للذكاء الاصطناعي لزيادة الكشف المبكر عن المرضى المعرَّضين لخطر الإصابة بمرض الكلى المزمن المتقدم Chronic kidney disease (CKD). ويلزم أن تُستمَد البيانات المتعلقة بالأداة من كل من سجلات الصحة الإلكترونية وبيانات المطالبات، كما أن مصدري البيانات لم يتناسقا كلٌّ منهما مع الآخر. وبدلاً من تحميل المستخدمين النهائيين المعنيين للأداة (أطباء الرعاية الأولية) Primary care physicians (PCPs) بمهام تنظيف البيانات، تَحقق الفريق من صحة البيانات وطبعها عبر المصادر بمساعدة أطباء الكلى (الأطباء الذين يتمتعون بخبرة في الكلى)، الذين كانوا المستفيدين الرئيسين من الأداة.
يمكن أن يبدأ قادة مشروعات الذكاء الاصطناعي AI أيضاً بأداة الذكاء الاصطناعي AI الجيدة التي يمكن تدريبها باستخدام مجموعات البيانات المتوافرة حالياً والأصغر حجماً في كثير من الأحيان. مثلاً يطور أحد قادة الذكاء الاصطناعي AI أداة لمساعدة مندوبي المبيعات في مؤسسة تصنيع على تحديد الحسابات المحتملة العالية القيمة المطلوبة لتقليل عمالة المستخدم النهائي المرتبطة بتجميع مجموعات البيانات ذات الصلة. وبدلاً من مطالبة مندوبي المبيعات بتخصيص جانب من الوقت لتسجيل البيانات المتعلقة بالمراحل الرئيسة المختلفة لعملية المبيعات بنحو أفضل (مثل العميل المتوقع، العميل المتوقع المؤهل، والنسخة التجريبية)، بَنى فريق الذكاء الاصطناعي AI أولاً نظاماً يتضمن نماذج جيدة بما يكفي لاستخدامها لكنها تتطلب كمية أصغر من بيانات التدريب، ومن ثم إعداداً أقل للبيانات من قِبل مندوبي المبيعات.
في أثناء تطوير الأداة، قلِّلوا من عمالة المستخدم النهائي المرتبطة بالاختبار والتحقق. بمجرد إنشاء أداة الذكاء الاصطناعي AI الأولية، تحتاج فرق التطوير إلى المشاركة في عملية مستغرقة للوقت مع المستخدمين النهائيين للمساعدة على اختبار توقعات الأداة والتحقق منها وتعديل الأداة لتحسين منفعتها في العالم الحقيقي. ويمكن تقليل هذا العمل إلى الحد الأدنى من خلال إشراك أصحاب المصلحة من الجهات الثالثة في المراجعات. مثلاً عيَّن قادة مشروع يطورون أداة للذكاء الاصطناعي لتحديد أفضل عملاء المبيعات المتوقعين في إحدى مؤسسات التصنيع رئيسَ تحسين العمليات بدلاً من مندوبي المبيعات للمساعدة على التقييم الأولي للأداة. وساعدهم رئيس تحسين العمليات على تحديد مقياس نجاح معدل التحويل– نسبة العملاء المحتملين الذين أصبحوا لاحقاً عملاء. كذلك ساعدهم على إجراء اختبار أ/ب A/B test لمقارنة معدل التحويل لعملاء المبيعات المحتملين الذين حددتهم الأداة في مقابل أولئك المحددين في عملية المبيعات العادية.
ويمكن أيضا لقادة مشروعات الذكاء الاصطناعي AI الاضطلاع بمزيد لمساعدة المستخدمين النهائيين على تقييم النماذج بسهولة أكبر. مثلاً وجد أعضاء فريق مشروع ديوك الذين يطورون أداة للكشف عن مرض الكلى المزمن أن المستخدمين النهائيين واجهوا صعوبة في تحديد عتبة نتيجة الخطر لاعتبار المرضى في خطر كبير. واستخدم أعضاء فريق المشروع مخططات تفاعلية لمساعدتهم على معرفة النسبة المئوية للمرضى الذين لديهم نتيجة معينة والذين أصيبوا في نهاية المطاف بمرض الكلى المزمن. وسمح ذلك للمستخدمين النهائيين بتعيين عتبات بسهولة أكبر للمرضى ذوي المخاطر العالية مقارنة بالمرضى ذوي المخاطر المتوسطة.
في أثناء دمج الأداة، قلِّلوا من عمالة المستخدم النهائي المرتبطة باستخدام الأداة. من شأن الانتباه لتبسيط واجهة المستخدم وأتمتة العمليات ذات الصلة أن يساعد على تقليل شعور المستخدمين بأن أداة ما تحملهم أعمالاً إضافية. وتتمثل إحدى القواعد البسيطة في عدم مطالبة المستخدم مطلقاً بإدخال البيانات التي كان من الممكن أن يسترجعها النظام تلقائياً. ومن الأفضل أن تتوقعوا ما يريده المستخدم بالفعل، وأن تنفذوا المرحلة التمهيدية من الواجهة لكي تكون متاحة له.
في مثال آخر يتضمن أداة للذكاء الاصطناعي لفرز المرشحين، وجد الباحثون في مركز كين للابتكار الرقمي Kin Center for Digital Innovation بجامعة فريجي Vrije Universiteit في أمستردام أن المطورين جعلوا من الأسهل أولاً على مسؤولي التوظيف في إدارة الموارد البشرية- في شركة للبضائع الاستهلاكية- استخدام الأداة بواسطة إضفاء الترميز اللوني على مدى تطابق مرشح معين مع الموظفين الذين نجحوا في المؤسسة في الماضي. كانت سجلات المرشحين الذين تحقق تطابق معهم 72% أو أعلى ملونة باللون الأخضر، وكانت تلك التالية باللون البرتقالي.3E. van den Broek, A. Sergeeva, and M. Huysman, “When the Machine Meets the Expert: An Ethnography of Developing AI for Hiring,” MIS Quarterly 45, no. 3 (September 2021): 1557-1580. وفي النهاية، أتمت المطورون العملية بنحو أكبر حتى يتمكن مسؤولو التنسيب من النقر فوق زر ما، فتعمل الأداة تلقائياً على تصفية معظم المرشحين ذوي النجاح المتوقع الأقل.
وهناك تكتيك آخر هو إعادة تعيين بعض العمل الإضافي المطلوب لاستخدام الأدوات، إن أمكن. مثلاً تعرض أطباء ديوك المستهدَفون باستخدام أداة مرض الكلى لتعب التنبيهات، لأنهم كانوا يتلقون عديداً من التنبيهات الأخرى الداعمة بنمط مؤتمت للقرار الإكلينيكي. وخفَض قادة مشروع ديوك عدد تنبيهات الأطباء من الأداة من خلال إنشاء منصب إكلينيكي جديد وتعيين الشخص الذي احتله لاستخدام الأداة لمراقبة معظم مرضى أطباء الرعاية الأولية لدى ديوك من بُعد– أكثر من 50,000 شخص بالغ. عندما وضعت الأداة علامة على مريض بوصف في خطر كبير للإصابة بمرض الكلى المزمن، أجرى هذا الطبيب الإكلينيكي فحصاً مسبقاً للتنبيه الخاص بطبيب الرعاية الأولية عن طريق إجراء مراجعة مخطط. إذا قرر الطبيب الإكلينيكي أن المريض كان بالفعل في خطر كبير من الإصابة بمرض الكلى المزمن، أرسل رسالة إلى طبيب الرعاية الأولية. وعندما تسلَّم طبيب الرعاية الأولية هذه الرسالة، إذا وافق على احتمال أن يكون لدى المريض مرض الكلى المزمن، أحال المريض إلى زيارة شخصية إلى طبيب للكلى.
3. حماية استقلالية المستخدم النهائي. يُقدر البشر الاستقلاليةَ، ويكتسبون احترام الذات من إتقان الوظيفة والمعرفة اللذين جمعوهما، لذلك من الطبيعي أن يشعر المستخدمون بعدم الارتياح عندما تسمح أدوات الذكاء الاصطناعي AI لأطراف معنية من خارج مجالهم بصياغة اتخاذ القرار لديهم. تتطلب عمليات تنفيذ الذكاء الاصطناعي AI الناجحة حساسية تجاه كيفية تأثيرها في علاقة المستخدمين النهائيين بعملهم. ويمكن للمطورين تحقيق ذلك بالطرق التالية.
حماية المهام التي يراها المستخدمون النهائيون كمهام أساسية لعملهم. عندما طور أعضاء فريق مشروع ديوك أداة الذكاء الاصطناعي AI للمساعدة في اكتشاف الإنتان وإدارته بنحو أفضل، وهي عدوى تؤدي إلى التهاب الجسم بالكامل وتسبب في النهاية توقُّفَ الأعضاء عن العمل، قاوم عديد من الأطباء الإكلينيكيين في غرفة الطوارئ المستهدفين كمستخدمين نهائيين للأداة. أرادوا الاحتفاظ بالمهام الرئيسة مثل اتخاذ القرار النهائي لتشخيص المريض ووضع طلبات لاختبارات الدم والأدوية المطلوبة. وهيأ فريق المشروع أداة الذكاء الاصطناعي AI لئلا تنتهك توقعاتها تلك المهام لكنها ساعدت الأطباء الإكلينيكيين في غرفة الطوارئ في مهام أساسية أقل قيمة في نظر الأطباء الإكلينيكيين.
وفي حالة مشتري الأزياء، تعلم مطورو الأدوات أن المشترين يريدون الحفاظ على ما اعتبروه مهامَّ إبداعية أو استراتيجية، مثل تحديد النسبة المئوية من مشترياتهم الإجمالية من بنطلونات الجينز التي ينبغي أن تتألف من قدمين واسعتين أو دنيم أحمر. وهيأ فريق المشروع الأداة لكي يستطيع المشتري إذا تضمنت رؤيته دنيماً أحمر اللون، أن يضيف ذلك باعتباره مدخلاً إلى توصيات الأداة حتى يُلبَّى طلب الدنيم الأحمر أولاً.
قد يبدو من البديهي أن المطورين يجب أن يتجنبوا إنشاء أدوات للذكاء الاصطناعي تنتهك المهام التي يراها المستخدمون النهائيون أساسية لعملهم، لكن قادة مشروعات الذكاء الاصطناعي AI قد يقعون في هذا الفخ لأن التدخل حول المهام الأساسية يعد في الأغلب بتحقيق مكاسب أكبر. مثلاً، في إحدى مؤسسات البيع بالتجزئة، بنى المطورون في البداية أداة لإنارة اتخاذ القرار لدى مشتري الأزياء. وكان لاتخاذ القرار دون المستوى الأمثل في هذه المرحلة تأثيران: فقدان فرص العوائد نتيجة لعدم تخزين المنتجات المناسبة لتلبية الطلب، وفقدان الهامش الإجمالي نتيجة لشراء المنتج الخطأ ومن ثم الاضطرار إلى خفض سعره. ومع ذلك رفض مشترو الأزياء الأداة، لذلك طمح المطورون وذهبوا إلى النهاية الأخرى للعملية– تطوير أداة ساعدت التجار في تحديد متى يخفضون سعر الملابس التي لا تباع ومقدار الخفض. ومكنت هذه الأداة من توليد قيمة أقل بكثير، لأنها ركزت فقط على المرحلة النهائية من عملية البيع بالتجزئة في مجال الأزياء. لكن قادة الذكاء الاصطناعي AI أدركوا أن التدخل في مجموعة محددة من المهام بالاستعانة بأداة تُنفَّذ بالفعل أكثر فائدة من التدخل في المهام الأساسية للمستخدمين النهائيين بالاستعانة بأداة تُحقِّق قيمة أكبر من الناحية النظرية لكنها لا تُستخدَم في الممارسة العملية.
السماح للمستخدمين النهائيين بالمساعدة في تقييم الأداة. في الأغلب يتطلب تقديم أداة جديدة لدعم القرار بالذكاء الاصطناعي AI أن تُستبدَل بأداة حالية يمكن أن يدعمها المستخدمون النهائيون المستهدفون أداةٌ جديدة تهدد بالحد من استقلاليتهم. مثلاً هددت أداة الإنتان المستندة إلى الذكاء الاصطناعي AI استقلالية الأطباء الإكلينيكيين في غرفة الطوارئ على النحو الذي لم تفعله أداة موجودة مستندة إلى القواعد للكشف عن الإنتان. ولحماية استقلالية المستخدم النهائي، دعا أعضاء فريق المشروع أصحاب المصلحة الرئيسة التي طورت الأداة المستخدمة حالياً وطلبوا مساعدتهم في تصميم تجربة لاختبار فاعلية الأداة الجديدة.
ووجد باحثون في مدرسة هارفارد للأعمال Harvard Business School ديناميكيات مماثلة في دراستهم لمؤسسة للبيع بالتجزئة طورت أداة للذكاء الاصطناعي مصممة لمساعدة المتخصصين في الأزياء في تحديد عدد أحجام الأحذية الخاصة وأسلوبها الواجب شحنها إلى كل متجر.4T. DeStefano, M. Menietti, and L. Vendraminelli, “A Field Experiment on AI Adoption and Allocation Efficiency,” forthcoming. وكانت للمرئية التي منحتها الأداة للمديرين خارج العملية إمكانية تهديد استقلالية القائمين على التخصيص على نحو لا تحققه الأداة الحالية المستندة إلى القواعد. ولحماية الاستقلالية جند أعضاءُ فريق المشروع القائمين على تخصيص الأزياء في تصميم اختبار أ/ب لتقييم أداء الأداة الحالية في مقابل أداة الذكاء الاصطناعي AI الجديدة.
إن إعطاء المستخدمين النهائيين المستهدفين رأياً في عملية التقييم أمر منطقي تماماً، فلماذا إذن لا يفعل معظم قادة فرق مشروعات الذكاء الاصطناعي AI ذلك؟ لأنه كلما أشركتم المستخدمين النهائيين في اختيار مجالات عملهم التي ستخضع للاختبار، سيختارون أصعب الأجزاء. ومع ذلك، ونظراً إلى أنهم هم من سيحتاجون إلى اتخاذ إجراءات بشأن التوصيات، لا يمكنكم تخطي هذه الخطوة.
إشراك المستخدمين النهائيين من اليوم الأول. في الأغلب يحافظ قادة مشروعات الذكاء الاصطناعي AI على الهدوء لدى تطوير أداة الذكاء الاصطناعي AI في المراحل الأولى لمنع مقاومة المستخدم النهائي المتوقعة. لكن احتمالات نجاح قادة المشروعات الذين لا يشملون المستخدمين في وقت مبكر أقل كثيراً. سيستاء المستخدمون من أنهم أُشرِكوا في وقت متأخر، وسيحملون ضغينة. وحتى لو تمكنت أداة الذكاء الاصطناعي AI من أتمتة العملية بنحو كامل، سيحتاج المستخدمون النهائيون إلى قبول الأداة لكي تعمل. وتعلَّم قادة مشروعات الذكاء الاصطناعي AI الناجحون أن إشراك المستخدمين النهائيين في بداية المشروع يجعل ذلك أكثر احتمالاً.
خلْفَ وعْد الذكاء الاصطناعي AI المتلألئ تكمن حقيقة صارخة: إن أفضل أدوات الذكاء الاصطناعي AI في العالم لا تعني شيئاً إذا لم تكن مقبولة. للحصول على دعم المستخدمين الذين هم على تماسٍّ مع العملاء، يتعين على القادة أولاً أن يفهموا تضارب المصالح الثلاث الأساسية في تنفيذ الذكاء الاصطناعي AI: قد يحقق المستخدمون النهائيون المستهدفون لأدوات الذكاء الاصطناعي AI القليلَ من الفوائد لأنفسهم، ويكلفون بعمل إضافي يتعلق بتطوير الأداة أو استخدامها، ويفقدون استقلاليتهم القيمة. وآنذاك فقط يصبح في وسع القادة أن يضعوا الأساس للنجاح، من خلال معالجة الاختلال في التوازن بين المستخدم النهائي وتوليد القيمة المؤسسية الذي تستطيع هذه الأدوات أن تقدمه. فالنجاح لا ينشأ من البيانات الضخمة، والتكنولوجيات البراقة، والوعود الجريئة. بل يعتمد بدلاً من ذلك على القرارات التي يتخذها الموظفون الذين هم على الأرض يوماً بعد يوم. ولكي يصبح وعْد الذكاء الاصطناعي AI حقيقةً واقعة، يتعين على القادة أن يأخذوا في الاعتبار احتياجات أولئك الذين يعملون على الخطوط الأمامية للسماح للذكاء الاصطناعي بالعمل في العالم الحقيقي.
المراجع
↑1 S. Pachidi, H. Berends, S. Faraj, et al., “Make Way for the Algorithms: Symbolic Actions and Change in a Regime of Knowing,” Organization Science 32, no. 1 (January-February 2021): 18-41.
↑2 M. Valentine and R. Hinds, “‘Rolling Up the Leaf Node’ to New Levels of Analysis: How Algorithmic Decision-Making Changes Roles, Hierarchies, and Org Charts,” working paper, Stanford University, Stanford, California, May 2021.
↑3 E. van den Broek, A. Sergeeva, and M. Huysman, “When the Machine Meets the Expert: An Ethnography of Developing AI for Hiring,” MIS Quarterly 45, no. 3 (September 2021): 1557-1580.
↑4 T. DeStefano, M. Menietti, and L. Vendraminelli, “A Field Experiment on AI Adoption and Allocation Efficiency,” forthcoming.