أحد صفحات التقدم العلمي للنشر
بحثذكاء اصطناعي

هل يمكننا حل «مشكلة الثقة» بالذكاء الاصطناعي؟

لمعالجة حذر المستخدمين، يجب على صانعي تطبيقات الذكاء الاصطناعي أن يتوقفوا عن الإفراط في الوعود، ويكونوا أكثر شفافية، وينظروا في الحصول على اعتماد من طرف ثالث.

توماس إتش. دافنبورت

لا يثق الكثير من الأشخاص في القرارات أو الإجابات أو التوصيات الصادرة عن الذكاء الاصطناعي، وتلك هي الحقيقة المحزنة. وفي استطلاع للرأي استهدف المستهلكين الأمريكيين، وعرض قائمة من خدمات الذكاء الاصطناعي الشعبية (مثلاً: المساعدون المنزليون، والتخطيط المالي، والتشخيص الطبي، والتوظيف)، قال %41.5 من المستجيبين إنهم لا يثقون بأيٍّ من هذه الخدمات. وقال %9 فقط من المستجيبين إنهم عهدوا شؤونهم المالية إلى الذكاء الاصطناعي، ووثق %4 فقط في الذكاء الاصطناعي في عملية توظيف الموظفين.1 وفي استطلاع آخر للرأي، سُئِل 2000 من المستهلكين الأمريكيين: «عندما تفكرون في الذكاء الاصطناعي، ما هي أفضل الأحاسيس التي تصف مشاعركم؟» وكان «مهتمون» هو الاستجابة الأكثر شيوعاً (%45)، وتبعه مباشرة «قلقون» (%40.5)، و«متشككون» (%40.1)، و«غير متأكدين» (%39.1)، و«مرتابون» (%29.8).2

ما المشكلة القائمة هنا؟ وهل يمكن التغلب عليها؟ أعتقد أن هناك العديد من المسائل التي يجب معالجتها إذا كان للذكاء الاصطناعي أن يكون موضع ثقة في الأعمال وفي المجتمع.

عدم المبالغة في الوعود

تقترح شركة غارتنر Gartner لأبحاث تكنولوجيا المعلومات أن تكنولوجيات مثل الحوسبة المعرفية Cognitive computing، وتعلم الآلة Machine learning، والتعلم العميق Deep learning، والمستشارين المختصين بالخبرة المعرفية، بلغت ذروة دورتها الترويجية وتتجه نحو «قاع خيبة الأمل».3

قد يكون البائعون هم الملومين إلى حد كبير عن ذلك. لنأخذ بعين الاعتبار الميزانية الإعلانية الكبيرة جدا المخصصة لمشروع واتسون Watson من آي بي إم IBM والادعاءات المسرفة حول قدرات واتسون. فقد وصف أورين إتزيوني Oren Etzioni ـ أحد الباحثين البارزين في الذكاء الاصطناعي ـ واتسون بأنه «دونالد ترامب قطاع الذكاء الاصطناعي – [فهو يتفوه] بادعاءات غريبة غير مدعومة ببيانات موثوق بها».4

ويساهم الرئيس التنفيذي لشركة تسلا Tesla إيلون ماسك بشكل متكرر أيضاً في الترويج للذكاء الاصطناعي، ولاسيما فيما يتعلق بقدرة سيارات تسلا على القيادة باستقلالية. فالشركة تستخدم مصطلح الطيار الآلي Autopilot لوصف قدراتها، مما يوحي بالاستقلالية الكاملة، أثار هذا الجدل.5 إذ تتمتع سيارات تسلا ببعض قدرات القيادة شبه المستقلة المثيرة للإعجاب، وهي مركبات مدهشة في العديد من النواحي الأخرى، لكن من الواضح أنها ليست مستقلة بالكامل بعد.

ولحسن الحظ، لا تفرط كل الشركات في وصف قدراتها في مجال الذكاء الاصطناعي. خذوا، مثلاً، المصرف الإسكندنافي إس إي بي SEB واستخدامه للنظام آيدا Aida، وهو وكيل ذكي مستمد من الذكاء الاصطناعي إميليا Amelia من إيبسوفت Ipsoft. وباتساقٍ كان البنك إس إي بي متحفظاً في وصفه لما يمكن أن يفعله النظام آيدا، وأطلقه أولاً للاستخدام الداخلي في مكتب المساعدة الخاص بتكنولوجيا المعلومات (حيث لا يزال مستخدماً وشعبياً لدى الموظفين)، ومن ثم أتاحه للعملاء على أساس تجريبي. ويجسد بيان صحافي من البنك إس إي بي اللهجة المحافظة، على الأقل مقارنة بعدد من الشركات التي تصف أنظمة الذكاء الاصطناعي
الخاصة بها:

“في الوقت الحاضر، يؤدي «آيدا» واجبين رئيسيين: لقد جرى توظيف النظام كموظفة رقمية في مكتب الخدمة الخاص بتكنولوجيا المعلومات الداخلية للمصرف، حيث تتحدث لغتها الأم الإنجليزية، وهي متدربة في المصرف الهاتفي، حيث تتعلم الدردشة مع العملاء باللغة السويدية، على seb.se.”

«نحاول التفكير في آيدا كشخص»، تقول إيريكا لوندين Erica Lundin، رئيسة مركز آيدا للتميز. «لذلك فنحن نبني سيرتها الذاتية لإظهار ما تنجزه وما هي كفؤة فيه، وسنعمل على المضي قدماً في تطوير «خطة حوارها الشخصي» Personal development dialogue (اختصارا: PDP) لتطوير مجالات كفاءتها».6

وسواءاً كان استخدام التكنولوجيات المعرفية داخلياً أو خارجياً، فمن الأفضل التقليل من الوعود وتنفيذ ما هو أكثر. قَدِّمْ قدرات جديدة كخدمات تجريبية وعمِّمْ هدف التعلم من استخدام التكنولوجيا. ولا تُلغِ نُهُجاً بديلة (عادة ما تكون بشرية) لحل مشكلات الموظفين أو العملاء. وبمرور الوقت ومع نضج التكنولوجيا وتحسين حلول الذكاء الاصطناعي من قدراتها، يمكن لكل من الآلة والتعميمات التي تصف وظائفها أن تكون أكثر ثقة.

توفير الإفصاح الكامل

الطريقة الأخرى لزيادة الثقة في الذكاء الاصطناعي هي في الإفصاح الكامل قدر الإمكان عن النظام وكيفية استخدامه. وقد يتضمن الإفصاح، مثلاً، ملاحظة أن العميل يعمل مع «نظام حاسوب/وكيل ذكي» بدلاً من مندوب بشري. أو إذا كان الحل عبارة عن مزيج هجين/معزز ببعض النصائح البشرية وبعض المعلومات المحوسبة، فيجب أن يعالج الإفصاح مهام كل طرف.

ويجب أن تُصَاغ إفصاحات كهذه ليس من قبل محامين – يغلفونها بمفردات قانونية – بل ربما من قبل مسوقين. وتتمثل الفكرة بأن هذه فرصة لتجربة شيء جديد، وأنها توفر المساعدة على مدار الساعة وطوال أيام الأسبوع، وأنها قد تعالج مسألة العميل. لكن الشركات تحتاج إلى توخي الحذر مع الذكاء الاصطناعي في مجال التسويق. ففي استطلاع أمريكي للرأي شمل 2000 مستهلك قال %87 من المستجيبين إنهم سيؤيدون قاعدة تمنع أنظمة الذكاء الاصطناعي مثل البوتات وبوتات الدردشة والمساعدين الافتراضيين من الظهور كبشر. بشكل أعم، دعا %88 من المستجيبين إلى تنظيم الذكاء الاصطناعي في مجال التسويق من خلال لائحة سلوك أخلاقية. وعلى الجانب الأكثر إيجابية، أبدى ثلثا الأمريكيين الذين شملهم استطلاع الرأي انفتاحاً على استخدام الأعمال والعلامات التجارية للذكاء الاصطناعي للتواصل معهم وخدمتهم. لكن، كما لاحظت وكالة الإعلان التي أجرت استطلاع الرأي: «يبدو أن الشرط الأساسي هو الشفافية والإفصاح».7

اعتماد النمذجات والخوارزميات

عندما نصل إلى الاعتماد بشكل أكبر في مجتمعنا واقتصادنا على الذكاء الاصطناعي وتعلم الآلة، من المرجح أن يتوفر شكل من أشكال الاعتماد الخارجي External certification إذا أردنا أن نثق في النمذجات والخوارزميات الأساسية. وكما تثبت إدارة الغذاء
والدواء FDA فاعلية الأدوية، ويعتمد المدققون العمليات المالية، ويعتمد مختبر الضامنين Underwriters Laboratory سلامة المنتجات، يجب أن تتوفر مؤسسات موثوق بها – حكومية أو خاصة – تؤيد مصداقية خوارزميات الذكاء الاصطناعي وقابليتها للتكرار ودقتها.

وآدم شنايدر Adam Schneider، استشاري مجال الخدمات المالية، هو أول من أشار إلى إمكانات اعتماد الذكاء الاصطناعي AI certification. وهو يقدم

العديد من الأمثلة على الأطر التي قد يكون الاعتماد مطلوبا ً فيها:8

  • قيادة الذكاء الاصطناعي للسيارات: هل نحتاج إلى مجلس مؤتمت Automated مكلف بمراجعة المركبات من أجل فهم حالات فشل السيارات، وتمكين المقارنة بين النُّهج المختلفة للذكاء الاصطناعي لدى المصنعين، ومراقبة التقدم؟
  •  تشخيص الذكاء الاصطناعي للمرضى: هل نحتاج إلى بروتوكول يتحقق فيه الأطباء البشريون شخصياً بما يكفي من التشخيصات باستخدام تقنيات صحيحة إحصائياً، قبل أن يكون هناك اعتماد عام؟
  • استثمار روبوتي بالذكاء الاصطناعي: أعلنت إحدى الشركات أن «لدينا ذكاء اصطناعيًّا» جرى «اختباره على نطاق واسع». هل مستوى الإفصاح هذا جيد بما فيه الكفاية؟ ماذا يعني «لدينا ذكاء اصطناعي»؟ هل يجب تحديد المعايير قبل الإعلان عن الذكاء الاصطناعي أمام المستثمرين الأقل معرفة بذلك؟
    من المبكر أن تظهر اعتمادات كهذه، لكنني سمعت عن مثال يتسق مع تفكير شنايدر.
    فقد أجريتُ مقابلة مع كريستوفر ستيفنسون Christopher Stevenson الاستشاري في ديلويت، حول عمله مع «المستشارين الروبوتيين» في إطار الاستثمار وإدارة الثروة.9 وقال إن الشركة توفر بالفعل الاعتمادات والمشورة للمؤسسات المالية التي تتمتع بقدرات في مجال المشورة الروبوتية. وتقدم خدمات مثل تطوير الضوابط Establishment of controls والاختبار الدوري للفاعلية Periodic effectiveness testing، وتقييم التعميمات والإفصاحات المقدمة للعملاء Evaluation of client communications and disclosures، وتقييم الخوارزميات Algorithm assessment، وتقييم الامتثال لقواعد التداول Evaluation of compliance with trading rules.

ولا أعرف ما إذا كانت هذه الخدمات ستنتشر في هذا السوق أو غيره. وبالنظر إلى أهمية الاختبارات للاستخدام الفاعل للذكاء الاصطناعي، أعتقد أن الاعتماد سيكتسب في النهاية قوة. ومع ذلك، فقد يتطلب الأمر إخفاقاً يحظى بتغطية إعلامية كبيرة لجعله مطلباً قانونياً.

توماس إتش. دافنبورت Thomas H. Davenport (@tdav)

توماس إتش. دافنبورت Thomas H. Davenport (@tdav)

الأستاذ الرئيسي المتميز لتكنولوجيا المعلومات والإدارة في كلية بابسون بولسلي Babson College in Wellesley في ماساتشوستس. وهو مؤلف كتاب ميزة الذكاء الاصطناعي The AI Advantage (منشورات: MIT Press, 2018)، الذي اقتُبِست منه هذه المقالة.

المراجع (9)

  1. K. Krogue, “Artificial Intelligence Is Here to Stay, but Consumer Trust Is a Must for AI in Business,” Forbes, Sept. 11, 2017.
  2. SYZYGY, “Sex, Lies, and AI,” SYZYGY Digital Insight Report 2017 (U.S. version).
  3. K. Panetta, “Top Trends in the Gartner Hype Cycle for Emerging Technologies, 2017,” press release, Aug. 15, 2017.
  4. J. Brown, “Why Everyone Is Hating on IBM Watson, Including the People Who Helped Make It,” Gizmodo, Aug. 10, 2017.
  5. R. Mitchell, “Controversy Over Tesla ‘Autopilot’ Name Keeps Growing,” Los Angeles Times, July 21, 2016.
  6. E. Lundin, interview with the author, February 2018; and SEB, “Burning Passion to Use AI for World-Class Service,” press release, Aug. 21, 2017, (https://sebgroup.com).
  7. SYZYGY, “Sex, Lies, and AI.”
  8. A. Schneider, personal communication with the author, Jan. 22, 2018.
  9. Deloitte, “Robo-Advising Platforms Carry New Risks in Asset Management,” Perspectives (n.d.).
اظهر المزيد

مقالات ذات صلة

زر الذهاب إلى الأعلى