كيف يجعل الذكاء الاصطناعي المديرين أكثر تمسُّكًا بالقيم الأخلاقية

الاتجاهات

جعل المديرين أكثرتمسُّكًا بالقيم الأخلاقية باستخدام الذكاء الاصطناعي

حين يوجد التحيز في مكان العمل، فإنه لا يعيق الشمولية والتنوع فحسب، بل يعيق كذلك الإبداع والابتكار. يذكر مراقب توجهات العمل ديفيد ماتين أنه يجب علينا أن نبحث عن الحل لدى الذكاء الاصطناعي

 

وفي وقت سابق في عام 2016، أعدت شركة مايكروسوفت روبوت دردشة جديدًا مدعومًا بالذكاء الاصطناعي وأطلقته على تويتر. كان اسمها تاي (Tay)، وأطلقت عليها شركت ميكروسوفت "تجربة في فهم المحادثات". وفي غضون 24 ساعة، كانت تاي تبث سيلاً مستمرًا من خطاب الكراهية يحتوي أغلبه على ألفاظ وتصريحات سيئة للغاية. وكانت عبارة "غير ودودة، أنا شخص لطيف. ولكنني أكره الجميع" (Chill, I’m a nice person. I just hate everyone) أحد تعبيراتها القليلة العجيبة والمتكررة.

لم يصعُب تشخيص المشكلة. فقد استعانت تاي بالذكاء الاصطناعي للتعلُّم من المحادثات التي أجرتها مع بشر حقيقيين ثم عدَّلت مخرجاتها الخاصة وفقًا لذلك. فعند إدخال محتويات كراهية إليها، فالمخرجات تصبح مثلها. وقد سحبت شركة مايكروسوفت روبوت الدردشة هذا بسرعة واعتذرت عن أخطائه. ولكن منذ ذلك الحين، أصبحت تاي علامة فارقة للتعبير عن العلاقة الشائكة والمعقدة بين الذكاء الاصطناعي وأخلاقيات البشر.

يتزايد خضوع تفاصيل حياتنا جزئيًا – بدءًا من تحديثات أخبارنا على فيسبوك وسوق الأوراق المالية وصولاً إلى توزيع الشرطة في مدننا – لتحكم الخوارزميات التي يُغذيها الذكاء الاصطناعي. كيف يمكننا التأكُّد من أن هذه الخوارزميات لا تستنسخ ببساطة، بل وتعزز من انتشار عيوبنا البشرية بما في ذلك التحيُّزات العنصرية والجنسانية وغيرها من أوجه التحيُّز؟

التدريب ضد التحيُّز

ستزداد حدة هذه المحادثات في عام 2018 فقط. ولكن الآن، هناك طريقة جديدة أكثر وضوحًا للتفكير في جميع هذه الأمور. ماذا لو قلبنا النقاش رأسًا على عقب؟ ماذا لو سألنا: ما الذي ستتمكن أجهزة الذكاء الاصطناعي من تعليمه لنا بشأن كيفية بناء عالم أكثر تمسُّكًا بالأخلاق؟

بالنظر إلى تجربة الروبوت تاي، والنقاش الواسع حول الكيفية التي نضمن بها ألا تغرقنا أجهزة الذكاء الاصطناعي مُجددًا في عصر مظلم من الناحية الأخلاقية، فقد يبدو ذلك سؤالاً صادمًا، ولكنه يبدأ بفرضية معقولة. فلجميع البشر أوجه تحيُّز، ولا يمكننا في كثير من الأحيان – أو لا نريد – رؤيتها. يتضح أن أجهزة الذكاء الاصطناعي قد تتبنى تحيُّزات إنسانية، ولكن ماذا لو أمكن أيضًا أن تكون أداة قوية تُساعدنا على اكتشاف هذه التحيُّزات في أنفسنا وفي الآخرين؟

وكما يتضح، قد تبدأ ثورة الأخلاق هذه التي يدعمها الذكاء الاصطناعي في مكان العمل. تُنشئ الشركة الإسرائيلية الناشئة Joonko تطبيقًا يستخدم الذكاء الاصطناعي للمساعدة في الكشف عن التحيُّز اللاواعي لدى المدير. فهو يتزامن مع منصات أماكن العمل المشتركة والمستخدمة لإدارة الموظفين وتخصيص المهام: وذلك مثل Salesforce و Workday وما شابه، ثم يبدأ العمل وتخضع البيانات للفحص المستمر بحثًا عن أي علامات تدل على التحيُّز. وعند اكتشاف أي شكل من أشكال التحيُّز، ترسل شركة Joonko رسالة بريد إلكتروني إلى المدير المعني وتبدأ تدريبه بشأن كيفية وضع الأمور في نصابها الصحيح. فعلى سبيل المثال، "بحثت طلبات جميع مرشحينا للحصول على منصب مدير البحث والتطوير وألاحظ أنه ليس لدينا مرشحون من الفئات الممثلة تمثيلاً ناقصًا. كما أُلاحظ أيضًا أن لدينا ثلاثة مرشحين ينتمون إلى خلفيات متنوعة عالقين في مرحلة مراجعة الطلبات."

وبطبيعة الحال، سيرغب المديرون أنفسهم دائمًا في الاحتفاظ بسلطة التحكم النهائي في هوية مَن يوظفونهم. كما أننا بعيدون جدًا عن إمكانية توفير أجهزة ذكاء اصطناعي تتمتع بذكاء كافٍ لإدارة العملية برمتها. لكن تستطيع شركة Joonko ومثيلاتها من الخدمات التي تعتمد على الذكاء الاصطناعي بالفعل توفير رؤى قيِّمة تدعم اتخاذ القرار.

كيف يجعل الذكاء الاصطناعي المديرين أكثر تمسُّكًا بالقيم الأخلاقية

هل بإمكان الذكاء الاصطناعي مساعدتنا على التفكير واتخاذ القرارات من منظور أكثر وضوحًا وخالٍ من التحيز؟ 
 

التخلص من المتسلّطين

لم تكن الفكرة القائلة بإمكانية مساعدة الذكاء الاصطناعي لنا على إيجاد ثقافات أكثر تمسُّكًا بالقيم الأخلاقية في مكان العمل لتظهر في وقت أفضل من هذا الوقت. فالعالم شديد الاتصال عالم أكثر شفافية؛ وتكشف هذه الشفافية الكبيرة الثقافة الداخلية لجميع الشركات بشكلٍ لم يسبق له مثيل. وفي أحيانٍ كثيرة، لا يحب العملاء ما يرونه. يمكنك النظر إلى ردود الفعل العنيفة ضد تقنيات وادي السيليكون الضخمة التي بدأت عام 2017 وتستمر الآن. فهي مدفوعة جزئيًا بشعور مفاده أن أصحاب الأدوار الهامة في وادي السليكون قد رسخوا ثقافات داخلية سامة يملؤها التعصُّّب الجنسي والتسلُّط والإفراط في العمل. وقد تأجج هذا الشعور بسبب شهادات موظفين حاليين وسابقين؛ حيث يمكنهم الوصول إلى ملايين القراء في هذا العالم المترابط.

تحتل الثقافات الداخلية في أماكن العمل ووضعها الأخلاقي مقدمة جدول الأعمال. وبمجرد أن يسمع الموظفون عن شركة Joonko وغيرها من الخدمات المشابهة، يُحتمل أنهم سيتوقعون أن يُدخِل أصحاب الأعمال الذكاء الاصطناعي في العمل لضمان توافر مكان عمل عادل وأخلاقي. ومن خلال توفير البيانات الصحيحة لأجهزة الذكاء الاصطناعي، يمكن تدريبها على تحديد وإبراز جميع أشكال الظلم، مثل:

"هل تعلم أنك تميل إلى ترقية الرجال في فريقك أسرع من النساء؟"

"هل تعلم أنك لم توظف أي شخص يزيد عمره عن 40 عامًا رُغم استيفاء 60% من المتقدمين للمعايير؟"

والأكثر من ذلك ، قد يزيد احتمال أن يوافق المديرون على الكشف عن التحيُّز الحقيقي واتخاذ إجراءات لإصلاحه إذا كانت مثل هذه النصائح صادرة عن أجهزة ذكاء اصطناعي. الذكاء الاصطناعي سينتشر لا محالة، وهذا أمرٌ مؤكد. ويعود الأمر لنا لنحرص على أن يجعلنا أكثر تمسكًا بالقيم الأخلاقية وليس أقل. ويمثل مكان العمل موقعًا رائعًا للبدء في هذا الأمر. وماذا بعد، هل سيصبح الذكاء الاصطناعي رئيسًا تنفيذيًا؟ ربما لا تقترح ذلك في الاجتماع التالي الذي يضم جميع العاملين.

 


ديفيد ماتين الرئيس العالمي لمجموعة الاتجاهات والأفكار لدى شركة خدمات رصد الاتجاهات، TrendWatching، والتي تمتلك مكاتب في لندن وسنغافورة ونيويورك وأمستردام وساو باولو ولاجوس