نحو ذكاءٍ اصطناعيّ أكثر إنسانيّة
ممدوح مبروك*
على الرّغم من تعدُّد إيجابيّات الذكاء الاصطناعيّ إلّا أنّ هناك العديد من المَخاوف التي لا يُمكن تجاهُلها لدى الحديث عن تأثيره على البَشر. يأتي على رأس تلك التهديدات الترسيخ لفكرة "الانتقائيّة والتحيُّزات العنصريّة"؛ فعلى سبيل المثال قد تُفضِّل أدواتُ التوظيف بالذكاء الاصطناعيّ فئاتٍ ديموغرافيّة مُعيَّنة، بينما تُعاقِب أخرى بشكلٍ غير عادل. وبالمِثل قد تؤدّي خوارزميّات الرعاية الصحيّة إلى حدوثِ نقصٍ في التشخيص والخدمات الصحيّة المُقدّمة لبعض الفئات من المرضى.
في السياق ذاته، تُفيد العديد من الدراسات أنّه مع استمرار التطوُّر المُتسارع لتقنيّات الذكاء الاصطناعي، من المُحتمل حدوث السيناريو الأخطر على الإطلاق في المستقبل، وهو التهديد الوجودي للبشر أنفسهم وتحقيق ما سمّاه الخبراء بـ "التفرُّد التكنولوجي"، ويعني فرْض الآلات سيطرتها على البشر بشكلٍ كامل والاتّجاه نحو اتّخاذ إجراءاتٍ عدوانيّة ضدّهم.
إدراكاً بمدى خطورة تلك التهديدات، بَدأ البعضُ بالحديث عن أهميّة ابتكارِ ذكاءٍ اصطناعيٍّ "ودود"، يتمّ تصميمه وفق أُطرٍ أخلاقيّة وقيَمٍ إنسانيّة تكون الأولويّة فيه للأبحاث المتعلّقة بالتحكُّم في الذكاء الاصطناعي وضمان بقاء الآلات خاضعة لسيطرةِ الإنسان.. وليس العكس.
أخلاقيّات الذكاء الاصطناعيّ
يُقصد بها منظومة المعايير الأخلاقيّة والحواجز الوقائيّة التي تَحكم سلوك الذكاء الاصطناعي وتُساعد في تطويره واستخدامه بطُرُقٍ تعود بالنَّفع على المُجتمع. وفي سبيل ذلك، بَدأتِ المؤسّساتُ والحكومات بوضْعِ أُطرِ عملٍ لمُعالَجة المخاوف الأخلاقيّة الحاليّة ورسْم ملامح مستقبل العمل في هذا المجال من خلال وضع مجموعة من الاعتبارات في مقدّمتها:
العدالة
الشفافيّة والمُساءلة
الإبداع والمِلكيّة
مُواجَهة التضليل
الخصوصيّة والأمن والمُراقَبة
مُواجَهة مَخاطر الأسلحة ذاتيّة التشغيل
تُدرَّب أنظمة الذكاء الاصطناعي على كميّاتٍ هائلة من البيانات التي قد تحتوي على تحيُّزاتٍ مجتمعيّة، كما سبقتِ الإشارة. ونتيجةً لذلك، يُمكن أن تترسَّخ تلك التحيُّزات في خوارزميّات الذكاء الاصطناعي، ما يُديم ويُضخِّم النتائج غير العادلة أو التمييزيّة في مجالاتٍ حيويّة كالتوظيف، والإقراض، والعدالة الجنائيّة، وتخصيص الموارد.
في مجال التوظيف، على سبيل المثال، إذا استَخدمتْ شركةٌ ما نظامَ ذكاءٍ اصطناعي لفرْز المُتقدّمين للوظائف من خلال تحليل سِيَرِهم الذاتيّة، فمِن المُرجَّح أن يكون هذا النظام قد دُرِّبَ على بياناتٍ تاريخيّة للتعيينات النّاجحة داخل الشركة. ومع ذلك، إذا كانت تلك البيانات تحتوي على تحيُّزاتٍ جنسيّة أو عرقيّة، فقد يتعلَّم نظامُ الذكاء الاصطناعي هذه التحيُّزات ويُديمها، ما يَجعله مُتحيِّزاً ضدّ المُرشَّحين الذين لا يتوافقون مع التعيينات السابقة للشركة.
تَعمل أنظمةُ الذكاء الاصطناعي في "صندوق أسود" حيث لا تُقدِّم تفسيراً دقيقاً لكيفيّة عملها واتّخاذها قراراتٍ معيّنة في العديد من المجالات الحيويّة، لذا تُعَدّ الشفافيّة أمراً بالغ الأهميّة لتحديد كيفيّة اتّخاذ القرارات ومَن يتحمَّل مسؤوليّتها. ومن أبرز الأمثلة على ذلك، استخدام الأنظمة ذاتيّة القيادة كقيادة السيّارات؛ ففي حالة حدوث حادثٍ لسيّارةٍ ذاتيّة القيادة، من المسؤول؟ كذلك أيّهما أصْوَب، الاستمرار في تطوير المركبات ذاتيّة القيادة، أم الاقتصار على دمْج هذه التقنيّة لإنتاج مركبات شبه ذاتيّة القيادة تُعزِّز من سلامة السائقين؟
في السياق ذاته، تُعَدّ المُساءلة أمراً بالغ الأهميّة حين تَرتكب أنظمةُ الذكاء الاصطناعي أخطاءً أو تُسبِّب أضراراً لضمان اتّخاذ الإجراءات التصحيحيّة المُناسِبة. وفي سبيل ذلك، يَعمل الباحثون على تطوير ذكاءٍ اصطناعي قابلٍ للتفسير بشكلٍ أفضل، ما يُساعِد في تحديد مدى نزاهة النموذج، ودقّته، وتحيُّزه المُحتمَل.
عندما يُكمِل رسّامٌ ما لوحة تُصبح ملكاً له. أمّا عندما يُنتج مُبدعٌ بشريّ عملاً فنيّاً رقميّاً باستخدام نظام ذكاءٍ اصطناعي مُبرمَج من قِبل فرد أو مؤسّسة مُستقلّة، تُصبح الأمور في تلك الحالة غير واضحة، ويبقى السؤال: مَن يَمتلك العملَ الفنّي المُولَّد بواسطة الذكاء الاصطناعي؟ ومَن يُمكنه تسويقه؟ ومَن المُعرَّض لخَطر التعدّي؟
للأسف تتطوَّر تلك الإشكاليّة بوتيرةٍ أسرع من قدرة الجهات المُنظِّمة على مواكبتها. وبما أنّ المُبدعين البَشر يُنتجون أعمالاً فنيّة رقميّة من خلال أنظمة ذكاء اصطناعيٍ مُطوَّرة من قِبَلِ آخرين، يبقى من الضروري أن يُوضِّح المُشرّعون حقوقَ الملكيّة ويُقدِّموا إرشادات للتعامُل مع التعدّيات المُحتمَلة.
يُمكن استغلال خوارزميّات الذكاء الاصطناعي لنَشْر المعلومات المُضلِّلة، والتلاعُب بالرأي العامّ، وتضخيم الانقسامات الاجتماعيّة. ومن أبرز الأمثلة على ذلك التدخُّل في الانتخابات والتأثير على أصوات الناخبين من خلال إنتاج محتوياتٍ سَمعيّة بَصريّة واقعيّة مُفبْرَكة.
شَكَّل إصدار ChatGPT في العام 2022 نقطةَ تحوُّلٍ حقيقيّة في مجال الذكاء الاصطناعي؛ فقد أَتاحت قدراتُ "روبوت الدردشة"، بدءاً من كتابة المذكّرات القانونيّة وصولاً إلى تصحيح أخطاء الأكواد البرمجيّة، آفاقاً جديدة من الإمكانيّات لِما يُمكن للذكاء الاصطناعي فعْله وكيفيّة تطبيقه في سائر القطاعات تقريباً.
يَعتمد ChatGPT والأدوات المُماثلة على نماذج توليديّة واسعة النّطاق قابلة للتكيُّف بدرجةٍ عالية وقادرة على أداء مجموعة واسعة من المهامّ المُختلفة. ومع ذلك، ثمّة العديد من المخاوف الأخلاقيّة المتعلّقة بتلك النماذج مثل: التحيُّز وإنتاج محتوىً زائف، وعدم القدرة على التفسير، وإساءة الاستخدام، والتأثير المُجتمعي.
تَعتمد فعاليّة الذكاء الاصطناعي على توافُر كميّاتٍ هائلة من البيانات الشخصيّة، الأمر الذي يُبرِز العديدَ من المخاوف بشأن كيفيّة جمْع هذه المعلومات وتخزينها واستخدامها. على سبيل المثال، تَستخدم الصين أدواتٍ مثل تقنيّة التعرُّف إلى الوجه لدعْم شبكة المُراقَبة الواسعة، الأمر الذي من شأنه أن يؤدّي إلى قدرٍ كبيرٍ من التمييز والقمْع ضدّ بعض الجماعات العرقيّة.
في مجال الذكاء الاصطناعي، تُصبح مسألةُ الحفاظ على خصوصيّة الأفراد وحقوقهم الإنسانيّة أمراً بالغ الأهميّة، ما يَستلزم ضماناتٍ قويّة ضدّ اختراق البيانات، والوصول غير المُصرَّح به إلى المعلومات الحسّاسة، والحماية من المُراقَبة المُكثَّفة.
أَتاحتْ هذه المخاوف لصانعي السياسات تحقيقَ تقدُّمٍ أكبر في هذا المجال في السنوات الأخيرة؛ فعلى سبيل المثال في العام 2016، صَدَرَ تشريعُ اللّائحة العامّة لحماية البيانات الشخصيّة للأفراد في الاتّحاد الأوروبي والمنطقة الاقتصاديّة الأوروبيّة GDPR، ما يَمنح الأفراد مزيداً من التحكُّم في بياناتهم. وفي الولايات المتّحدة الأميركيّة، تَعمل كلّ ولاية على حدة على وضْع سياسات، مثل: قانون خصوصيّة المُستهلِك في كاليفورنيا CCPA، الذي يُلزِم الشركات بإبلاغ المُستهلِكين بجمْع بياناتهم.
أَجبرت تلك التشريعات الشركاتِ على إعادة النَّظر في كيفيّة تخزينها واستخدامها للبيانات الشخصيّة، ونتيجةً لذلك أَصبحت الاستثماراتُ في مجال الأمن أولويّة متزايدة للشركات في سعْيِها للقضاء على أيّة ثغراتٍ أو فُرصٍ للمُراقَبة والاختراق والهَجمات الإلكترونيّة.
تَنشأ مَخاوف أخلاقيّة في ظلّ التطوُّر المُستمرّ للأسلحة ذاتيّة التشغيل، المدعومة بالذكاء الاصطناعي، والتي من السهل إساءة استخدامها، بحيث يَفقد البَشرُ سيطرتَهم على قرارات الحياة والموت، الأمر الذي يَستلزم اتّفاقيّاتٍ ولوائح دوليّة لتنظيم استخدام هذه الأسلحة ومنْع العواقب الوخيمة النّاجمة عنها.
مُبادراتٌ أخلاقيّة
انطلاقاً من أنّ المعايير الأخلاقيّة ليست الشاغل الرئيس لمُهندسي البيانات، بَرَزَ عددٌ من المنظّمات غير الربحيّة التي تراعي مثل تلك الأمور وتُروِّج لفكرة السلوك الأخلاقي في مجال الذكاء الاصطناعي مثل:
AlgorithmWatch: منظّمة حقوقيّة غير حكوميّة وغير ربحيّة، لديها مقرٌّ في "برلين" وآخر في "زيورخ". وهي تُناصر قيَم الديمقراطيّة كسيادة القانون، والعدالة، والمُساواة، من خلال التركيز على خوارزميّة عمليّة اتّخاذ قرار قابلٍ للتفسير والتتبُّع في برامج الذكاء الاصطناعي.
معهد AI now: معهد غير ربحي، مقرّه نيويورك، ومُهمّته إجراء أبحاث حول الآثار الاجتماعيّة للذكاء الاصطناعي.
وكالة مشاريع البحوث الدفاعيّة المُتقدّمة DARPA: تابعة لوزارة الدّفاع الأميركيّة، وتُركِّز على تعزيز الذكاء الاصطناعي القابل للتفسير.
مَركز الذكاء الاصطناعيّ المُتوافِق مع الإنسان CHAI: هو مركز بحثيّ في جامعة كاليفورنيا، يُركِّز على أساليب السلامة المتقدّمة للذكاء الاصطناعي.
لجنة الأمن القومي المَعنيَّة بالذكاء الاصطناعي NASCAI: هي لجنة مستقلّة تَنظر في الأساليب والوسائل اللّازمة للنهوض بتطوير الذكاء الاصطناعي والتعلُّم الآلي والتقنيّات المرتبطة به، وذلك لتلبية احتياجات الأمن القومي والدّفاع للولايات المتّحدة الأميركيّة بشكلٍ شامل.
شركة IBM: حيث تَستند خلال عملها على تطوير البيانات والذكاء الاصطناعي إلى 3 مبادئ أساسيّة هي:
الغَرَض من الذكاء الاصطناعي هو تعزيز الذكاء البشري: بمعنى أنّ الشركة لا تسعى إلى استبدال الذكاء البشري بالذكاء الاصطناعي، بل تدْعمه. وفي سبيل ذلك، تَلتزم الشركة بدعْم العاملين من خلال الاستثمار في مُبادراتٍ عالميّة لتعزيز التدريب على المهارات المتعلّقة بهذه التكنولوجيا.
البيانات مِلك لمُبتكِرِها: حيث تَلتزم الشركة بحماية خصوصيّة عُملائها ضدّ برامج المُراقَبة ولا تُتيح للحكومات الوصول إلى بياناتِ عملائها.
التركيز على الشفافيّة وسهولة التفسير: حيث تؤمن الشركة بضرورة وضوح شركات التكنولوجيا بشأن من يُدرِّب أنظمة الذكاء الاصطناعي الخاصّة بها، والبيانات المُستخدَمة في هذا التدريب، هذا بالإضافة إلى ماهيّة البيانات المُستخدَمة في توصيات خوارزميّاتها.
في ضوء ما سبق ذكره، يُمكن القول إنّ مُعالَجة المخاوف الأخلاقيّة المتعلّقة بالذكاء الاصطناعي تتطلَّب تعاوناً استباقيّاً مُشترَكاً بين خُبراء التكنولوجيا، وصانعي السياسات، والمُجتمع ككلّ، وذلك بهدف تسخير الإمكانات الهائلة للذكاء الاصطناعي مع التمسُّك بالمبادئ الأخلاقيّة بغية صَوْغِ مستقبلٍ يَرتكز على ذكاءٍ اصطناعي داعِمٍ للبَشر وليس بديلاً منهم.
*باحث سياسي من مصر