في تحيُّز الذكاء الاصطناعيّ والحدّ منه

news image

د. نديم منصوري* 
 

يُعتبر الذكاء الاصطناعيّ صناعةً بشريّة، وبالتالي من الطبيعيّ أن تنعكس بيانات التحيُّز البشريّ في العمل الصحافيّ في التحيُّز الخوارزميّ، الذي سيُنتِج مخرجاتٍ مُتحيِّزة ضمن نطاق تطبيقات الذكاء الاصطناعيّ. هذا ما تشير إليه جوي بولامويني Joy Bualamwni - على سبيل المثال لا الحصر - التي اكتشفتْ أنّ برنامج التعرُّف إلى الوجه بتقنيّة الذكاء الاصطناعيّ، لا يُمكنه اكتشاف الوجوه ذات البشرة الدّاكنة أو التعرُّف إلى النساء بدقّة!

وهذا ما تَشرحه أيضاً ميريديث بروسارد Meredith Broussard في كِتابها "Artificial Unintelligence"، أنّ التعلُّمَ الآلي قد يكون مُضلِّلاً إلى حدٍّ بعيد، لأنّ آليّات تعلُّم تطبيقات الذكاء الاصطناعي تَختلف بطبيعتها عن التعلّم البشري؛ فالذكاء الاصطناعي يتعلَّم من بيانات التدريب، ويُحلِّلها ويَستخرج منها نتائج مستقبليّة متوقَّعة، إلّا أنّه على الرّغم من ذلك، يُمكن أن يغفل الكثير من الفروقات الدقيقة للذكاء البشري، مثل عجْزه عن فهْم الكثير من عبارات السخرية أو الاستعارات المُستخدَمة في بيئاتٍ ثقافيّة متنوّعة.

إلّا أنّ الأمر لا يَقف عند هذا الحدّ، فقد أصبحتْ غرفُ الأخبار الكبرى تضيف تكنولوجيا الذكاء الاصطناعي الجديدة إلى عملها، ما يَجعل مسألةَ التحيُّز البشري وانعكاسه على تحيُّز الآلة واسع النطاق.

ظَهَرَ ذلك أيضاً في الحروب الدائرة في العالَم (الحرب الروسيّة الأوكرانيّة، الحرب الإسرائيليّة على غزّة ولبنان)، التي أَظهرت عدم موضوعيّة الذكاء الاصطناعي وانحيازه لمن يُغذّيه بالبيانات التي تتقاطع معه سياسيّاً.

من هذا المنطلق يحاول هذا المقال مُقارَبة هذه الإشكاليّة المُثيرة للجدل، مُتسائلاً عن تأثير التحيُّز البشري في تحيُّز الذكاء الاصطناعي في العمل الصحافي.

الذكاء الاصطناعيّ في العمل الصحافيّ

تكمن خطورة العمل الصحافي في القدرة على السرد، حيث تنطوي كلّ فعاليّة سرديّة على فعاليّتَيْن: التخييل Fiction، والبلاغة Rhetoric. والتخييل الصحافي شيء خطر جدّاً، إذ تكمن في طيّاته أساليب مُضلِّلة، والبلاغة أسوأ من التخييل، لأنّها كذبة تعمل على تأطير نفسها بلباسٍ مُشَرْعَن، مُقنعٍ وواقعي.

كلّ السرديّات الصحافيّة جذّابة للقارئ، كونها تنطوي على شيء من الحقيقة وشيء من الخيال. مع مرور العمل الصحافي في جميع العصور الميديولوجيّة، ظَهرتْ قدرتُهُ على التكيُّف مع مختلف المُتغيّرات التكنولوجيّة، انطلاقاً من الآلة الطّابعة والآلة الكاتبة، مروراً بفنون التصوير، وصولاً إلى الكمبيوتر والإنترنت والذكاء الاصطناعي، علماً أنّ العمل الصحافي اليوم ما زال يخطو خطواته الأولى مع تكنولوجيّات الذكاء الاصطناعي التي تحمل في طيّاتها الكثير من الهواجس والمَخاوف من جهة، والكثير من الفُرص والآفاق من جهة أخرى.

بَدأ العمل الصحافي في الاعتماد على الذكاء الاصطناعي في بداية العقد الثاني من الألفيّة، ولاسيّما مع منصّات الصحافة الآليّة مثل منصّة العلوم السرديّة Narrative Science ومنصّات الرؤى الآليّة Automated Insights.

بدأ هذا النمط من المنصّات في إنتاج مقالات بحت مختصّة: في الرياضة والاقتصاد والأرصاد الجويّة.. ما أَنتج الصحافةَ المعلوماتيّة المَعنيّة بدورها في إنتاج أخبار البورصة وأسواق المال.

رافقَ ظهور الصحافة المعلوماتيّة، صعود صحافة التسريبات التي كان رائدها جوليان أسانج عبر موقعه WikiLeaks، تلك الظاهرة التي فتحتْ نمطاً جديد من الصحافة والإعلام وطرحتْ جَدلاً واسعاً انعكسَ على المَشهد الاجتماعي والسياسي والدبلوماسي، ولاسيّما مع استمرار هذا النمط من التسريبات مع وثائق سويس ليكس SwissLeaks، ووثائق بنما Panama Papers، ووثائق

أوراق الجنّة Paradise Papers، وتسريبات فنسن FinCEN Files، ووثائق باندورا Panadora Papers.

شكَّل هذا النمط من التسريبات تحدّياً أمام الصحافيّين للتعامُل مع كميّاتٍ مهولة من البيانات، ما أَنتج صحافةَ البيانات Data Journalism، التي فَرضتْ على الصحافيّين توظيف البيانات الضخمة Big Data في عملهم، في عمليّات التعقُّب والتحليل والاستخراج، وفي تحديد قوالب الأخبار وأنماطها، وفي الاستفادة من تقنيّات الذكاء الاصطناعي بأشكاله المُختلفة.

أمام هذا الواقع، بَدأ العملُ الصحافي يأخذ منحىً مُختلفاً، وباتَ يحتاج إلى فهْمٍ جديد للذكاء الاصطناعي، ذلك أنّ الاستفادة من الذكاء الاصطناعي ليست مسألةً تَقتصر على إنتاج المحتوى، بل باتت أوسع نطاقاً بكثير. بمعنى أنّ استخدام الذكاء الاصطناعي في العمل الصحافي لم يَعُد مجرّد أداة، بل صارَ له وظائف متعدّدة تَخدم العمل الصحافي وتوسِّع من نِطاق عمله بشكلٍ كبير.

عندما تَنحرِفُ الخوارزميّات

ماذا نَقصد بالتحيُّز الخوارزمي؟ نقصد به عندما يعمل بشكلٍ تفضيلي، أي عند تفضيل نظام الذكاء الاصطناعي مجموعةً ما على مجموعةٍ أخرى. يحصل ذلك عندما تنحرف نتائج خوارزميّات التعلُّم الآلي نحو فرضيّاتٍ مُتحيِّزة، قد يكون سببُها تحيُّز بيانات التدريب التي تُغذّي نظامَ الذكاء الاصطناعي. بعبارةٍ أخرى، التحيُّز الخوارزمي هو انحيازُ أنظمة الذكاء الاصطناعي لجهةٍ دون أخرى بسبب تزويدها بالبيانات المُتحيِّزة في أثناء مرحلة التعلُّم الآلي.

تكمن خطورة التحيُّز الخوارزمي في أنّه شريكٌ في عمليّات اتّخاذ القرار للكثير من الجهات الإعلاميّة أو السياسيّة أو الاقتصاديّة. هذا ما أَنتج مصطلح "الخوارزميّات سيّئة الأداء"، لكنّها في الواقع مجرّد استعارة للإشارة إلى وكلاء الذكاء الاصطناعي التي تؤدّي نتائجها إلى تبعاتٍ غير منطقيّة وربّما خطيرة.

ناقشَتْ باتيا فريدمان Batya Fridman وهيلين نيسنباوم Helen Nissenbaum مخاوف التحيُّز في استخدام أنظمة الحاسوب لأداء مهامٍّ متنوّعة، وأشارتْ مقالتهما النقديّة إلى وجود سلوك غير مُنصف أو متحيِّز في هذه الخوارزميّات واقترحتا إطاراً منهجيّاً للتفكير في هذه التحيُّزات.

كما كانت لاتانيا سويني Latanya Sweeney من الروّاد الذين دَرسوا سوء الأداء في أنظمة "غوغل"، والذين كشفت أعمالهم عن أمثلةٍ عن التشهير الخوارزمي في عمليّات بحث "غوغل" وإعلاناته.

وكتبَ سولون باروكاس Barocas وأندريه سيلبست Selbst مقالاً يتناول السؤال الجوهري حول ما إذا كان يُمكن للبيانات الضخمة أن تُثمر عن سلوكٍ عادل أو مُحايد في الخوارزميّات، وأجاب الباحثان عن هذا السؤال بالنفي القاطع من دون طرْحِ إصلاحٍ لكيفيّة تصنيف البيانات والخوارزميّات المُرتبطة بها.

لكنّ السؤال الذي يَطرح نفسه، من أين تأتي التحيُّزات الخوارزميّة؟.. ما هو مَصدرها؟ يَرجع سببُ التحيُّز الخوارزمي في الدرجة الأولى إلى التحيُّز البشري الذي يُنشئ هذه الخوارزميّات من خلال أفكاره وتفاعلاته وسلوكه الرقمي. يؤثِّر التحيُّزُ البشريُّ في أنظمة الذكاء الاصطناعي بشكلٍ مباشر، حيث إنّ الآلة تبقى صمّاء، وهي بحاجة إلى التفاعُل البشريّ لكي يقودها بالاتّجاه الذي يريده، وبالتالي فإنّ التحيُّزات البشريّة وتضارُب مواقفهم ومصالحهم تؤدّي حُكماً إلى تحيُّزٍ في الخوارزميّات.

ثمّة عمليّاً تحيُّزٌ بشريّ في التعلُّم الآلي بسبب إنشاء خوارزميّات البيانات، وطالما أنّ التحيُّزَ صفةٌ بشريّة، سيتعلَّم الذكاءُ الاصطناعي هذا الانحياز لأنّه يُحاكي الذكاء البشري عن طريق التعلُّم من البيانات المزوَّدة من المُستخدِمين. وإذا ما احتوتْ هذه البياناتُ على أفكارٍ عنصريّة أو طائفيّة أو مذهبيّة... سيتمّ تخزينُ هذه الأفكار وتحليلُها وتوليدُها.

ونرى أنّ خطاب الكراهية والعصبيّة والتشهير وغيره من المُمارسات الرقميّة، هو ناتجٌ عن سلوك المُستخدِمين أنفسهم، وبالتالي تُصبح مجموعات البيانات مرايا تعكس التحيُّزات المُجتمعيّة من خلال تحليل المُدخلات للحصول على مُخرجاتٍ مُتحيِّزة مُعبِّرة عن الواقع.

سببٌ آخر قد يقود الخوارزميّات إلى التحيُّز هو عبر إطلاق التعميمات، فعندما تتمّ برْمجة الخوارزميّات وتتعمَّم مسألةُ أنّ معظم ذوي البشرة السوداء هُم أناسٌ خطرون، أو أنّ أصحاب اللّحى هُم ذوو فكرٍ إرهابي، في تلك الحال، سوف تُطلِق الخوارزميّات تحذيراتٍ خاطئة ضدّ أناسٍ أبرياء. وغالباً ما وقعَ الذكاءُ الاصطناعي بهذه الأخطاء الفادحة التي تتّسم بعدم الإنصاف والافتقار إلى العدالة الإنسانيّة.

يجب ألّا يَغفل علينا أيضاً أنّ أحد أبرز أسباب التحيُّز الخوارزمي قد يكون بدوافع سياسيّة، فشركات الإعلام الاجتماعي الكبرى قد تتّخذ وجهةَ نظرٍ سياسيّة لا تكون بالضرورة مُنصِفة أو خالية من التحيُّز.

هنا يضْطلع المُراجعون البشريّون بدَورٍ حيوي في مُراقبة النماذج وتحسينِها. ومع ذلك، فإنّ وجهات نظرهم وتحيّزاتهم، ولاسيّما في العمل الصحافي، تُقدِّم طبقةً أخرى من التعقيد. والسؤال، أين تَكمن أخلاقيّاتُ المِهنة المُوازِنة بين حريّة التعبير والخصوصيّة والعدالة؟

تتركّز المخاوف خلال عمليّة استخدام الخوارزميّات في الصحافة على الانحيازات المُدمَجة في أنظمةِ الخوارزميّات التي يُمكن أن تُحرِّف من تصوّرات الجمهور أو توجِّهُهُ في الاتّجاه الخاطئ.

يُمكن أيضاً استخدام الخوارزميّات لنشْرِ الأكاذيب والمعلومات المضلِّلة والتحايُل عن الانتباه عن المحتوى المهمّ، وحتّى مُهاجَمَة المُستخدِمين ومُضايقتهم، مثل استخدام غرف الصدى Echo Chambers، حيث تؤشِّر هذه الغرف إلى مَيْلِ المُستخدِم للبحث عن كلّ ما يؤكِّد ويُعزِّز وجهةَ نَظَرِهِ وما يؤمن به من مُعتقداتٍ وقيَم. وبالتالي يُمكن القول إنّ غُرف الصدى قد تجعل من آراء الطرف الآخر، هامشيّةً، فتقوم المنصّة الرقميّة الخاصّة بالفرد، باقتراح ثلاثة أشخاص آخرين يؤمنون بالأخبار ذاتها، ويفكّرون بالطريقة ذاتها، ويتداولون المعلومات ذاتها، وهذا لا يعود إلى المُصادَفة الخوازرميّة، بل إلى ظاهرة "التعرُّض الانتقائي" التي تَستخدمها تلك المنصّاتُ لتُقدِّمَ للفرد طريقةً تزوّده بالمعلومات ووجهات النظر المُتقارِبة مع تلك التي يَعتقد بها، وبذلك تُجنِّبُه المعلومات المُتناقِضة مع رأيه.

كذلك الأمر مع استخدام فقّاعات التصفية Filter bubbles عندما تُخمِّن خوارزميّةُ موقع الويب، بشكلٍ انتقائيّ، المعلوماتِ التي يَرغب المُستخدِم في رؤيتها، بناءً على معلومات حول المُستخدِم مثل الموقع وسلوك النَّقْر السابق وسجلّ البحث. ونتيجةً لذلك، يَنفصل المُستخدِمون عن المعلومات التي لا تتّفق مع وجهات نظرهم، ما يؤدّي إلى عزْلِهم بشكلٍ فعّال في فقّاعاتهم الثقافيّة أو الأيديولوجيّة الأخرى. فالخيارات التي تقوم بها هذه الخوارزميّات ليست شفّافة، حيث تتضمّن الأمثلة الرئيسة نتائج البحث المخصّص من "غوغل" وتدفّق الأخبار المخصَّص من "فايس بوك"، وقد يكون لتأثير الفقّاعة آثارها السلبيّة على الخطاب العامّ.

ولا ننسى الذكاءَ الاصطناعي التوليدي Generative Artificial Intelligence الـذي لا يخلو من التحيُّزات التي قد تكون نَمطيَّة جنسانيَّة تُشير مثلاً إلى أنّ التمريض هو وظيفة المرأة، ويعكسُ ذلك حتماً الصورَ النمطيَّة الموجودة على الويب.

أمام هذا المَشهد، نستنتج أنّ التحيُّزَ الخوارزمي هو نِتاج التفاعُلات البشريّة، وبالتالي كلّما تمكَّنت الصحافةُ من بلْورةِ رأيٍ عامّ مؤيِّدٍ لقضايا مُجتمعاتها، كلّما تمكَّنت من تخفيف حدّة التحيُّز. وبالتالي يَجب تعزيز الوعي لدى الصحافيّين والمُطوِّرين حول تأثيرات التحيُّزات، وتمكينهم عبر برامج تدريبيّة مُستمرّة من المساعدة على معرفة أساليب التحيُّزات، والعمل، بالتالي، على التقليل منها.

ولا بدّ للمؤسّسات الإعلاميّة من أن تعمل على تصميم خوارزميّات شفّافة وعادلة من طرف الشركات، والمُطوّرين، والعاملين في المجال الإعلامي، عبر المُراجَعة الدوريّة لتأثير الخوارزميّات، وإدخال التعديلات اللّازمة للحدّ من التحيُّزات. وأخيراً لا بدّ من وضْع تشريعات عربيّة للذكاء الاصطناعي التي تُساعد في ضبْط الاستخدام وعدم الاستفادة منه لغاياتٍ غير أخلاقيّة أو سياسيّة.

*كاتب وأكاديمي من لبنان - مؤسسة الفكر العربي 

______________

  تحليل وتعليق -  بث

🔹 الانطباع العام:

المقال يعالج قضية شائكة وحيوية في عالم الصحافة والإعلام الحديث، حيث يناقش كيف يمكن للذكاء الاصطناعي أن يعكس أو حتى يعزز التحيّزات البشرية الموجودة في البيانات التي يتم تغذيته بها. التناول النقدي متوازن وذو أبعاد متعددة، بدءًا من التحيز في التعرّف على الوجه وصولًا إلى التحيّزات السياسية والإعلامية.

🔍 التحليل النقدي لأهم الأفكار المطروحة في المقال:

1️⃣ الذكاء الاصطناعي ليس محايدًا كما يُعتقد

الإشكالية المطروحة: المقال يوضح كيف أن أنظمة الذكاء الاصطناعي ليست مستقلة عن التحيّزات البشرية، بل تتعلم منها، وهذا يؤكد أن الذكاء الاصطناعي قد يكون أداة لتضخيم هذه التحيّزات بدلًا من القضاء عليها.
مثال قوي: الإشارة إلى أن برامج التعرف على الوجه تفشل في التعرف بدقة على أصحاب البشرة الداكنة والنساء يعكس قصورًا خطيرًا في تصميم البيانات المدخلة لهذه الأنظمة.
البعد الصحفي: في الصحافة، إذا تم تدريب الخوارزميات على بيانات غير متوازنة أو منحازة سياسيًا، فإنها ستنتج أخبارًا وتغطيات تعكس هذا التحيّز.

🎯 التعليق: الذكاء الاصطناعي يمكنه إما أن يعزز الشفافية أو يتحول إلى أداة تضليل ضخمة، وفقًا لكيفية برمجته. وهذا يفتح الباب لمطالبة المؤسسات الإعلامية بوضع معايير صارمة عند استخدامه.

2️⃣ كيف يمكن أن ينحرف الذكاء الاصطناعي في الصحافة؟

✔ المقال يتناول قضية "التحيّز الخوارزمي" في الصحافة، موضحًا كيف يمكن لتكنولوجيا الذكاء الاصطناعي أن تميل لتفضيل جهة سياسية أو رؤية معينة، بناءً على من يتحكم في تغذيتها بالبيانات.
مثال حقيقي: تغطية الحروب والصراعات الدولية (مثل الحرب الروسية الأوكرانية أو الحرب على غزة)، حيث يظهر التحيّز الإعلامي واضحًا، خاصة عندما تعتمد الصحف الكبرى على خوارزميات قد تكون موجهة سياسيًا أو اقتصاديًا.
غرف الأخبار الكبرى باتت تعتمد على الذكاء الاصطناعي بشكل متزايد، ولكن هل يعني هذا أن الأخبار أصبحت أكثر موضوعية أم أنها تخضع لمعالجة خفية وفقًا لمصالح معينة؟

🎯 التعليق: الحقيقة التي يوضحها المقال مهمة جدًا؛ وهي أن "الذكاء الاصطناعي في الصحافة ليس محايدًا ما لم تتم برمجته ليكون كذلك". بل إن بعض المنصات الكبرى مثل جوجل وفيسبوك تتلاعب بنتائج البحث والمحتوى المعروض للمستخدمين وفقًا لخوارزميات محددة.

3️⃣ التحيّز في غرف الأخبار الرقمية والخوارزميات الإعلامية

✔ المقال يلمّح إلى ظاهرة "غرف الصدى الإعلامية" و"فقاعات التصفية"، حيث تقدم الخوارزميات للمستخدمين فقط المحتوى الذي يتماشى مع أفكارهم الحالية، مما يعزلهم عن وجهات النظر الأخرى.
✔ هذا يؤدي إلى تكوين مجتمعات رقمية متطرفة أو منحازة بالكامل، ما يجعل الإعلام أداة تعزز القناعات الموجودة بدلًا من تقديم رؤية متكاملة.

🎯 التعليق: هذه نقطة خطيرة جدًا، إذ يجب على المؤسسات الإعلامية أن تكون واعية بأنها مسؤولة عن تقديم محتوى متوازن، وعدم الاعتماد المفرط على الذكاء الاصطناعي في تحديد الأخبار التي تصل إلى الجمهور.

 

📌 الملاحظات 

🔹 1️⃣ ضرورة طرح حلول أكثر تفصيلًا للحد من التحيّز الخوارزمي

  • المقال يشير إلى بعض الحلول مثل مراجعة الخوارزميات وإنشاء قوانين تضبط عمل الذكاء الاصطناعي، ولكن لا يقدم تفاصيل عملية عن كيفية تنفيذ ذلك.
  • كان من الممكن تضمين نماذج لمؤسسات أو شركات نجحت في تقليل التحيّز الخوارزمي، أو اقتراح إطار عملي لتقييم النزاهة في الذكاء الاصطناعي.

🔹 2️⃣ التركيز على الذكاء الاصطناعي التوليدي (Generative AI) في الصحافة

  • المقال يتناول تحيّز الذكاء الاصطناعي بشكل عام، لكنه لا يخصص جزءًا واضحًا لشرح كيف يمكن للذكاء الاصطناعي التوليدي (مثل ChatGPT، وBard، وClaude) أن يؤثر على الأخبار.
  • هذا موضوع مهم لأن بعض المؤسسات الإعلامية بدأت تستخدم الذكاء الاصطناعي في إنتاج مقالات وتحليلات كاملة، وهنا تصبح مسألة التحيّز أكثر تعقيدًا.

🔹 3️⃣ إضافة أمثلة حديثة لتوضيح التأثير السياسي والاقتصادي

  • لو تم إدراج أمثلة محدثة من عام 2023 أو 2024 عن كيفية استخدام الذكاء الاصطناعي في التأثير على الانتخابات، أو ترويج حملات سياسية، لكان التأثير أقوى.