دواعٍ أخلاقيّة في التعامل مع الذكاء الأدبيّ الاصطناعيّ

د. نادية هناوي*
الذكاء الاصطناعيّ مجموعة أنظمة وبرامج فائقة التطوُّر تتعامل مع بياناتٍ ضخمة بالاعتماد على رموزٍ برمجيّة (خوارزميّات) وشبكات عصبيّة مدرَّبة على مُحاكاة تلك البيانات بطريقةِ التزييف العميق Deepfake. وما بين المُحاكاة والتزييف، تطوَّرت تكنولوجيا الذكاء الاصطناعيّ وغدت أهمّ قضايا القرن الحاليّ.
وعلى الرّغم من أنَّ في هذا القرن من الأزمات والقضايا ما هو أهمّ ويتعلّق بمصائر الشعوب وينبغي أن تكون له الأولويّة، مثل الحروب والمجاعات والتمييز العنصري والتلوّث البيئي والتغيُّر المناخي والاكتظاظ السكّاني وانتشار النفايات ونقْص الموارد ورداءة التعليم وغيرها كثير، غير أنّ أهميّة الذكاء الاصطناعي في حياتنا المعاصرة تتأتّى من كونه ثورة علميّة على مختلف صعد الحياة البشريّة بغنيّها وفقيرها، متقدّمها ومتخلّفها، متعلّمها وجاهلها.
منذ أن اخترع الإنسان أوّل آلة ذكيّة في منتصف القرن العشرين وهذه الثورة تقطع أشواطاً متقدّمة، تغيَّرت معها أنماطُ الحياة بشكلٍ مُتسارع. وطغى استهلاكُ تطبيقات الذكاء الاصطناعي ونماذجه طغياناً كبيراً، أَسهمت فيه إلى حدٍّ كبير عمليّات الدعاية والإعلان، سعياً إلى جني الأرباح وتحقيق الشهرة. وهنا تَظهر أهميّة التوعية على محاسن هذه التكنولوجيا ومساوئها انطلاقاً من فاعليّة الشعور بالمسؤوليّة الأخلاقيّة في طريقة الإفادة من مستجدّات الذكاء الاصطناعي. ذلك أنّ الوعي بكيفيّة التعامُل مع هذا الذكاء بنوعَيْه العامّ والتوليدي يُساعِد المُستخدِم في تحسين مستواه وتيسير سُبل حياته ويُحصِّنه أيضاً من الوقوع في مخاطر الثقة المفرطة بالذكاء الاصطناعي، فلا ينساق وراء التضليل والتمويه الخادع النّاتج عن زيف التعليم الآلي.
وما يزيد من أهميّة التوعية على مَخاطر الذكاء الاصطناعي، هو تشعُّب مجالاته. الأمر الذي يستوجب تحرّي الدقّة، لا من ناحية الكودات الحسابيّة والبرْمَجة الرقميّة، وإنّما من ناحية التعامل مع تطبيقات الآلة الذكيّة بحسب جدواها، مع ضرورة إدراك عيوبها ومخاطرها من قَبيل الشموليّة في مُراقبة الافراد والاستبداد بهم، ووهْم المعلومات الزائفة وما تؤدّي اليه من إنتاج خطاب الكراهية وتدهْور العلاقات الشخصيّة أو ما يُسمّى بـ "وَهْم الرفقة".
لقد أكَّدت التجارب والإحصاءات أنّ لبعض تطبيقات هذا الذكاء دَوراً كبيراً في ترويج أفكارٍ عنصريّة وأيديولوجيّة مثل التحيُّز غير العادل لنَوعٍ من الأعراق والجغرافيّات، كما أنّ استعمال هذه التطبيقات من قِبَلِ مُستخدمين سيّئين يَجعلها مَصدراً لإشاعة الأخبار الكاذبة ونشْر الصور والمشاهد المُفبرَكة المُضلِّلة للجمهور العامّ الذي هو بالمجموع مُنبهر بما في الذكاء الاصطناعي من قدراتٍ مُذهلة، وغافلٌ عمّا فيه من احتماليّة بثِّ معلوماتٍ مغلوطة واستعمال وسائط خادعة. يُضاف إلى هذا تسخير الذكاء الاصطناعي بشكلٍ مقصود لتحقيق أغراضٍ سياسيّة واقتصاديّة وثقافيّة معيّنة.
ولقد شاعَت منذ ثمانينيّات القرن العشرين نزعةٌ تهويميّة تتكهَّن بقدراتٍ خارقة للذكاء الاصطناعي، سُمّيت بنزعةِ ما بعد الإنسانيّة، مفادها أنّ هذا الذكاء يتمتّع بالاستقلاليّة. وأنّ هذا ما يوجِب على الإنسان التخلّي عن مركزيّته وقبول الاندماج بالآلة، ليُولَد من ثمّ جنسٌ ثالث جديد هو السايبورغ Cyborg. وكان من تبعات مثل هذه التوجّهات، أن ذهبَ بعضُ دُعاة النّزعة ما بعد الإنسانيّة إلى المُطالَبة بقوانين تَحفظ للذكاء الاصطناعي حقوقه من إساءةِ مُعاملة البشر له، وما قد يلحقونه به من ضَرر. وذهبَ بعضُهم الآخر إلى مُناقشة أفضليّة الآلات الذكيّة على الإنسان في اتّخاذ القرارات الأخلاقيّة على أساس أنّها أكثر عقلانيّة ولا تَنجرف وراء عواطفها.
إنّ أهميّة التوعية على حقيقةِ ما في تطبيقات الذكاء الاصطناعي من حسناتٍ ومساوئ، تتجلّى على مختلف مستويات الحياة. لكنْ ثمّة مستوىً هو الأكثر حاجة إلى مِثل هذه التوعية ونعني به المستوى الإبداعي من ناحية توظيف الذكاء الاصطناعي في إنتاج محتوىً نصّيّ شعريّ أو قصصيّ أو روائيّ أو نقديّ؛ إذ إنّ إنتاج مثل هذه النصوص إنّما هو مُحاكاة تقوم بها الآلات الذكيّة لكميّاتٍ هائلة من البيانات المخزونة في شبكة الإنترنت، لتُقدِّمها من ثمّ في شكلٍ غير أصيل. وما يغفل عنه مُستهلكو تكنولوجيا الذكاء الاصطناعي في المجال الإبداعي هو ما يجري على تلك النصوص من عمليّات تزييفٍ عميق؛ ففي أثناء ضخّ كميّاتٍ هائلة من التدفّقات المعلوماتيّة المُتتالية والمُستَلَّة من مواقع ومنصّات مودَعة في الشبكة العنكبوتيّة، تقوم الأنظمةُ والبرمجيّاتُ بعمليّاتِ انتقاءٍ لمئات الآلاف من البيانات النصيّة والصوريّة والفيديويّة. ومن المُعتاد بعد ذلك أن يكون المحتوى المُنتَج بالآلة الذكيّة غير موثوق المَصدر ولا هو مُحدَّد المَرجع والمُلكيّة.
ويُعَدّ روبوت المُحادَثة ChatGPT من أكثر التطبيقات قدرةً على إنشاء محتوىً نصّيّ مزيَّف. أمّا تطبيق GAN فيُعَدّ من أكثر التطبيقات قدرةً على التلاعُب بصور الوجوه ومَقاطع الفيديو، اعتماداً على شبكاتٍ عصبيّة قادرة على تحريك الوجوه وصنْع الأصوات بسلاسة.
وبالطبع فإنّ الذكاء الاصطناعي ليس مسؤولاً أخلاقيّاً عن أفعاله تلك، إذ من غير المنطقي مُطالَبة الآلات بأن تكون أخلاقيّة، وأن تَحترم ملكيّات المؤلِّفين السابقين، وأن تتحلّى بالنزاهة الأدبيّة. وحتّى لو قيلَ إنّ بالإمكان تغذية الآلة الذكيّة بالقواعد الأخلاقيّة، فإنّ ذلك غير مُمكن، لأنّ الأخلاق نفسها ذات طبيعةٍ متغيّرة، وليس لها قواعد ثابتة. إنّما المسؤول عن ذلك هو المُستخدِم الذي ينظر إلى الأدب المُنتَج بالآلة الذكيّة على أنّه إبداعٌ أصيل، يُمكن نسبته إلى نفسه، وإشهاره على أنّه من نتاجه الخاصّ.
إنّ هذه المؤاخذات على توظيف الذكاء الاصطناعي في عمليّة إنتاج النصوص الإبداعيّة الأدبيّة والفنيّة، هي بمثابة تحدّيات أخلاقيّة حاليّة ومستقبليّة، تستوجب التوعية الفكريّة بضرورة احترام الملكيّات الأدبيّة، وعدم انتهاكها في أثناء جمْع البيانات ومُعالجتها ومشاركتها، علماً أنّ أغلب الإصدارات المُستحدَثة التي تَطرحها شركاتُ الذكاء الاصطناعي، لم تُحقِّق نجاحاتٍ مؤكَّدة حتّى الآن لا في صنْع محتوىً أدبي أو نقدي أصيل، ولا في تجاوزِها إخفاقات النماذج التي سبقتها قياساً بما حقَّقته في سائر المجالات العلميّة والحياتيّة الأخرى.
ومؤكّد ما للدعاية الإعلاميّة من دَورٍ مُهمّ في تضخيم إمكانيّات هذا الذكاء وتهويل قدراته والتغطية على إخفاقاته. فيَنظر المُستخدِم إلى الآلة الذكيّة بوصفها واعية من تلقاءِ نفسها، وتتحكَّم بمَن حولها. والحقيقة أنّها لا تَملك وعياً، بل هي خوارزميّات ليس فيها أيّ تعاطفٍ أو إدراكٍ للأهداف.
وهذا كلّه يَجعل التوعية بمثابة معركة من ناحية التدليل على مخاطر التزييف العميق، وأيضاً من ناحية التنبيه إلى دَور الدعاية الإعلاميّة في تضخيم دَور المؤلِّف الاصطناعي واعتبار أنّ الآلة الذكيّة هي البديل عن المؤلِّف البشري أديباً وناقداً. وعادةً ما يكون العاملون في قطاع الذكاء الاصطناعي هُم المسؤولون عن الترويج الدعائي غير العقلاني لُمستحدثاتِ مُنتجاتهم التكنولوجيّة.
وعلى الرّغم من ذلك، فإنّ المحتوى الأدبي المُنتَج بالذكاء الاصطناعي يبقى أبعد من أن يُثبِت تفوُّقَه على الإبداع البشري. وإذا كان التفاؤل بالتصوّرات ما بعد الإنسانيّة للذكاء الاصطناعي مُمكناً باحتماليّة ما تحقَّق على صعيد التجارب العِلميّة والمُستحدثات التقنيّة، فإنّ التفاؤل على صعيد الإبداع الأدبي مفرط جدّاً، لأنّ خوارزميّات الذكاء الاصطناعي لا تَملك وعياً وليس لديها قدرة على التفكير الذاتي والتخييل الحرّ.
ولكيّ تؤدّي التوعيةُ المجتمعيّةُ دَورَها في تأكيد هذا كلّه، لا بدّ من التثقيف بقوانين النزاهة والشفافيّة والمُساءلة حول ما يَصدر من مستحدثات هذا الذكاء، والتيقّظ لما يُرافق إطلاقها من تصريحات. ومن المُهمّ أيضاً إسهام المؤسّسات التربويّة والتعليميّة والجهات الرقابيّة الأخرى في عمليّات توعية الناشئة بالتكنولوجيا الرقميّة وتدريبهم على مهارات النظر الناقد الذي به يتمكّنون من استعمالها بشكلٍ آمن، مُدركين ما فيها من اختلاقات، ومُتيقّظين لإغراءات الدعاية الترويجيّة. وتظلّ العَيْن البشريّة هي العامل الأكثر أهميّة في كشْف التضليل الدعائي وتمييز النصوص الأدبيّة المُنتَجة بالذكاء الاصطناعي عن نظيرتها المُنتَجة بالذكاء البشري والتي فيها من الإحساس الفنّي السليم ما يَكشف خداع التكنولوجيا وعوالمها الافتراضيّة.
*ناقدة من العراق