العلم والتكنولوجيا والأخلاقيّات
د. نور الدّين شيخ عبيد*
لم يسأل الإنسان نفسه يوماً عن خيرِ أو شرِّ ما يُكتشف، فهو يبحث عن حلٍّ لمشكلةٍ أو إجابةٍ عن سؤال. ولكنّ الشرّ قد يكون في الاستخدامات المُمكنة لهذا الاكتشاف أو تلك الإجابة. فالسكّين كما قال أرسطو هي أداة حياديّة، وظيفتها تقطيع أشياء يتداولها الإنسان من أطعمة أو أنسجة وخلاف ذلك، ولكنّ استخدامها للإيذاء هو عَيب ليس فيها وإنّما في استخدامها. والاستخدامات هذه هي ما يجب أن تضبطه الأخلاقيّات في الوقت المعاصر، نظراً لما لهذه الاستخدامات من إمكانيّة إقحام البشريّة في أزماتٍ حادّة.
وبما أنّ الاكتشافات والإجابة على الأسئلة اليوم منوطة بالعِلم وما دار في فلكه، لنلقِ إذاً نظرة سريعة على العلم ووضْعه الحالي.
ارتبط العلمُ في أوّله بالمعرفة التطبيقيّة، والكلمة في أصلها الإغريقي مشتقّة من معرفة السباحة، أي أنّ العِلم كان معرفة الفنون والخَوض في الحياة اليوميّة بما تتطلّبه، وبما ليس غريزيّاً لدى الإنسان بالضرورة. فاكتشفَ النار وحافظَ عليها، واكتشفَ إشعالها لاحقاً، وصنعَ أدواته وطوَّرها من الحجارة والأخشاب؛ ثمّ تعلَّم الزراعة وفنون السقاية، وطوَّرهما. واخترَع الكتابة وطوَّر حواملها من حَجَرٍ وجِلْدٍ وورق، قبل وصولها إلى ما هي عليه اليوم بحاملها الإلكتروني. و"اكتشفَ" الكون، ودقائق المادّة، وتفاصيل هائلة عن الحياة ونشوئها.
احتاج هذا العِلم إلى أدوات. وهذه الأدوات وإنتاجها آلت إلى ما نعرفه اليوم بالتكنولوجيا. وأصبح مَسارا العلم والتكنولوجيا في تقارُبٍ متزايد حتّى اندماجهما اليوم تقريباً، يُساعِد كلٌّ منهما الآخر في تطوّره. فغاليليو راقبَ أقمار المُشتري الأربعة بمنظاره الذي كان الهولنديّون قد طوّروه بفضل تطوّرهم في عِلم البصريّات في ذلك الوقت، وحسَّن هو نفسه فيه. وأَسهمت نتائج هذه المُراقبة في تطوير نظريّاته الخاصّة بالمجموعة الشمسيّة. وكذلك تلسكوب جيمس ويب الفضائي، الذي أُطلق هذا العام (2022)، هو ذروة تطوُّر العِلم والتكنولوجيا، الذي تُسهم صوره بتطوُّر فيزياء الفلك.
يُمكن القول إذاً إنّ العِلم اليوم هو في الواقع عِلم تكنولوجي، تدعمه المؤسّسات العلميّة العامّة أو المستقلّة أو الخاصّة، كما في حال الشركات الكبيرة، لأسبابٍ علميّة واقتصاديّة وعسكريّة وسياسيّة أيضاً، وإن كان الاقتصادي والعسكري هُما المحرّكَيْن الأقوى في الغالب. فالأوّل يبحث عن أسواقٍ أوسع، والثاني عن أسلحة أكثر فاعليّة.
يَضعنا تطوُّر العِلم التكنولوجي السريع أمام أزماتٍ لا سابق لها. فالطّاقة النوويّة، السلميّة منها والعسكريّة، تجعل المُجتمعات الإنسانيّة أمام خطر مُحدق، وبخاصّة في ظروفٍ سياسيّة قلقة يعيشها العالَم منذ الحرب الباردة وحتّى اليوم. فمحطّتا تشرنوبيل (في الاتّحاد السوفييتيّ السابق) وفوكوشيما اليابانيّة لهما آثارٌ مُقلقة باقية في الذاكرة. كما أنّ التطوُّر الكبير في عِلم الوراثة وتطبيقاته التكنولوجيّة يَضعنا إزاء أسئلة بلا إجابات واضحة. فهل إجراء بحوث على الأجنّة والتغيير في مورثاتها لا يمثّل خطورة على النّوع البشري؟ وهل التبرُّع بالحيوانات المنويّة لنساء يردْن الإنجاب، لرغبتهنّ الخاصّة أو لأنّ أزواجهنّ لا يملكون ذلك، هو أمر مقبول لا خطورة كامنة فيه؟ ( كما في حالة الطبيب النسائي الأميركي دونالد كولن الذي تبرَّع لبعض مريضاته بحيواناته المنويّة، ما نَشأ عنه عشرات الأخوة والأخوات في رقعةٍ جغرافيّة محدودة بكلّ ما يُثيره ذلك من احتمالاتٍ سيّئة).
ومن بين فروع العِلم التكنولوجي الحاليّة التي تُثير قضايا كبيرة في جوانب مُختلفة اجتماعيّة وسياسيّة وتضع الإنسان أمام تساؤلاتٍ عمّا سيؤول إليه مستقبله أو كرامته على الأقلّ، من دون الإقلال طبعاً من جوانبها المفيدة وهي عظيمة وكثيرة، هي علوم وتكنولوجيا السيبرانيّة من اتّصالات ومعلومات وآلات "ذكيّة" لها أن تكون ذاتيّة القيادة والحركة.
ففي هذا المجال، إذا تركنا جانباً آثارَ مراقبة الأفراد وانتهاك حريّاتهم التي تولّدها هذه التكنولوجيا، يُمكن النّظر في قضيّة البيانات الضخمة، التي عند ربطها بعضها ببعض تنجم عنها معلومات هائلة، وبخاصّة عند توفُّر مكوّن الذكاء الصناعي في اشتقاق هذه المعلومات. فإدارات بعض الشركات الكبيرة اليوم مثلاً لا تستطيع مُنافَسة الذكاء الصناعي في اتّخاذ القرارات التي تُبنى على كمّياتٍ هائلة جدّاً من البيانات والمعلومات المخزَّنة في حواسيب كبيرة، بما يَجعل مجالس هذه الشركات حبيسة ما "يقترحه" حاسوبها الذي لا يُمكن مجاراته في قدرة سبر كميّات البيانات الهائلة.
المُثير للإعجاب والقلق في الذكاء الاصطناعي هو قدرته على التعلُّم الذاتي من الحالات التي يتعرَّض لها وسرعة الحواسيب التي يستخدمها في الوصول إلى نتائجه، ما يجعله يتفوَّق على الإنسان في كثيرٍ من المجالات كما في مُعالجة بعض الأمراض المدروسة جيّداً، كبعض أمراض السرطان مثلاً، وتشخيصها ومُعالجتها. فقد قدَّم الذكاءُ الصناعي في هذا المجال مساعدةً كبيرة وكان في الكثير من الحالات أكثر دقّة من الطبيب. وهذه من التطبيقات الحسنة مبدئيّاً.
تطوَّر هذا الذكاء إلى حدٍّ جَعَلَهُ مُستخدَماً في الطائرات المسيَّرة ذاتيّاً (الدرون والروبوت القاتل)، التي لها أن تعمل في مناطق جغرافيّة محدَّدة، وأن تَجمع معلومات كبيرة من الهواتف الجوّالة في منطقة عملها، بحيث تتقاطع هذه المعلومات مع بعضها ومع معلومات مخزَّنة فيها لتُقرِّر إن كان صاحب جوّال من الجوّالات التي تُلتقط مكالماتها يُخطِّط لفعلٍ إجرامي أو لا، ولها أن تتصرّف أيضاً بإطلاقها النار عليه. وهذه من نوع التطبيقات المُثيرة للقلق.
هذه المسائل، وغيرها كثير، تضعنا أمام تساؤلات عما ستؤول إليه المُجتمعات الإنسانيّة إن تُركَ العلم التكنولوجي، وبخاصّة منتجاته، بلا رقيبٍ أو حسيب، وبخاصّة إذا ما أخذنا بالاعتبار أنّنا لا نزال في أوّل الطريق وأنّ المستقبل مفتوح على كلّ الاحتمالات. فمعارفنا في آليّات عمل الدماغ هي في تطوُّرٍ مُستمرّ، وكذلك التقدُّم في علوم الحاسوب وفي تكنولوجيا الحواسيب التي تُنتِج حواسيب بسرعاتٍ متزايدة، وخصوصاً إذا نجحنا يوماً، وهو لا يبدو بعيداً، في الوصول إلى الحاسوب الكمومي. هذا كلّه يمكن أن يَجعل من الذكاء الصناعي حقيقةً لها أن تُغيّر الكثير، بسبب قدرته على التعلُّم الذاتي وتعلّمه تفاصيل صغيرة جدّاً عبر خوارزميّات التعلُّم العميق؛ فإذا أُضيف إلى ذلك ذاتيّة التصرُّف، فهنا قد يقع ما لا نرغب فيه أبداً.
كيف لنا مُواجهة ذلك إذاً؟ يُمكن أن يكون ذلك على محورَيْن. أوّلاً يجب أن تتدخّل المُجتمعات في البحث العلمي وموضوعاته وإقرار ما يُمكن أن يُبحث فيه وما لا يُمكن. فهل يُمكن إجراء بحوثٍ علميّة على الجنين الإنساني نفسه، أي إجراء تجارب عليه مهما كان نوعها، بما قد يُعرِّض الجنين للخطر، أو يؤدّي إلى تغيُّراتٍ فيه لا نعرف مدى خطورتها المستقبليّة (حَكمتِ الصين بسجْنِ الباحث الصيني هي جيونكي الذي قام بتغيير مورثات جنين توأم ليكون مُقاوِماً للإيدز). أجابت معظم المُجتمعات بالنفي عبر مجتمعاتها المدنيّة وجامعاتها ومفكّريها. أي أنّ على المُجتمعات التدخُّل في القرار، وعلى المخابر والباحثين إعلام مُجتمعاتها بأبحاثها ونتائجها بصورةٍ واضحة لا لبسَ فيها.
ثانياً، يكون التدخُّل عبر لجانٍ وطنيّة وعالميّة مختصّة، يُشارك فيها مختصّون من جميع صنوف المعرفة تقريباً، من اللّاهوتيّين إلى الفلاسفة والمفكّرين والعلميّين من أهل الاختصاص المعنيّ، وظيفتها دراسة الجوانب المُختلفة لنتائج الأبحاث المُمكنة في موضوعٍ ما، عِلم الوراثة وهندستها مثلاً، على قاعدة أخلاقيّاتيّة، وتقرّر في ما إذا كان أمرٌ ما مُمكناً أو لا. فالموت الرحيم مثلاً لا يقرِّره الشخصُ المَعنيّ أو أسرته فقط، وإنّما هيئاتٌ مختصّة تمنعه أو تُحدِّد ضوابطه. والذكاء الصناعي يُمكن أن يكون مُفيداً جدّاً في تطبيقاتٍ كثيرة وخطراً جدّاً في تطبيقاتٍ أخرى. لذا تقوم هيئاتٌ خاصّة بتأطير استخداماته، على أساس أن يكون للإنسان عموماً السيطرة عليه دائماً.
وما الأخلاقيّات إلّا الأخلاق في أساسها، أي أنّها معنيَّة بالأفعال التي نقوم بها بنيّة الخير واستجابةً للقيَم الإنسانيّة، ولكنّها تُضيف إليها مكوّناً آخرَ يتمثّل بأنّ هذه الأفعال يجب أن تكون مقبولة من الجميع على أساسٍ عقلاني. فمُساعدة الملهوف هي من الأخلاق. أمّا الإجهاض مثلاً فيُمكن قبوله أو رفضه بحسب السياق. والمُجتمعات التي تقبله لا تفعل ذلك كيفما اتّفق، وإنّما بشروطٍ وَضَعَها أطبّاء ورجال دين وفلاسفة وعُلماء اجتماع، ولا يكون إلّا بتوافُر هذه الشروط مُجتمعةً.
ولتحديد المُمكن من غيره في نمط المسائل التي تحدَّثنا عنها، يُمكن الاستفادة ممّا قدَّمته الفلسفة على مرِّ قرونٍ عديدة. بدءاً من البوذيّة والفلسفة الإغريقيّة، ثمّ فلسفة عصر الأنوار الأوروبي مُمثّلةً بالألماني كانط ومبدأه في الواجب الأخلاقي العقلاني، ثمّ الفلاسفة البريطانيّون الذين طوَّروا فلسفةَ النفعيّة والنفعيّة العقلانيّة، وانتهاءً بآخر مستجدّات فلسفة الأخلاقيّات عبر الألماني هابرماس، الذي دعا إلى احترامِ معايير محدَّدة تهدف إلى بناء أخلاقيّاتٍ تقوم على الحوار، مُعترفةً بأنّ لكلّ مجالٍ قدرةً على التبرير والتفسير داخل حدوده الخاصّة من دون الادّعاء بالتعميم، وهذا يُتيح التفاهُم بين مختلف مجالات المعرفة والمصالح المتعدّدة. وبناء كلّ ذلك يكون بالتأكيد على العلاقة بين العقلانيّة والشرعيّة، وبوضع الشروط اللّازمة للاتّفاق على ما هو ضروري عمليّاً وما هو مُمكن موضوعيّاً.
خلاصة القول هي ضرورة حضور الأخلاقيّات لضبْط مُنتجات العِلم التكنولوجي بواسطة المُجتمع الإنساني مُستعيناً بالأخلاقيّات، وبخاصّة عبر الحوار العقلاني الذي سيُفضي إلى وضْع ضوابط للبحث العلمي التكنولوجي ومُنتجاته.
* مؤسسة الفكر العربي