2023-06-25

إشكاليات الذكاء الاصطناعي والتكنولوجيا الحيوية في السياسة العالمية



د. سلام الربضي

 

إذا كانت الحرب الروسية الأوكرانية هي الحدث الأهم الذي سيطر على عام 2022، لكن لعل الدور الحاسم للاعتماد على أسلحة الذكاء الاصطناعي في هذه الحرب سيثير العديد من الإشكاليات المستقبلية المتعلقة بواقع العلاقات الدولية ومستقبل البشرية. وغني عن البيان أن الذكاء الاصطناعي وثورة التكنولوجيا الحيوية سيكون لهما آثار سياسية وأخلاقية جذرية خطيرة للغاية في جميع القطاعات الاقتصادية والأمنية والقانونية والثقافية والبيئية، ناهيك عن المخاوف بشأن القدرة على التلاعب بالطبيعة البشرية. وانطلاقاً من ذلك، تثير هذه القضايا الكثير من الإشكاليات الإستراتيجية على مستوى العلاقات الدولية، والتي يمكن التعبير عنها من خلال طرح التساؤلات التالية:

1-       ما هي الاستراتيجيات الأخلاقية التي من المفترض أن تلتزم بها خوارزميات الذكاء الاصطناعي وثورة التكنولوجيا الحيوية؟ ما مدى القلق من احتمال استخدام أسلحة الرياضيات لتحقيق أهداف سياسية قذرة؟

2-       إلى أي مدى يمكن وضع قوانين استباقية قادرة على الحد من هذه الانعكاسات والتصدي لها؟ لماذا هذا التباطؤ العالمي في وضع معايير صارمة للسيطرة على هذه التطورات؟ هل يتطلب هذا الواقع المستقبلي إنشاء دستور أخلاقي عالمي على غرار الإعلان العالمي لحقوق الإنسان؟

3-       هل هناك رؤية سياسية على مستوى العلاقات الدولية قادرة على مواجهة هذه التحديات الاستراتيجية؟

 

يجب أن نعترف بحقيقة أن تحديات الذكاء الاصطناعي وثورة التكنولوجيا الحيوية، بما لها من آثار سياسية وثقافية وأمنية، نادرًا ما تتم دراستها بشكل استراتيجي. وبناء على ذلك، هناك حاجة ملحة لإعادة النظر في هذا الواقع وفق منهج نقدي قائم على رؤية أخلاقية وثقافية وسياسية وأمنية، والتي يمكن تأطيرها وفقاً للإشكاليات التالية:

1-       إشكالية الأمن السيبراني وحروب الفضاء.

2-       إشكالية التحيز الخوارزمي والأمن المجتمعي.

3-       إشكالية معايير مفهوم العدالة الحسابية والمعضلات الثقافية.

4-       إشكالية الحوسبة العاطفية وأتمتة الطبيعة البشرية.

5-       إشكالية الحلول التقنية (النمذجة) لتغير المناخ.

6-       إشكالية الحروب الجيولوجية وهندسة المناخ المستقبلية (أسلحة المناخ).

7-       إشكالية أخلاقية وسياسية للتكنولوجيا الحيوية (ثورة التكنولوجيا الحيوية).

8-       إشكالية الحوكمة والمساءلة والرقابة المتعلقة بالتكنولوجيا.

9-       إشكالية هالة الموضوعية التي تضفيها ثقافة اليوم على الخوارزميات والعلوم.

وبناء على تلك الإشكاليات ستواجه العلاقات الدولية الكثيرمن الجدليات المتعلقة بكيفية تغيير تلك التقنيات لواقع السياسة والمجتمع وحتى الطبيعة البشرية. وعلية من الواضح أن جميع النقاشات السياسية في المستقبل سوف تتمحور حول العلاقة الإشكالية بين السياسة والعلم. إنها العلاقة التي يمكن التعبير عنها من خلال السؤال التالي:

 

إلى أي مدى يجب أن يتم توجيه المجتمعات والتحكم فيها بواسطة الذكاء الاصطناعي وثورة التكنولوجيا الحيوية؟وبأي شروط؟

 

في هذا السياق، وعلى الرغم من التعقيدات التي ستواجه إشكالية العلاقة بين العلم والسياسة، إلا أن جدلية تأثير العلم على الطبيعة البشرية ستبقى القضية الأكثر إشكالية. وعليه فالسؤال هو:

 

ماذا لو لم يعد التطور البيولوجي الطبيعي للبشر ضرورياً على الإطلاق؟

 

 حتماً، هناك العديد من علامات الاستفهام فيما يتعلق بالمخاوف والشكوك المحيطة بتطورات الذكاء الاصطناعي والروبوتات والتقنيات الحيوية، حيث يبدو أنه لم يعد هناك أي ارتباط بيولوجي بين هذه التطورات. لذا فإن إحدى القضايا المستقبلية التي ستنشأ في مجال العلوم الإنسانية هي إشكالية طبيعة علاقة الإنسان بالذكاء الاصطناعي وإمكانية تفوقه عليه ، ناهيك عن الجدليات الكثيرة بين علماء الإنسانيات وعلماء الأحياء وعلماء الأعصاب. ومنطقياً سيؤدي هذا الواقع إلى طرح عدة إشكاليات في العلاقات الدولية حول الحتمية التكنولوجية:

1-       هل هناك أنساق انتقاء جديدة لأن الروبوتات والسلوكيات البيولوجية تتحكم في مصير البشرية أكثر من الجينات؟

2-       كيف يمكن تناول هذه الإنساق  نظرياً وعملياً على المستوى السياسي؟

3-       ما هي القيم الثقافية والأخلاقية التي من المفترض أن يلتزم بها الذكاء الاصطناعي وثورة التكنولوجيا الحيوية؟ من سيقرر ذلك؟

بناءً على هذه الإشكاليات المستقبلية ومع تشابك الاعتبارات العلمية مع المصالح التجارية، أصبح من الضروري على المستوى السياسي والأخلاقي أن تتدخل الدول. فعملياً كان هنالك سابقاً الكثير عدد من التقنيات غير الأخلاقية التي تم وضعها تحت المراقبة السياسية على المستوى العالمي. قد تكون محاولة منع انتشار أسلحة الدمار الشامل أو وضع ضوابط صارمة على تجارب الاستنساخ البشري خير دليل على إمكانية السيطرة. وحتماً هذا يتطلب تبني رؤية حديثة معنية بوضع قوانين ومعاهدات واضحة لا لبس فيها فيما يتعلق بمواجهة هذه الإشكاليات، خاصة على مستوى القانون الجنائي الدولي. على سبيل المثال، يجب تعديل النظام الأساسي للمحكمة الجنائية الدولية لملاءمة هذه المخاطر والتحديات كنوع من الأمن العالمي الاستباقي، بحيث يتم توسيع اختصاص المحكمة ليشمل الجرائم المستقبلية التي تهدد مصير الإنسانية وتتعلق بـ القضايا التالية:

 

-          ثورة التكنولوجيا الحيوية.

-          تغير المناخ.

-          الذكاء الاصطناعي والحوسبة العاطفية.

 

يتضح من خلال تتبع سياق تطور العلاقات الدولية والقانون الجنائي الدولي على المستويين النظري والعملي ، أنها لا تواكب هذه الأنماط العالمية الجديدة. فمع وجود مفاهيم سياسية فضفاضة وغامضة تبرز الحاجة إلى تبني مبدأ تحمل المسئولية الجنائية بشكل صريح ورادع في ظل الغموض الاستفزازي المصاحب للتكنولوجيا. لذلك، هناك علامات استفهام وشكوك حقيقية وواقعية حول ما إذا كان التطور البيولوجي الطبيعي للإنسان لم يعد ضرورياً على الإطلاق، وذلك نتيجة لتطورات الذكاء الاصطناعي وثورة التكنولوجيا الحيوية. ومن هنا فإن حقيقة أن إشكالية مسألة التناقض بين مستقبل الذكاء الاصطناعي وثورة التكنولوجيا الحيوية مع الطبيعة البشرية ستفرض نفسها حتماً على الساحة السياسية والأخلاقية. هنا ، يجب طرح الإشكاليات التالية:

 

1-       هل هناك حاجة سياسية ملحة لمعرفة الظروف البيولوجية الطبيعية للوجود البشري؟

2-       هل واقع إشكالية التكنولوجيا يتطلب البحث في طبيعة السياسة أو سياسة الطبيعة؟

باختصار، في السنوات القليلة المقبلة، من المرجح أن يكون لنمط التحولات التكنولوجية المتعلقة بالذكاء الاصطناعي والروبوتات والتكنولوجيا الحيوية وإنترنت الأشياء تأثير كبير على توازن القوى في السياسة العالمية، مما سيزيد من اعتماد السياسات لتأميم الابتكارات التكنولوجية كمجالات استراتيجية وجزء لا يتجزأ من الأمن البيولوجي والقومي والسيبراني للدول. لذا فإن هذا النسق يتطلب على مستوى العلاقات الدولية طرح التساؤل التالي:

 

هل يجب أن نعرف ثقافة وأفكار العلماء في الذكاء الاصطناعي والطب الحيوي قبل دراسة القادة السياسيين لفهم الواقع الاستراتيجي للسياسة العالمية والعلاقات الدولية ومستقبل البشرية؟


For communication and cooperation

يمكن التواصل والتعاون مع الباحث والمؤلف سلام الربضي عبر الايميل
jordani_alrabadi@hotmail.com