كتنولوجيات الذكاء الاصطناعي وحقل العلاقات الدولية: هل نحتاج إلى أطر تحليلية جديدة؟ ***

Ingvild Bode إنغفيلد بود | ** Translated by Adel Zeggagh ترجمة عادل زقاغ |

الملخّص

تستقطب تكنولوجيات الذكاء الاصطناعي اهتمامًا متزايدًا لدى باحثي العلاقات الدولية. ومن خلال مراجعة الأدبيات التي تناولت هذا الموضوع، تفحص إنغفيلد بود مدى استمرار هذه الأدبيات في استخدام الأطر التحليلية السائدة في الحقل، وإن كانت تعمل على تطويرها. وتخلص إلى أن الأدبيات الخاصة بالذكاء الاصطناعي في حقل العلاقات الدولية تمتد جذورها أعمق مما كان متصورًا، وهي تتمحور حول أربعة موضوعات أساسية: توازن القوى، والمعلومات المضللة، والحوكمة، والأخلاقيات. وعلى الرغم من أن معظم الأدبيات ذات الصلة بهذه الموضوعات يستند إلى تصورات مفهومية راسخة في حقل العلاقات الدولية، فإن ثمة ثلاثة موضوعات أخرى ناشئة تسهم في توسيع الأطر التحليلية الراسخة، هي: إعادة صياغة تصوراتنا المفهومية بشأن التكنولوجيا، وتجاوز أطروحة سباق التسلح في مجال الذكاء الاصطناعي، والكشف عن كل الفاعلين المعنيين بحوكمة الذكاء الاصطناعي في العلاقات الدولية. كلمات مفتاحية: الذكاء الاصطناعي، العلاقات الدولية.

AI Technologies and International Relations: Do We Need New Analytical Frameworks?

مقدمة

تزايدت أهمية دراسة تكنولوجيات الذكاء الاصطناعي في حقل العلاقات الدولية على نحو مطرد خلال العقد الثاني من الألفية الحالية، قبل أن تشهد طفرة ملحوظة في العقد الثالث منها. وقد أدى إطلاق نماذج الذكاء الاصطناعي التوليدي، مثل "تشات جي بي تي" ChatGPT، في تشرين الثاني/ نوفمبر 2022، إلى تعميق النقاشات الدولية القائمة، ودفع في اتجاه توسيع المبادرات الخاصة بحوكمة الذكاء الاصطناعي على المستويات العالمية والإقليمية والوطنية، لا سيما تلك المرتبطة بأخلاقياته، واستخدامه المسؤول، ومخاطره، وسلامة استخدامه. وعندما شرع حقل العلاقات الدولية في الاهتمام بهذه التكنولوجيات في مطلع الألفية، كان الاهتمام ينحصر أساسًا في قضيَّتَي الحرب والأمن بمعناهما الضيق. وبعبارة أخرى، انشغل الباحثون والمحللون آنذاك بالتطورات التكنولوجية في المجال العسكري، لا سيما أنظمة الأسلحة ذاتية التشغيل، التي ما إن تُفعّل حتى تصبح قادرة على "تعقّب الأهداف والتعرف إليها ومهاجمتها بقوة عنيفة من دون أي تدخل بشري إضافي" 1. ومع تنامي أهمية تكنولوجيات الذكاء الاصطناعي، اتسع نطاق الاهتمام ليتجاوز محور التركيز الأولي. فلم تعد هذه التقنيات، أو ما يرتبط بها مثل الأتمتة Automation والأنظمة المستقلة Autonomy، محصورة في الأبعاد التكتيكية - العملياتية لعملية الاستهداف، بل أصبحت أيضًا تؤدي أدوارًا أوسع. فالمفهوم المتداول في شأن "القتال بسرعة الآلة"، الذي كثيرًا ما يُستشهد به، لا يقتصر على قدرة الأنظمة القتالية على العمل من دون روابط اتصال وتحكم، وإنما يشمل أيضًا إدراك العديد من الجيوش أن الذكاء الاصطناعي يعد أداة لاتخاذ قرارات أسرع وأشد فاعلية عند معالجة كميات هائلة من البيانات  2. ومن ثمّ، يمكن توظيف تكنولوجيات الذكاء الاصطناعي في "مهمات الدعم" ضمن عمليات أوسع لصنع القرارات العسكرية (التي يُشار إليها عادةً بمصطلح "دعم القرار.)" وتشمل هذه المهمات: فرز البيانات، وانتقاء المعلومات وتجميعها من مصادر متعددة، والتعرّف إلى الأنماط، واستخلاص النتائج. ويمكن أن تُستخَدَم أنظمة دعم القرار هذه في الوصف والتحليل والتنبؤ واقتراح التوجيهات المناسبة  3. وقد حدد تقرير أصدره معهد الأمم المتحدة لبحوث نزع السلاح عام 2023 ما لا يقلّ عن ستة مجالات عسكرية رئيسة معنية بتطبيقات تكنولوجيات الذكاء الاصطناعي؛ هي: القيادة والسيطرة، والخدمات اللوجستية، وإدارة المعلومات، ورعاية المصابين، والتدريب، والفضاء السيبراني  4. لذلك، من المهم استحضار هذا الحيز الأوسع عند التفكير في موقع الذكاء الاصطناعي ضمن سياق العلاقات الدولية. أقدم فيما يلي قراءتي لطريقة تناول حقل العلاقات الدولية تكنولوجيات الذكاء الاصطناعي، وذلك من خلال قسَميَن مترابَطيَن. أستعرض في القسم الأول حال حقل الأبحاث في موضوع الذكاء الاصطناعي ضمن حقل العلاقات الدولية، وذلك عبر أربعة موضوعات كبرى هي: توازن القوى، والحوكمة، والمعلومات المضللة، والبعد الأخلاقي. أما في القسم الثاني، فأحدد ثلاثة مسارات بحثية ناشئة تسعى إلى توسيع التفكير حول الذكاء الاصطناعي والعلاقات الدولية، وهي: "إعادة" النظر في مفهومنا عن التكنولوجيا، وتجاوز أطروحة سباق التسلح في الذكاء الاصطناعي، والكشف عن الفاعلين المعنيين بحوكمته. وفي كلا القسمين، أركّز على ما يقدمه الباحثون بشأن الحاجة إلى ابتكار مفاهيم جديدة يفرضها إدماج الذكاء الاصطناعي في حقل العلاقات الدولية. بعبارة أخرى، أفحص ما إذا كانت الإحاطة الكاملة بتكنولوجياته تستلزم من باحثي العلاقات الدولية تطوير أطر تحليلية أو مفاهيم وتصورات جديدة؛ ذلك أنه من الشائع أن يُبدي الباحثون ميلًاإلى طرح مفاهيم وتصورات مبتكرة، وهذا التوجه تغذّيه عوامل عديدة من بينها الاعتبارات المتعلقة بسياسة النشر الأكاديمي، غير أنّ الدافع إلى تقديم مفاهيم وتصورات جديدة يتجاوز مثل هذه الاعتبارات الذرائعية؛ فالتصورات التحليلية المستحدثة، أو تلك المستعارة من تخصصات أخرى والمطبّقة على دراسة الذكاء الاصطناعي في حقل العلاقات الدولية، يفترض بها أن تساعدنا في نهاية المطاف في فهم هذا التطور بصورة أوضح، وأن تكشف لنا جوانب لم نكن نراها من قبل، وبذلك تسهم في تعزيز فهمنا الجماعي لدلالات الذكاء الاصطناعي وأبعاده. قبل ذلك، سأتوقف عند "الذكاء الاصطناعي" بوصفه مصطلحًا. فقد أعرب العديد من الباحثين عن مخاوفهم من التهويل المثار حول

  1. ICRC, "ICRC Position on Autonomous Weapon Systems," 12/5/2021, accessed on 10/6/2024, at: https://acr.ps/1L9BPwE
  2. Michael C Horowitz, "When Speed Kills: Lethal Autonomous Weapon Systems, Deterrence and Stability," Journal of Strategic Studies , vol. 42, no. 6
  3. Geneva Academy & ICRC, "Artificial Intelligence and Related Technologies in Military Decision-Making on the Use of Force in Armed Conflicts: Current Developments and Potential Implications1," (March 2024), p. 9. 4  Sarah Grand-Clément, Artificial Intelligence Beyond Weapons: Application and Impact of AI in the Military Domain (Geneva: United Nations Institute for Disarmament Research - UNIDIR. 2023), at: https://acr.ps/1L9BPzV
  4. (September 2019), p. 769; Frank Sauer, "The Military Rationale for AI," in: Niklas Schörnig & Thomas Reinhold (eds), Armament, Arms Control and Artificial Intelligence (Cham: Springer Nature, 2022), pp. 31–33.

هذا المصطلح، والحاجة إلى إزالة الغموض عنه 5. وأنا أتبنّى هنا تعريفًا فضفاضًا اقترحه أحد علماء الحاسوب، وهو: "محاولة إنشاء آلات أو أشياء تستطيع أن تفعل أكثر مما بُرمجت على فعله" 6. وعلى الرغم من أنه غالبًا ما يُختزل في التلقين الآلي  7، فإنه ليس سوى التقنية الأبرز لا التقنية الوحيدة؛ إذ إن الأنظمة التي تحظى بأكبر قدر من الاهتمام العمومي تشمل النماذج اللغوية الضخمة. 8Large Language Models, LLMs وأشكال الرؤية الحاسوبية وقد يوحي استخدام مصطلح "الذكاء الاصطناعي" بأن ما نشهده اليوم يمثل قطيعة مع تكنولوجيات أقدم مثل الأتمتة والأنظمة المستقلة  9. ومن هنا تبرز الحاجة إلى تتبّع المسار التاريخي لهذا التطور التكنولوجي من أجل فهم التهويل الحاصل بشأنه ووضعه في سياقه الصحيح.

أولًا: الذكاء الاصطناعي في العلاقات الدولية: حالة الحقل المعرفي

تركّزت أبحاث العلاقات الدولية حول الذكاء الاصطناعي في أربعة محاور أساسية: توازن القوى، والحوكمة، والمعلومات المضللة، والبعد الأخلاقي. وسأعرض فيما يلي الخطوط العريضة التي قد تتقاطع أحيانًا مع اعتماد الأدبيات على التصورات النظرية والتحليلية الراسخة في الحقل أو الانفتاح على توسيعها.

1. توازن القوى

ينصب المحور الأول على مقاربة الذكاء الاصطناعي من منظور الدراسات الاستراتيجية؛ إذ تتركز الأسئلة البحثية على الآثار التي قد تترتب على توازن القوى من جراء صعود دولة تقود مجال الذكاء الاصطناعي، وعلى ما إذا كانت مساعي التحكم فيه، في ظل عودة التنافس الجيوسياسي بين القوى الكبرى خاصة الصين والولايات المتحدة الأميركية، ستقود إلى منافسة أمنية على هذه التكنولوجيات، التي "ُيُعّب رعنها أحيانًا بمصطلح "سباق التسلح في الذكاء الاصطناعي 10. بعبارة أخرى، يدرس الباحثون الأثر المحتمل لمساعي تطوير الذكاء الاصطناعي أو السيطرة عليه أو توظيفه في الاستقرار الاستراتيجي القائم والمستقبلي  11. وتنطلق مثل هذه الدراسات غالبًا من فكرة أساسية مفادها أن الذكاء الاصطناعي يشكّل عنصرًا محوريًا في التفكير بشأن توازن القوى، ليس بسبب تأثيره في القدرات العسكرية فحسب، بل أيضًا لتأثيره في قدرة الدول على توظيف قوتها إقليميًا ودوليًا؛ أي في كيفية بناء مجالات نفوذها وتوسيعها  12. ويرتبط بذلك تصور آخر فحواه أنه كلما تأثر مستوى القوة أساسًا بالذكاء الاصطناعي، زاد ذلك من قدرة الدولة على ممارسة النفوذ السياسي والاقتصادي والعسكري. ومن هنا يتبلور الطرح القائل إن المنافسة الأمنية حوله تكاد تكون نتيجة حتمية  13. وبما أن هذه التكنولوجيا قادرة على التأثير في توازن القوى، فمن المرجّح أن تنعكس على طبيعة التنافس الاستراتيجي بين القوى الكبرى، وقد تؤدي إلى تفاقم حالة عدم الاستقرار. وهكذا، ثمة منافسة أمنية حول الذكاء الاصطناعي سواء في معناها الواسع أو في معناها الضيق، نظرًا إلى ما قد تتيحه هذه التكنولوجيا من تأثير مباشر في القدرات والقوة العسكرية تحديدًا. وتعيد هذه المقاربة إلى الأذهان معضلة الأمن كما صاغها روبرت جيرفس حين أكد أن "العديد من الوسائل التي تحاول الدولة من خلالها تعزيز أمنها قد تؤدي في الوقت نفسه إلى تقويض أمن الآخرين" 14.

  1. Meredith Whittaker, "The Steep Cost of Capture," Interactions , vol. 28, no. 6 (2021), pp. 50–55; Emily Tucker, "Artifice and Intelligence," Tech Policy Press , 17/3/2022, accessed on 12/6/2023, at: https://acr.ps/1L9BP7a
  2. Timnit Gebru, "Don't Fall for the AI Hype," Tech Won't Save Us, 19/1/2023, accessed on 1/9/2023, at: https://acr.ps/1L9BPJ3
  3. Stephane J Baele et al., "AI IR: Charting International Relations in the Age of Artificial Intelligence," International Studies Review , vol. 26, no. 2 (June 2024), p. 9; Horowitz, p. 769.
  4. 8  الرؤية الحاسوبية هي أحد فروع الذكاء الاصطناعي التي تمكّن الحواسيب من معالجة الصور والفيديوهات وفهم محتواها بصريًا، على نحو يشبه قدرة الإنسان على التعرّف إلى
  5. Ingvild Bode et al., "Prospects for the Global Governance of
  6. Kareem Ayoub & Kenneth Payne, "Strategy in the Age of Artificial Intelligence," Journal of Strategic Studies , vol. 39, no. 5–6 (September 2016), pp. 793–819; Lance Y. Hunter et al., "The Military Application of Artificial Intelligence Technology in the United States, China, and Russia and the Implications for Global Security," Defense & Security Analysis , vol. 39, no. 2 (April 2023), pp. 207–232.
  7. Jürgen Altmann & Frank Sauer, "Autonomous Weapon Systems and Strategic Stability," Survival , vol. 59, no. 5 (September 2017), pp. 117–142; James Johnson, "Artificial Intelligence, Drone Swarming and Escalation Risks in Future Warfare," RUSI Journal , vol. 165, no. 2 (February 2020), pp. 26–36; James Johnson, Artificial Intelligence and the Future of Warfare: The USA, China, and Strategic Stability (Manchester: Manchester University Press, 2021); Horowitz.
  8. Hunter et al., p. 209. 13  Paul Scharre, "Debunking the AI Arms Race Theory," Texas National Security Review , vol. 4, no. 3 (2021), pp. 121–132. 14  Robert Jervis, "Cooperation Under the Security Dilemma," World Politics , vol. 30, no. 2 (1978), p. 169.
  9. الأشياء والمشاهد. (المترجم)
  10. Autonomous Weapons: Comparing Chinese, Russian, and US Practices," Ethics and Information Technology , vol. 25, no. 1 (March 2023), p. 5.

يتجه تيار آخر في الدراسات الاستراتيجية، يتكون في الغالب من الباحثين المهتمين بالابتكار في المجال العسكري، إلى تبنّي موقف أكثر تشكيكًا حيال الأهمية الفعلية التي يحظى بها الذكاء الاصطناعي في مجال الأمن الدولي. وتتمحور حجج هذا الاتجاه حول أن الذكاء الاصطناعي ليس بتلك السمة الثورية التي نتصورها، أو أنه لا يوفّر مزايا عسكرية نوعية بالقدر الذي تقدمه بعض الأدبيات  15. تبّي ن هذه المراجعة الموجزة أن الأدبيات التي تتناول المستوى المفهومي في الدراسات الاستراتيجية تميل إلى الاعتماد أساسًا على مفاهيم راسخة ومهيمنة في الحقل، مثل تلك المستمدة من الواقعية البنيوية أو الدراسات الاستراتيجية في نطاقها الأوسع، مع إضافة بسيطة وهي إدماج الذكاء الاصطناعي ضمن تحليلاتها. وُيلُاحظ أن هذا التوجه يقوم على مقاربتين أساسيتين للتكنولوجيا؛ وهما: المقاربة الأداتية Instrumental والمقاربة الجوهرانية/ الحتمية Substantive/Determinist16. وتنظر المقاربة الأداتية إلى التكنولوجيا بوصفها أدوات "محايدة" يمكن أن يوظفها الفاعلون، مثل الدول، لتحقيق أهدافهم، لكنها في نهاية المطاف تُعد محدودة القيمة من ناحية الأهمية التحليلية. أما المقاربة الجوهرانية أو الحتمية فترى أن التكنولوجيا تتبع منطقًا خاصًا ومسارًا تطوريًا مستقلًالا يملك الفاعلون القدرة على التأثير فيه، بل يقتصر دورهم على التكيف معه أو الاستجابة له. وبوجه عام، لا يبدو أن الدراسات الاستراتيجية ترى ضرورة ملحّة لتطوير مفاهيم جديدة خاصة بالذكاء الاصطناعي؛ إذ تعتبر أن المفاهيم القائمة لا تزال كافية وتؤدي الغرض التحليلي المطلوب.

2. حوكمة الذكاء الاصطناعي

يهتم المحور الثاني بالنقاش المتنامي بشأن حوكمة الذكاء الاصطناعي، وهو نقاش يجمع بين فقهاء القانون وباحثي الحوكمة العالمية وباحثي المعايير Norms. وتتركز الأسئلة البحثية هنا حول كيفية تنظيم الذكاء الاصطناعي، والعقبات التي تستمر في تعطيل مساعي حوكمته على المستوَييَن الدولي والإقليمي، وما الذي قد يحدث في حال غياب أشكاٍلٍ من الحوكمة الهرمية، من أعلى إلى أسفل 17. خلال الأعوام الخمسة إلى العشرة الماضية، شهدنا تناميًا ملحوظًا للمبادرات الخاصة بحوكمة الذكاء الاصطناعي، حتى أصبح من الممكن القول إن معظم المنظمات الدولية والإقليمية باتت تمتلك مبادراتها الخاصة في هذا المجال. ومن أبرز الأمثلة: قانون الذكاء الاصطناعي للاتحاد الأوروبي)2023( 18، والمسودة الخاصة باستراتيجية الاتحاد الأفريقي للذكاء الاصطناعي)2024( 19، وتوصية منظمة التعاون والتنمية الاقتصادية بشأن الذكاء الاصطناعي)2019( 20، واللجنة الاستشارية رفيعة المستوى للأمم المتحدة حول الذكاء الاصطناعي 2023(– لا تزال أعمالها جارية) 21. وقد انصرفت بعض الأدبيات في هذا الاتجاه إلى تلخيص هذه المبادرات وتصنيفها  22، غير أن الوتيرة المتسارعة التي يشهدها ظهور المزيد من المبادرات من شأنها أن تجعل مواكبتها على نحو كامل أمرًا صعبًا. ويكشف هذا التطور عن إقرار متزايد بالحاجة إلى حوكمة عالمية للذكاء الاصطناعي. فعلى الرغم من الاختلافات بين الدول والمنظمات

  1. Antonio Calcara et al., "Why Drones Have Not Revolutionized War: The Enduring Hider-Finder Competition in Air Warfare," International Security , vol. 46, no. 4 (April 2022), pp. 130–171.
  2. Andrew Feenberg, Critical Theory of Technology (Oxford: Oxford University Press, 1991); Richard Wyn Jones, Security, Strategy and Critical Theory (London: Lynne Rienner, 1999).
  3. Michael Veale, Kira Matus & Robert Gorwa, "AI and Global Governance: Modalities, Rationales, Tensions," Annual Review of Law and Social Science , vol. 19 (2023), pp. 1–30; Bode et al., "Prospects for the Global Governance of Autonomous Weapons;" Jonas Tallberg et al., "The Global Governance of Artificial Intelligence: Next Steps for Empirical and Normative Research," International Studies Review , vol. 25, no. 3 (September 2023); Denise Garcia, Common Good Governance in the Age of Military Artificial Intelligence (Oxford: Oxford University Press, 2023); Matthijs M. Maas, "Innovation-Proof Governance for Military AI? How I Learned to Stop Worrying and Love the Bot," Journal of International Humanitarian Legal Studies , vol. 10, no. 1 (2019), pp. 129–157.
  4. European Parliament, EU AI Act: First Regulation on Artificial Intelligence , 8/6/2023, accessed on 13/6/2024, at: https://acr.ps/1L9BPsV
  5. African Union, "African Ministers Adopt Landmark Continental Artificial Intelligence Strategy, African Digital Compact to drive Africa's Development and Inclusive Growth," Press Release , 17/6/2024, accessed on 18/6/2024, at: https://acr.ps/1L9BPPi
  6. OECD, "Recommendation of the Council on Artificial Intelligence," OECD Legal Instruments, 22/5/2019, accessed on 13/6/2024, at: https://acr.ps/1L9BPGR
  7. UN, Office for Digital and Emerging Technologies, "High-Level Advisory Body on Artificial Intelligence," accessed on 13/6/2024, at: https://acr.ps/1L9BPyF
  8. Allan Dafoe, "AI Governance: A Research Agenda," Centre for the Governance of AI, University of Oxford (August 2018), accessed on 13/6/2024, at: https://acr.ps/1L9BPDI; Matthijs Maas & José Jaime Villalobos, "International AI Institutions: A Literature Review of Models, Examples, and Proposals," AI Foundations Report , Legal Priorities Project (September 2023); Veale, Matus & Gorwa; Tallberg et al.

الدولية ما بين الحكوماتية، يسود توافق عام على أن القانون الدولي القائم غير كاٍفٍ لمواجهة تحديات هذه التكنولوجيا. غير أن الخلاف لا يزال قائمًا بشأن الشكل الأمثل الذي ينبغي أن تتخذه هذه الحوكمة. وحتى الآن، اقتصرت المبادرات التي أفرزت نتائج ملموسة على بعض البيانات أو المبادئ التوجيهية؛ أي إنها لا تزال تتحرك ضمن إطار ما يسمى بالقانون الدولي الناعم Law.Soft International ومن الملاحظ أن المبادئ الُمَُّتَفق عليها دوليًا في هذا المجال غالبًا ما تتسم بدرجة من الغموض. فعلى سبيل المثال، تنصّ توصية منظمة التعاون الاقتصادي والتنمية بشأن الذكاء الاصطناعي على مبادئ أساسية مثل المتانة Robustness والأمن والسلامة، مؤكدة أن "أنظمة الذكاء الاصطناعي ينبغي أن تكون متينة وآمنة طوال دورة حياتها، بحيث تعمل على نحو ملائم في ظروف الاستخدام العادي، أو الاستخدام المتوقع، أو الخاطئ، أو غيرها من الظروف السلبية، من دون أن تؤدي إلى مخاطر غير معقولة على السلامة و/ أو الأمن" 23. غير أن هذا المبدأ يبقي العديد من التساؤلات مفتوحة، مثل: كيف يمكن التمييز بين المخاطر المعقولة وغير المعقولة؟ وغالبًا ما تنطوي النصوص الُمَُّتَفق عليها دوليًا، بما في ذلك المعاهدات، على هذا النوع من الغموض البنّاء، بوصفه سمةً أساسية وقاعدةً للوصول في المقام الأول إلى توافق بشأن نص مشترك  24. غير أن ذلك يفتح أيضًا مج لًاواسعًا لتأويل النصوص عند تطبيقها وتنفيذ التدابير المختلفة التي تتضمنها. وفي سياق الذكاء الاصطناعي، قد يمثل هذا الغموض عائقًا خطيرًا أمام فاعلية حوكمته؛ إذ تكمن الأهمية الحقيقية في التفاصيل الدقيقة. وعلى الرغم من أن كثيرًا من المبادئ الأخلاقية للذكاء الاصطناعي تبدو مثالية على الورق – فمن ذا الذي يعارض مثلًافكرة "الذكاء الاصطناعي المسؤول"؟ – فإن الكيفية الدقيقة لتطبيقها عمليًا، وإمكانية تنسيق الجهود بين كيانات سياسية مختلفة في هذا المسعى، لا تزال أمورًا غير محسومة. بهذا، فإن الفجوة في مجال حوكمة الذكاء الاصطناعي تبقى قائمة ما لم يتحقق تقدم ملموس في اتجاه بناء إطار دولي أشد شمولًاوفاعليةً وقابلية للتنفيذ. وفي هذا السياق، انشغلت الأدبيات أيضًا ببحث ما يمكن أن يترتب على غياب هذا النمط الهرمي من الحوكمة، من أعلى إلى أسفل؛ إذ تُظهر النتائج أن المعايير – في تعريفها الأوسع بوصفها تصوراٍتٍ أو فهومًا لما هو ملائم وغير ملائم – Appropriateness تتشكل من خلال الكيفية التي يجري بها تصميم تكنولوجيات الذكاء الاصطناعي واستخدامها في منظومات الأسلحة، على سبيل المثال 25. وعند النظر في المفاهيم التي يوظفها هذا المحور من الأبحاث، تتبلور لدينا صورة مركبة؛ إذ يستند الباحثون إلى مفاهيم راسخة في حقل العلاقات الدولية، مثل الحوكمة العالمية والمعايير المرتبطة بها، لكنهم ينفتحون أيضًا على تصورات مفهومية جديدة لم تكن جزءًا من الموروث النظري للحقل، وذلك بغية فهم تكنولوجيات الذكاء الاصطناعي، وبخاصة عبر الاستفادة من دراسات العلوم والتكنولوجيا.Science and Technology Studies, STS

3. نشر المعلومات المضللة

يمثل المحور الثالث في أبحاث العلاقات الدولية تقاطعًا بين تكنولوجيات الذكاء الاصطناعي (وغيرها من التكنولوجيات الرقمية) وظاهرة انتشار المعلومات المضللة؛ أي "المعلومات التي تكون زائفة أو مضللة على نحو متعمد" 26. وتنصرف الأدبيات في هذا المجال إلى تحليل الحملات المنسّ قة للتضليل المعلوماتي التي تنفذها بعض الدول الأجنبية، وعلى رأسها روسيا، خاصة في سياق أنماط الحرب الهجينة التي تمزج بين الأدوات السيبرانية والوسائل العسكرية التقليدية  27. وفي نطاق أضيق، تتطرق هذه الأدبيات أيضًا إلى الصين 28، وإلى الفاعلين من غير الدول الذين يُنَظَر إليهم بوصفهم "تهديدًا رئيسًا للديمقراطيات الغربية وللمؤسسات الدولية التي قامت على أساسها" 29. وُيُحتمل أن يتعاظم هذا التهديد بفعل الذكاء الاصطناعي، بسبب ما تتيحه هذه التكنولوجيا من قدرات غير مسبوقة على نشر المعلومات

  1. OECD, "Recommendation of the Council on Artificial Intelligence."
  2. Michael Byers, "Still Agreeing to Disagree: International Security and Constructive Ambiguity," Journal on the Use of Force and International Law , vol. 8, no. 1 (2021), pp. 91–114; Antoine Rayroux, "Speaking EU Defence at
  3. Ingvild Bode, "Practice-Based and Public-Deliberative Normativity: Retaining Human Control over the Use of Force," European Journal of International Relations , vol. 29, no. 4 (2023), pp. 990–1016; Bode et al., "Prospects for the Global Governance of Autonomous Weapons."
  4. Caroline Jack, "Lexicon of Lies: Terms for Problematic Information," Data & Society Research Institute (September 2017), p. 3, accessed on 11/5/2025, at: https://acr.ps/1L9BP55
  5. Agnieszka Legucka & Robert Kupiecki, Disinformation, Narratives and Memory Politics in Russia and Belarus (Abingdon: Routledge, 2022); Rod Thornton & Marina Miron, "Towards the 'Third Revolution in Military Affairs': The Russian Military's Use of AI-Enabled Cyber Warfare," RUSI Journal , vol. 165, no. 3 (April 2020), pp. 12–21.
  6. David M. Beskow & Kathleen M. Carley, "Characterization and Comparison of Russian and Chinese Disinformation Campaigns," in: Kai Shu et al. (eds.), Disinformation, Misinformation, and Fake News in Social Media: Emerging Research Challenges and Opportunities (Cham: Springer International Publishing, 2020), pp. 63–81. 29  André W. M. Gerrits, "Disinformation in International Relations: How Important Is It?" Security and Human Rights , vol. 29 (2018), p. 6.
  7. Home: Contentious Discourses and Constructive Ambiguity," Cooperation and Conflict , vol. 49, no. 3 (2014), pp. 386–405.

المضللة من ناحية الاتساع والعمق  30 وسرعة الوصول إلى أعداد هائلة من المستخدمين  31. وإلى جانب ذلك، قد تصعّب تكنولوجيات الذكاء الاصطناعي من مهمة التمييز بين نشر المعلومات المضللة على نحو متعمد Disinformation وانتشار المعلومات المضللة على نحو غير مقصود Misinformation؛ أي المواد التي لا تتعمد الخداع 32. وعلى الرغم من أن التلاعب بالإعلام ليس أمرًا جديدًا، فإن استخدام الذكاء الاصطناعي في إنتاج ما يُعرف بالتزييف العميق Deep Fakes يثير مخاوف خاصة؛ لأن هذه المنتجات تصبح أكثر واقعية، وُتُصنّع بسرعة وتكلفة زهيدة من خلال برمجيات متاحة للعامة  33؛ إذ يمكن حتى لغير المتخصصين الحصول على الأدوات البرمجية اللازمة وتوظيف البيانات المتاحة لإنتاج مواد مزيّفة تبدو واقعية إلى حد بعيد. وقد ينشر خصوم على صلة بالدول أو أفراد تحركهم دوافع سياسية مقاطَعَ مصطنعة تُظهر قادة منتخبين أو شخصيات عامة وهم يدلون بتصريحات مثيرة للفتنة أو يتصرفون بطريقة غير لائقة  34. ويحذر بعض الباحثين من أن ذلك قد يؤدي إلى تقويض ثقة الجمهور، والإضرار بالنقاشات العمومية، وربما التأثير في مسار الانتخابات  35. غير أن دراسات أخرى تشير إلى أن قياس الأثر الفعلي للتضليل أو التلاعب بالمعلومات، الناتجين من استخدام التكنولوجيا، يكاد يكون "مستحيلًافي معظم الأحيان" 36. تميل الأدبيات، في هذا الاتجاه، إلى البقاء ضمن إطار العلاقات الدولية بوصفه اختصاصًا، مع الاستفادة في الوقت نفسه، وبقدر ملحوظ، من إسهامات دراسات الإعلام والاتصال. ويعتمد جانب كبير من التفكير في هذا المجال على مفاهيم وأطروحات راسخة، لكنه يتضمن في الوقت ذاته قدرًا من التشكيك في الادعاء بأن الذكاء الاصطناعي يمثل قطيعة جذرية أو تحولًافريدًا من نوعه.

4. البعد الأخلاقي

يشمل المحور الرابع الاعتبارات والآثار الأخلاقية المترتبة على تكنولوجيات الذكاء الاصطناعي. ويتقاطع النقاش بشأن أخلاقيات هذه التكنولوجيات إلى حد ما مع المحور السابق، الخاص بالحوكمة، لكنه يثير أيضًا حوارًا أوسع بشأن أخلاقيات توظيفها في سياق العلاقات الدولية، وخاصة في المجال العسكري. وتتمحور الأسئلة المطروحة هنا حول ما يأتي: ما الذي ينبغي فعله بهذه التكنولوجيات؟ وأي المهمات يمكن مشاركتها معها أو "تفويضها" إليها؟ وما المخاطر التي ينطوي عليها استخدامها؟ وكيف يمكن ضبطها والتحكم فيها؟ ويستند هذا النقاش إلى مفاهيم متعددة، مثل تنوع المفاهيم والتصورات بشأن الأخلاق، والكرامة الإنسانية، والفاعلية الأخلاقية 37. ويندرج تحت هذا المحور إنتاج أكاديمي واسع يصعب تلخيصه بسبب تعدد زوايا النظر وثرائها؛ إذ إن النقاش بشأن أخلاقيات الذكاء الاصطناعي لا يقتصر على حقل العلاقات الدولية فحسب، بل يمتد إلى مجالات أوسع بكثير. وبوجه عام، لا يعد المحور الرابع الأبرز في حقل العلاقات الدولية، غير أنه يظل مركزيًا؛ لأنه يلامس قضايا أساسية لا يمكن إغفالها عند التفكير في تداعيات الذكاء الاصطناعي. فعلى سبيل المثال، ومع تزايد انتشار هذه التكنولوجيات، تتجلى أشكال مختلفة من التفاعل بين الإنسان والآلة في حقول سياسية واجتماعية متعددة؛ ما يطرح أسئلة مثل: ما الذي يغيره ذلك في ممارسة الفاعلية؟ وكيف يحدث هذا التغيير؟  38 وتعني الفاعلية هنا القدرة على الاختيار واتخاذ القرار والتصرف بناءً عليه.

  1. Ibid., p. 19.
  2. Ibid.; Steven Feldstein, "The Consequences of Generative AI for Democracy, Governance and War," Survival , vol. 65, no. 5 (2023), pp. 117–142.
  3. Jack, p. 2.
  4. Robert Chesney & Danielle Citron, "Deepfakes and the New Disinformation War: The Coming Age of Post-Truth Geopolitics," Foreign
  5. Feldstein.
  6. Thomas Paterson & Lauren Hanley, "Political Warfare in the Digital Age: Cyber Subversion, Information Operations and 'Deep Fakes'," Australian Journal of International Affairs , vol. 74, no. 4 (July 2020), pp. 439–454.
  7. Gerrits, p. 8.
  8. Elke Schwarz, Death Machines: The Ethics of Violent Technologies (Manchester: Manchester University Press, 2019); Birigit Schippers, "Autonomous Weapons Systems and Ethics in International Relations," in: Birigit Schippers (ed.), The Routledge Handbook to Rethinking Ethics in International Relations (London: Routledge, 2020); Peter Asaro, "Autonomous Weapons and the Ethics of Artificial Intelligence," in: S. Matthew Liao (ed.), The Ethics of Artificial Intelligence (Oxford: Oxford University Press, 2020), pp. 1–20; Alexander Blanchard, Christopher Thomas & Mariarosaria Taddeo, "Ethical Governance of Artificial Intelligence for Defence: Normative Tradeoffs for Principle to Practice Guidance," AI & Society , vol. 40 (February 2024); Neil Renic & Elke Schwarz, "Crimes of Dispassion: Autonomous Weapons and the Moral Challenge of Systematic Killing," Ethics & International Affairs , vol. 37, no. 3 (Fall 2023), pp. 321–343. 38  Andreas Tsamados, Luciano Floridi & Mariarosaria Taddeo, "Human Control of AI Systems: From Supervision to Teaming," AI and Ethics , 28/5/2024, accessed on 13/6/2024, at: https://acr.ps/1L9BPdC; Ingvild Bode & Anna Nadibaidze, "Symposium on Military AI and the Law of Armed Conflict: Human-machine Interaction in the Military Domain and the Responsible AI Framework," Opinio Juris , 4/4/2024, accessed on 13/6/2024, at: https://acr.ps/1L9BPzN
  9. Affairs , vol. 98, no. 1 (2019), p. 147.

على صعيد المفاهيم والتصورات التحليلية السائدة، يستند الباحثون المهتمون بالبعد الأخلاقي إلى مجموعة واسعة من الحقول المعرفية التي تمتد من الفلسفة والأخلاقيات التطبيقية إلى النظرية السياسية وعلم النفس. وقياسًا بالمحاور الرئيسة الأخرى، يتركز الاهتمام هنا على التساؤل بوضوح عما إذا كانت المفاهيم "القديمة" لا تزال قادرة على القيام بالدور التحليلي المنوط بها.

ثانيًا: المسارات البحثية الناشئة

إلى جانب المحاور الأربعة الراسخة السابقة، برزت ثلاثة مسارات بحثية ناشئة تدفع التفكير في تكنولوجيات الذكاء الاصطناعي في حقل العلاقات الدولية نحو آفاق أوسع، وذلك بفضل اعتمادها على مفاهيم وتصورات تحليلية مبتكرة. 1. "إعادة" صوغ مفهومنا بشأن التكنولوجيا أول مسار بحثي أساسي ناشئ هو الدعوة إلى إعادة صوغ مفهومنا بشأن التكنولوجيا. ويرى الباحثون أن فهمًاأفضل لأهمية تكنولوجيات الذكاء الاصطناعي يتطلب تجاوز المقاربات الأداتية والجوهرانية/ الحتمية للتكنولوجيا، ويؤكدون أن تطورها لا يمكن النظر إليه بمعزل عن السياقات السياسية والاجتماعية، بل بوصفه جزءًا لا يتجزأ منها  39. بعبارة أخرى، التكنولوجيات هي كيانات اجتماعية، ويأتي هذا التوجه من دراسات العلوم والتكنولوجيا 40 التي ترسخت تدريجيًا في حقل العلاقات الدولية، لكنها حظيت بزخم أكبر في سياق دراسة الذكاء الاصطناعي. وقد استعرضُتُ بإيجاز في محاور سابقة بعضًا من الأبحاث التي سبق أن استخدمت الفهوم المستمدة من دراسات العلوم والتكنولوجيا، ومن بينها إسهاماتي التي تناولت إمكانية أن يصبح انتقاء البيانات والخيارات المتعلقة بالتصميم مصدرًا لإنتاج المعايير. لذلك، فإن (إعادة النظر في) مفهومنا بشأن التكنولوجيا بوصفها مسارًا بحثيًا ناشئًا يعزى إلى أن حقل العلاقات الدولية عانى طويلًامما يمكن تسميته بالمشكلة التكنولوجية  41. صحيح أن التكنولوجيا تُعدّ "متغيرًا" مهمًا في الدراسات الاستراتيجية، كما سبقت الإشارة إليه، لكن مفهَمَتها ظلت غير كافية. ويمكن القول إن الأجندة البحثية لدراسات الأمن النقدية تعد أحد أشكال التأصيل المفهومي الأوسع شمولًاللتكنولوجيا في حقل العلاقات الدولية، وذلك بفضل تركيزها على تحليل التفاعل بين الأمن والتكنولوجيا والثقافة  42؛ ما يجعل مسعى إعادة النظر في مفهومنا بشأن التكنولوجيا يرتبط مباشرة بهذا التقليد البحثي في مجال دراسة الذكاء الاصطناعي ضمن حقل العلاقات الدولية.

2. ما وراء سباق التسلح في الذكاء الاصطناعي

يتناول المسار البحثي الثاني بالنقد الفكرة القائلة إن سباق التسلح في الذكاء الاصطناعي هو "النتيجة الحتمية" أو الإطار المهيمن في التفكير بشأن موقع الذكاء الاصطناعي ضمن حقل العلاقات الدولية. يرى بعض الباحثين أن مصطلح "سباق التسلح في الذكاء الاصطناعي" غير مناسب، ويفضلون استخدام بدائل مثل "المنافسة على الذكاء الاصطناعي" أو "المنافسة الأمنية على الذكاء الاصطناعي" 43. غير أن اختلاف المصطلحات لا يفضي إلى تغيير جوهري في الأثر التحليلي. تتخذ انتقادات بعض الباحثين منحى أعمق؛ إذ تركز على النتائج المترتبة على تحوّل إطار سباق التسلّح في الذكاء الاصطناعي إلى أحد التصورات المهيمنة على مساعي فهم موقع هذه التكنولوجيا في الشؤون الدولية  44. ويشمل ذلك مشاريع بحثية جديدة، مثل المشروع الذي تقوده فيريتي هاردينغ حول الذكاء الاصطناعي والجيوسياسة، والذي يدرس الطريقة التي تسهم بها هذه المقاربة في تصاعد التوتر بين "القوى الكبرى"، وربما إلى سباق في مجال حوكمة الذكاء الاصطناعي [يدفع الأطراف إلى خفض معايير التنظيم والرقابة تدريجيًا وصولًاإلى الحد الأدنى الممكن؛ أي إلى ما يشبه الانحدار نحو أدنى مستويات الالتزام بالضوابط الدولية] 45. وتكمن الحجة هنا في أن اختزال التفكير في الذكاء الاصطناعي، ضمن حقل العلاقات الدولية، في صورة "سباق تسلح" يُغفل الإمكانات المتاحة للتعاون

  1. Marijn Hoijtink & Matthias Leese (eds.), Technology and Agency
  2. Wiebe E. Bijker & John Law (eds.), Shaping Technology/Building
  3. in International Relations (London: Routledge, 2019); Rocco Bellanova, Katja Lindskov Jakobsen & Linda Monsees, "Taking the Trouble: Science, Technology and Security Studies," Critical Studies on Security , vol. 8, no. 2 (2020), pp. 87–100; Rocco Bellanova et al., "Toward a Critique of Algorithmic Violence," International Political Sociology , vol. 15, no. 1 (March
  4. Columba Peoples, Justifying Ballistic Missile Defence: Technology, Security and Culture (Cambridge: Cambridge University Press, 2010), p. 2.
  5. Scharre. 44  Heather M. Roff, "The Frame Problem: The AI 'Arms Race' isn't One," Bulletin of the Atomic Scientists , vol. 75, no. 3 (2019). 45  Verity Harding, "What Are the Geopolitical Implications of AI?" University of Cambridge, 1/11/2023, accessed on 13/6/2024, at: https://acr.ps/1L9BP4v
  6. 2021), pp. 121–150.
  7. Society: Studies in Sociotechnical Change (Cambridge, MA: MIT Press, 2010); Ursula Franklin, The Real World of Technology (Berkeley, CA: House of Anansi Press, 1999). 41  ممتن لتوم واتس Watts Tom على صياغة هذا التعبير المناسب.

ولتوظيف هذه التكنولوجيات في مجالات بنّاءة، وهو ما تسعى إلى ترسيخه، مثلًا، القمة العالمية السنوية حول "الذكاء الاصطناعي من أجل الخير" التي تنعقد في جنيف 46. من ثمّ، يترك هذا التقليد البحثي المهيمن آثارًا مباشرة في الكيفية التي تجري بها مقاربة انتشار الذكاء الاصطناعي في حقل العلاقات الدولية، كما يحدد مسبقًا من يُنظر إليهم بوصفهم الفاعلين الأساسيين، بحيث يمنح الأفضلية للدول القوية، وتحديدًا "القوى الكبرى." وهذا بالضبط ما يعارضه المسار البحثي الثالث.

3. تفكيك الفاعلين المعنيين

يجادل هذا المسار بأن الوعي الكامل بدلالات تكنولوجيات الذكاء الاصطناعي وأهميتها في حقل العلاقات الدولية يتطلب تجاوز فكرة التركيز على الدول الكبرى، بل يتعين أن يمتد التحليل ليشمل فئتين أخريين من الفاعلين هما: شركات التكنولوجيا Companies Tech، والجنوب الكبير South.Global أصبح الدور المحوري الذي تؤديه شركات التكنولوجيا في مجال تكنولوجيات الذكاء الاصطناعي يحظى بأهمية متزايدة؛ ما انعكس في تنامي الأبحاث التي تولي شركات التكنولوجيا العملاقة اهتمامًا خاصًا  47. ورغم أن البحث في موضوع السلطة الخاصة في الحوكمة العالمية يعود إلى أواخر التسعينيات  48، وهو بذلك ليس طارئًا على حقل العلاقات الدولية، فإن الجدة تكمن في المنزلة المتقدمة التي باتت هذه الشركات تشغلها اليوم بوصفها مساهمًافي صياغة حوكمة الذكاء الاصطناعي على المستوى الدولي، سواء أكان ذلك على نحو مباشر أم غير مباشر  49. ويتجلى ذلك في سعي العديد من الدول والمنظمات الدولية إلى استقطاب ممثلي هذه الشركات ليكونوا طرفًا في نقاشات هذه الحوكمة، عبر منحهم العضوية في "مجالس الخبراء الاستشارية"، أو من خلال دعوتهم لحضور فعاليات بارزة؛ مثل القمة التي استضافتها المملكة المتحدة حول الذكاء الاصطناعي ومسألة السلامة  50. ويستند هذا الانفتاح إلى افتراض راسخ بأن ممثلي شركات التكنولوجيا يحوزون الخبرة والمعرفة الضروريتين لمعالجة التحديات التي يطرحها الذكاء الاصطناعي، وأنهم قادرون على تزويد صانعي القرار بما يلزم من رؤى ومعلومات لفهم هذه التحديات والتعامل معها. وُيُعد ذلك تحولًابارزًا يمنح هذه الشركات التكنولوجية منصة مؤثرة تتيح لها صياغة مخرجات الحوكمة المحتملة. ويكرّس ذلك الأفضلية لخبرة هذه الشركات على حساب أنماط الخبرة الأخرى الضرورية لفهم شامل للتحديات التي يثيرها الذكاء الاصطناعي. غير أن لهذه الشركات أيضًا طرائَقَ غير مباشرة للتأثير في حوكمة الذكاء الاصطناعي؛ ففي غياب إطار دولي فعّال قائم على حوكمة هرمية، يحدد مصمّمو هذه التكنولوجيات ومستخدموها، وفقًا للأمر الواقع، المعاييَرَ التي تنظّم كيفية استخدامها  51. يمكن رصد تأثير شركات التكنولوجيا عبر مقاربتين تحليليتين أساسيتين؛ تركز المقاربة الأولى على دراسة الكيفية التي مُنحت بها هذه الشركات صفَةَ الخبراء في النقاشات المتعلقة بحوكمة الذكاء الاصطناعي؛ ما يفتح الباب أمام تساؤلات أوسع: من يمتلك حق الخبرة في قضايا حوكمة الذكاء الاصطناعي؟ وما الاعتبارات السياسية الكامنة لمنح هذه الصفة؟ وهل نحن في حاجة إلى إعادة التفكير في هذه الديناميات برمّتها؟ أما المقاربة الثانية، فتركز على قدرات السلطة المادية الكامنة في خلفية هذه النقاشات، والمتمثلة في النفاذ إلى البنية التحتية والبيانات. وقد لا يكون لهذا المسار البحثي تأصيل كاٍفٍ في حقل العلاقات الدولية، ومع ذلك، يمكن إدماجه، على نحو مثمر، ضمن منظور الاقتصاد السياسي الدولي.

  1. AI for Good Global Summit," ITU, accessed on 13/6/2024, at: https://acr.ps/1L9BPE2
  2. Marijn Hoijtink, '"Prototype Warfare': Innovation, Optimisation, and the Experimental Way of Warfare," European Journal of International Security , vol. 7, no. 3 (August 2022), pp. 322–336; Marijn Hoijtink & Anneroos Planqué-van Hardeveld, "Machine Learning and the Platformization of the Military: A Study of Google's Machine Learning Platform TensorFlow," International Political Sociology , vol. 16, no. 2 (June 2022).
  3. A. Claire Cutler, Virginia Haufler & Tony Porter (eds.), Private Authority and International Affairs (Albany, NY: State University of New York Press, 1999); Rodney Bruce Hall & Thomas J Biersteker, "The Emergence of Private Authority in the International System," in: Rodney Bruce Hall & Thomas J. Biersteker (eds.), The Emergence of Private Authority in Global Governance (Cambridge: Cambridge University Press, 2002), pp. 3–22; Anna Leander, "Practices (Re)Producing Orders: Understanding the Role
  4. Ingvild Bode & Hendrik Huelss, "Constructing Expertise: The Front- and Back-Door Regulation of AI's Military Applications in the European Union," Journal of European Public Policy , vol. 30, no. 7 (February 2023), pp. 1230–1254; Anke Sophia Obendiek & Timo Seidl, "The 'False' Promise of Solutionism: Ideational Business Power and the Construction of Epistemic Authority in Digital Security Governance," Journal of European Public Policy , vol. 30, no. 7 (July 2023), pp. 1305–1329.
  5. Department for Science Innovation & Technology, "AI Safety Summit: Confirmed Attendees (Governments and Organisations)," 31/10/2023, accessed on 13/6/2024, at: https://acr.ps/1L9BPoF 51  Ingvild Bode & Hendrik Huelss, "Artificial Intelligence Technologies and Practical Normativity/Normality: Investigating Practices beyond the Public Space," Open Research Europe (March 2024).
  6. of Business in Global Security Governance," in: Anna Leander & Morten Ougaard (eds.), Business and Global Governance (Abingdon: Routledge, 2010), pp. 57–77.

تضم المجموعة الثانية من الفاعلين، الذين تتزايد أهميتهم، الجنوب الكبير بمفهومه الأوسع، الذي لم يكن الاهتمام به يتجاوز مسألة أنه معنيّ أيضًا بتداعيات انتشار تكنولوجيات الذكاء الاصطناعي. ويكتسي إدراج الجنوب الكبير في هذا النقاش أهمية خاصة لأسباب عديدة؛ فنحن نعيش في مرحلة يشهد فيها النظام الدولي تحوّلًامن نظام دولي مهيمن قائم على القواعد International Rules-based Order إلى صيغة جديدة لم تتضح ملامحها بعد. ويذهب بعض الباحثين إلى أننا لم نعد في إطار نظام دولي واحد، بل في وضع تتعايش فيه أنظمة متعددة؛ أي عالم متعدد الأنظمة Multi-order، تقوده دول مختلفة: نظام تقوده الولايات المتحدة، ونظام تقود الصين، ونظام تقوده روسيا. قد يكون هذا التصور محل جدل، لكن ثمة اتفاق واسع على أن النظام الدولي في حالة تحوّل، وأن مسار هذا التحوّل لا يزال غير محسوم. وهذا ما يجعل دور الجنوب الكبير محوريًا، ذلك أنّ انخراط فاعليه في نظام دون آخر من شأنه أن يؤثر بعمق في سيرورة العلاقات الدولية. وُيُرَّجَح أن تؤدي تكنولوجيات الذكاء الاصطناعي دورًا بارزًا في هذه السيرورة، خاصة مع تزايد المخاوف من أن تعيد أنظمة حوكمتها إنتاج أنماط الإقصاء والاستبعاد التي طبعت منظومات الحوكمة Regimes Governance في الماضي.

خاتمة

يبدو أن لدراسة الذكاء الاصطناعي في العلاقات الدولية سجلًاأطول مما كنا نتصَّوَر. ورغم أن معظم الدراسات ضمن المحاور الراسخة تنسجم بدرجة كبيرة مع الأطر التحليلية المألوفة في هذا الحقل، فإننا نشهد، في المقابل، بروز مسارات بحثية جديدة تدفع حالة الوضع القائم Quo Status هذه في اتجاهات مغايرة ومبتكرة. وُيُعزى ذلك، في كثير من الأحيان، إلى نظرتنا إلى الذكاء الاصطناعي بوصفه نظامًا يتداخل فيه البعدان التقني والاجتماعي، ومن ثمّ التعامل مع التكنولوجيا بجدية بوصفها عاملًا تحليليًا في حقل العلاقات الدولية. لكننا نلحظ أيضًا أدبيات أخرى تنتقد ما يمكن اعتباره عودة قوية للمقاربات العقلانية – البنيوية – الواقعية في دراسة العلاقات الدولية، التي تُصِّوِر الذكاء الاصطناعي بوصفه ساحة للتنافس الجيوسياسي، كما تمنح امتيازات تحليلية لعدد محدود من الفاعلين الدولتيين Actors State. وتثير هذه الانتقادات تساؤلات بشأن مشروعية استمرار هذا التيار التحليلي المهيمن بوصفها مقاربة قادرة على الإحاطة بدلالات تكنولوجيات الذكاء الاصطناعي، لا سيما في لحظة قد تكون مفصلية في مسار تطور حقل العلاقات الدولية بوصفه اختصاصًا معرفيًا.

المراجع

Altmann, Jürgen & Frank Sauer. "Autonomous Weapon Systems and Strategic Stability." Survival. vol. 59, no. 5 (September 2017). Ayoub, Kareem & Kenneth Payne. "Strategy in the Age of Artificial Intelligence." Journal of Strategic Studies. vol. 39, no. 5–6 (September 2016). Baele, Stephane J. et al. "AI IR: Charting International Relations in the Age of Artificial Intelligence." International Studies Review. vol. 26, no. 2 (June 2024). Bellanova, Rocco et al. "Toward a Critique of Algorithmic Violence." International Political Sociology. vol. 15, no. 1 (March 2021). Bellanova, Rocco, Katja Lindskov Jakobsen & Linda Monsees. "Taking the Trouble: Science, Technology and Security Studies." Critical Studies on Security. vol. 8, no. 2 (2020). Bijker, Wiebe E. & John Law (eds.). Shaping Technology/ Building Society: Studies in Sociotechnical Change. Cambridge, MA: MIT Press, 2010. Blanchard, Alexander, Christopher Thomas & Mariarosaria Taddeo. "Ethical Governance of Artificial Intelligence for Defence: Normative Tradeoffs for Principle to Practice Guidance." AI & Society. vol. 40 (February 2024). Bode, Ingvild & Hendrik Huelss. "Artificial Intelligence Technologies and Practical Normativity/Normality: Investigating Practices beyond the Public Space." Open Research Europe (March 2024). ________. "Constructing Expertise: The Front- and Back- Door Regulation of AI's Military Applications in the European Union." Journal of European Public Policy. vol. 30, no. 7 (February 2023). Bode, Ingvild et al. "Prospects for the Global Governance of Autonomous Weapons: Comparing Chinese,

Russian, and US Practices." Ethics and Information Technology. vol. 25, no. 1 (March 2023). Bode, Ingvild. "AI Technologies and International Relations: Do We Need New Analytical Frameworks?" The RUSI Journal. vol. 169, no. 5 (2024). Bode, Ingvild. "Practice-Based and Public-Deliberative Normativity: Retaining Human Control Over the Use of Force." European Journal of International Relations. vol. 29, no. 4 (2023). Byers, Michael. "Still Agreeing to Disagree: International Security and Constructive Ambiguity." Journal on the Use of Force and International Law. vol. 8, no. 1

Calcara, Antonio et al. "Why Drones Have Not Revolutionized War: The Enduring Hider-Finder Competition in Air Warfare." International Security. vol. 46, no. 4 (April 2022). Chesney, Robert & Danielle Citron. "Deepfakes and the New Disinformation War: The Coming Age of Post-Truth Geopolitics." Foreign Affairs. vol. 98, no. 1 (2019), p. 147. Claire Cutler, A., Virginia Haufler & Tony Porter (eds.). Private Authority and International Affairs. Albany, NY: State University of New York Press, 1999. Clément, Sarah Grand-. Artificial Intelligence Beyond Weapons: Application and Impact of AI in the Military Domain. Geneva: United Nations Institute for Disarmament Research - UNIDIR, 2023. at: https://acr.ps/1L9BPzV Dafoe, Allan. "AI Governance: A Research Agenda." Centre for the Governance of AI, University of Oxford (August 2018). at: https://acr.ps/1L9BPDI European Parliament. EU AI Act: First Regulation on Artificial Intelligence. 8/6/2023. at: https://acr.ps/1L9BPsV Feenberg, Andrew. Critical Theory of Technology. Oxford: Oxford University Press, 1991. Feldstein, Steven. "The Consequences of Generative AI for Democracy, Governance and War." Survival. vol. 65, no. 5 (2023). Franklin, Ursula. The Real World of Technology. Berkeley, CA: House of Anansi Press, 1999. Garcia, Denise. Common Good Governance in the Age of Military Artificial Intelligence. Oxford: Oxford University Press, 2023. Geneva Academy & ICRC. "Artificial Intelligence and Related Technologies in Military Decision-Making on the Use of Force in Armed Conflicts: Current Developments and Potential Implications." (March 2024). Gerrits, André W. M. "Disinformation in International Relations: How Important Is It?" Security and Human Rights. vol. 29 (2018). Hall, Rodney Bruce & Thomas J. Biersteker (eds.). The Emergence of Private Authority in Global Governance. Cambridge: Cambridge University Press, 2002. Harding, Verity. "What Are the Geopolitical Implications of AI?" University of Cambridge, 1/11/2023. at: https://acr.ps/1L9BP4v Hoijtink, Marijn & Anneroos Planqué-van Hardeveld. "Machine Learning and the Platformization of the Military: A Study of Google's Machine Learning Platform TensorFlow." International Political Sociology. vol. 16, no. 2 (June 2022). Hoijtink, Marijn & Matthias Leese (eds.). Technology and Agency in International Relations. London: Routledge, 2019. Hoijtink, Marijn. "'Prototype Warfare': Innovation, Optimisation, and the Experimental Way of Warfare." European Journal of International Security. vol. 7, no. 3 (August 2022).

Horowitz, Michael C. "When Speed Kills: Lethal Autonomous Weapon Systems, Deterrence and Stability." Journal of Strategic Studies. vol. 42, no. 6 (September 2019). Hunter, Lance Y. et al. "The Military Application of Artificial Intelligence Technology in the United States, China, and Russia and the Implications for Global Security." Defense & Security Analysis. vol. 39, no. 2 (April 2023). Jack, Caroline. "Lexicon of Lies: Terms for Problematic Information." Data & Society Research Institute (September 2017). at: https://acr.ps/1L9BP55. Jervis, Robert. "Cooperation Under the Security Dilemma." World Politics. vol. 30, no. 2 (1978). Johnson, James. "Artificial Intelligence, Drone Swarming and Escalation Risks in Future Warfare." RUSI Journal. vol. 165, no. 2 (February 2020). ________. Artificial Intelligence and the Future of Warfare: The USA, China, and Strategic Stability. Manchester: Manchester University Press, 2021. Leander, Anna & Morten Ougaard (eds.). Business and Global Governance. Abingdon: Routledge, 2010. Legucka, Agnieszka & Robert Kupiecki. Disinformation, Narratives and Memory Politics in Russia and Belarus. Abingdon: Routledge, 2022. Liao, S. Matthew (ed.). The Ethics of Artificial Intelligence. Oxford: Oxford University Press, 2020. Maas, Matthijs & José Jaime Villalobos. "International AI Institutions: A Literature Review of Models, Examples, and Proposals." AI Foundations Report, Legal Priorities Project (September 2023). Maas, Matthijs M. "Innovation-Proof Governance for Military AI? How I Learned to Stop Worrying and Love the Bot." Journal of International Humanitarian Legal Studies. vol. 10, no. 1 (2019). Paterson, Thomas & Lauren Hanley. "Political Warfare in the Digital Age: Cyber Subversion, Information Operations and 'Deep Fakes'." Australian Journal of International Affairs. vol. 74, no. 4 (July 2020). Peoples, Columba. Justifying Ballistic Missile Defence: Technology, Security and Culture. Cambridge: Cambridge University Press, 2010. Rayroux, Antoine. "Speaking EU Defence at Home: Constructive and Discourses Contentious Ambiguity." Cooperation and Conflict. vol. 49, no. 3 (2014). Renic, Neil & Elke Schwarz. "Crimes of Dispassion: Autonomous Weapons and the Moral Challenge of Systematic Killing." Ethics & International Affairs. vol. 37, no. 3 (Fall 2023). Roff, Heather M. "The Frame Problem: The AI 'Arms Race' isn't One." Bulletin of the Atomic Scientists. vol. 75, no. 3 (2019). Scharre, Paul. "Debunking the AI Arms Race Theory." Texas National Security Review. vol. 4, no. 3 (2021). Schippers, Birigit (ed.). The Routledge Handbook to Rethinking Ethics in International Relations. London: Routledge, 2020. Schörnig, Niklas & Thomas Reinhold (eds.). Armament, Arms Control and Artificial Intelligence. Cham: Springer Nature, 2022. Schwarz, Elke. Death Machines: The Ethics of Violent Technologies. Manchester: Manchester University Press, 2019. Shu, Kai et al. (eds.). Disinformation, Misinformation, and Fake News in Social Media: Emerging Research Challenges and Opportunities. Cham: Springer International Publishing, 2020. Tallberg, Jonas et al. "The Global Governance of Artificial Intelligence: Next Steps for Empirical

and Normative Research." International Studies Review. vol. 25, no. 3 (September 2023). Thornton, Rod & Marina Miron. "Towards the 'Third Revolution in Military Affairs': The Russian Military's Use of AI-Enabled Cyber Warfare." RUSI Journal. vol. 165, no. 3 (April 2020). UN, Office for Digital and Emerging Technologies. "High- Level Advisory Body on Artificial Intelligence." at: https://acr.ps/1L9BPyF Veale, Michael, Kira Matus & Robert Gorwa. "AI and Global Governance: Modalities, Rationales, Tensions." Annual Review of Law and Social Science. vol. 19 (2023). Whittaker, Meredith. "The Steep Cost of Capture." Interactions. vol. 28, no. 6 (2021). Wyn Jones, Richard. Security, Strategy and Critical Theory. London: Lynne Rienner, 1999.