الذكاء الاصطناعي والديمقراطية: إطار مفهومي ***
الملخّص
عّز ز نجاح الذكاء الاصطناعي وانتشاره الواسع مستوى الوعي بالعواقب الاقتصادية والاجتماعية والسياسية لهذه التكنولوجيا. وُت راِفِق كَّل خطوة جديدة، في سيرورة تطويره واستخداماته، تكّهاّنٌتٌ فحواها أنّ الوصول إلى ذكاء اصطناعي اعمّ، يضاهي القدرات البشرية أو يتفوق عليها، بات وشيكًا. وهي تكهّنات خيالية إلى حد بعيد، مثلها مثل تلك التي تظهر في الخطاب الحالي بشأن قدرات النماذج اللغوية الكبيرة وآثارها، في أعقاب ظهور "تشات جي بي تي." وتؤدي هذه اتلوّق عات البعيدة المدى إلى احتدام النقاٍشٍ بشأن الأثر المجتمعي والسياسي للذكاء الاصطناعي، الذي تهيمن عليه المخاوف والحماس، من دون التركيز على سايقاٍتٍ أو حقوٍلٍ بعينها. وعلى خلاف هذا اتلوجّه، قتدّم هذه الدراسة إطارًا للتحليل أكثر تركيزًا وإنتاجية. ولمناقشة التأثير المحتمل للذكاء الاصطناعي في حقل اجتماعي بعينه، هو الديمقراطية، من الضروري توضيح كيفية عمله. ويعني ذلك التمييز بين ما يُرَّوَج له حًّيًا من مقولات، خيالية في معظمها، عن الذكاء الاصطناعي العام، وبين الذكاء الاصطناعي بمعناه الضيّق؛ أي الذي يرّك ز على حَّل مهمّ ات محَّدَدة. ويسمح هذا التمييز بمناقشةٍ نقديةٍ لكيفية تأثير الذكاء الاصطناعي في جوانب مختلفة من الديمقراطية، بما في ذلك آثاره في ظروف الحكم الذاتي وإمكانية ممارسة الأفراد له، والمساواة، والانتخابات بوصفها مؤسسة، والتنافس بين أنظمة الحكم الديمقراطية والسلطوية. وُت برز الدراسة أنّ عواقب الذكاء الاصطناعي اليوم هي في الحقيقة أكثر دّق ة مما يترتب على التكهّن الفضفاض بشأن قدرات الذكاء الاصطناعي العام. إنّ التركيز على هذه الجوانب المحدّدة يسمح برصد المخاطر والفرص الفعلية، ومن ثم ضبط أفضل لأثر الذكاء الاصطناعي في الديمقراطية، في إطار مجهود بينتخصّصي يجمع بين علوم الحاسوب والعلوم الاجتماعية.
The success and widespread deployment of artificial intelligence (AI) have raised awareness of the technology's economic, social, and political consequences. Each new step in the development and application of AI is accompanied by speculations about a supposedly imminent but largely fictional artificial general intelligence (AGI) with (super-)human capacities, as seen in the unfolding discourse about capabilities and impact of large language models (LLMs) in the wake of ChatGPT. These far- reaching expectations lead to a discussion on the societal and political impact of AI that is largely dominated by unfocused fears and enthusiasms. In contrast, this article provides a framework for a more focused and productive analysis and discussion of AI's likely impact on one specific social field: democracy. First, it is necessary to be clear about the workings of AI. This means differentiating between what is at present a largely imaginary AGI and narrow artificial intelligence focused on solving specific tasks. This distinction allows for a critical discussion of how AI affects different aspects of democracy, including its effects on the conditions of self-rule and people's opportunities to exercise it, equality, the institution of elections, and competition between democratic and autocratic systems of government. This article shows that the consequences of today's AI are more specific for democracy than broad speculation about AGI capabilities implies. Focusing on these specific aspects will account for actual threats and opportunities and thus allow for better monitoring of AI's impact on democracy in an interdisciplinary effort by computer and social scientists. Keywords: Artificial Intelligence, Democracy, Self-rule, Equality, Elections, Autocracy.
Artificial Intelligence and Democracy: A Conceptual Framework
كلمات مفتاحية: الذكاء الاصطناعي، الديمقراطية، الحكم الذاتي، المساواة، الانتخابات، السلطوية.
* أستاذ العلوم السياسية، معهد العلوم السياسية، جامعة بامبرغ الألمانية. Professor of Political Science, Institute for Political Science, University of Bamberg, Germany. ** أستاذ مساعد، برنامج العلوم السياسية والعلاقات الدولية، معهد الدوحة للدراسات العليا. Assistant Professor, Political Science and International Relations Program, Doha Institute for Graduate Studies. Email: abdelkarim.amengay@dohainstitute.edu.qa *** هذا النص ترجمة لِ:ِ Andreas Jungherr, "Artificial Intelligence and Democracy: A Conceptual Framework," Social Media + Society , vol. 9, no. 3 (2023).
مقدمة: الذكاء الاصطناعي والديمقراطية
عزّز نجاح الذكاء الاصطناعي وانتشاره الواسع مستوى الوعي بالتداعيات الاقتصادية والاجتماعية والسياسية لهذه التكنولوجيا. وهيمنت الخطوة الأحدث في تطوّره، المتمثّلة في توظيف النماذج اللغوية الكبيرة في توليد م حتوى نيّص يمرئي أو صوتيّ، على المخيال العام وَّرَس عَت هذا النقاش. ولكن التقييم الجدّي للأثر الاجتماعي للذكاء الاصطناعي يقتضي تدقيق النظر في آليات اشتغال التكنولوجيا الكامنة فيه، وتحديد نطاقات الاتصال بالحقول ذات الصلة. وانطلاقًا من هذا، تقترح الدراسة إطارًا مفهوميّا مناسبًا لدراسة الأثر الحالي والمحتمل للذكاء الاصطناعي في الديمقراطية. أصبح للذكاء الاصطناعي حضوٌرٌ متفٍّشّ في المجتمع. فقد سمحت التطوّرات التكنولوجية الحديثة بَنَشٍرٍ واسع للأنظمة القائمة عليه، في مجالات واسعة من الحياة الاجتماعية والاقتصادية والسياسية. وفي إطار هذا المسار، كان للذكاء الاصطناعي - ويتوقّع أن يكون له - تأثير قويّ في كل المجالات التي يلامسها. فقد أصبحنا نرى أمثلة لنقاشات حول الكيفية التي تحدّد بها الخوارزميات بيئات التواصل الرقمي، وما يترتب على ذلك من تقهقر في الخطاب السياسي ، وحول إغراق الفضاء العام بالمعلومات المضِّلِلة الذي يمكن أن يسهم فيه الذكاء الاصطناعي التوليدي ، والنزاعات السياسية التي تُثار عبر الخوارزميات ، وأثر الذكاء الاصطناعي في قانون حقوق الإنسان الدولي ، وفي مستقبل العمل ودوره في تعويض الوظائف والبطالة الناتجة من الأتمتة Automation، فضلًاعن أثره في خلخلة التوازن في التنافس القائم
1 David Kaye, Report on Artificial Intelligence Technologies and Implications for Freedom of Expression and the Information Environment , United Nations Human Rights Office of the High Commissioner, 2018. at: https://acr.ps/1L9BPbf 2 Samuel Krebs, Robert M. McCain & Miles Brundage, "All the News That's Fit to Fabricate: AI-Generated Text as a Tool of Media Misinformation," Journal of Experimental Political Science , vol. 9, no. 1 (2022), pp. 104-117. 3 Jaime E. Settle, Frenemies: How Social Media Polarizes America (Cambridge: Cambridge University Press, 2018). 4 Joshua C. Gellers & David J. Gunkel, "Artificial Intelligence and International Human Rights Law: Implications for Humans and Technology in the 21 st Century and beyond," in: Andrej Zwitter & Oskar J. Gstrein (eds.), Handbook on the Politics and Governance of Big Data and Artificial Intelligence (Cheltenham: Edward Elgar Publishing, 2023), pp. 430-455. 5 Carl Benedikt Frey, Technology Trap: Capital, Labor, and Power in the Age of Automation (Princeton, NJ: Princeton University Press, 2019); Erik Brynjolfsson & Andrew McAfee, The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies (New York: W. W. Norton, 2016); Daron Acemoglu & Simon Johnson, Power and Progress: Our Thousand-Year Struggle over Technology and Prosperity (New York: PublicAffairs, 2023).
بين السلطويات والديمقراطيات . وبفضل هذه التطوّرات، بدأ الذكاء الاصطناعي يلامس جوهر الديمقراطية، فكرةً وممارسةً. يشبه التكييف الحالي للذكاء الاصطناعي موجات التغُّي رالتكنولوجي السابقة وآثاَرَها السياسية. وتوفّر التكنولوجيات البنى الداعمة لتنظيم الحياة الاجتماعية والاقتصادية والسياسية. فعبر هندستها وميكانيزماتها الكامنة فيها ومدخلاتها ومخرجاتها، تؤثّر تكنولوجيات متعددة في مختلف المجالات الاجتماعية وفي العمليات التي تمرّ بها أو تعتمد عليها . وبناء عليه، فإن التكنولوجيات والتحّولّات التكنولوجية لها تأثير في السياسة والتنافس السياسي، من خلال إنتاج تمييز غير متكافئ لمصلحة فاعلين أو فصائل أو جماعات، ويرتبط بمدى اتساقهم أو عدم اتساقهم مع الإمكانيات والفرص التي تبَرز في تكنولوجيا اليوم . لقد شهدنا مثل هذا في الماضي مع الخرائط والهندسة والكتابة والصحافة المطبوعة والجرائد والإعلام السمعي البصري ؛ وفي الآونة الأخيرة مع الإعلام الرقمي.
6 Kai-Fu Lee, AI Superpowers: China, Silicon Valley, and the New World Order (Boston: Houghton Mifflin Harcourt, 2018); Fernando Filgueiras, "The Politics of AI: Democracy and Authoritarianism in Developing Countries," Journal of Information Technology & Politics , vol. 19, no. 4 (2022), pp. 449-464. 7 Langdon Winner, "Do Artifacts Have Politics?" Dædalus , vol. 109, no. 1 (Winter 1980), pp. 121-136. 8 Jan-Werner Müller, Democracy Rules (London: Allen Lane, 2021); Andreas Jungherr, Ralph Schroeder & Sebastian Stier, "Digital Media and the Surge of Political Outsiders: Explaining the Success of Political Challengers in the United States, Germany, and China," Social Media + Society , vol.5, no. 3 (July 2019), pp. 1-12; Manuel Castells, Communication Power , 2 nd ed. (Oxford: Oxford University Press, 2013 [2009]); Bruce Bimber, Information and American Democracy: Technology in the Evolution of Political Power (Cambridge: Cambridge University Press, 2003). 9 David Stasavage, The Decline and Rise of Democracy: A Global History from Antiquity to Today (Princeton, NJ: Princeton University Press, 2020).
10 Thomas Kaufmann, Die Mitte der Reformation: Eine Studie zu Buchdruck und Publizistik im deutschen Sprachgebiet, zu ihren Akteuren und deren Strategien, Inszenierungs- und Ausdrucksformen [The Middle of the Reformation: A Study on Book Printing and Journalism in the German-Speaking Area, on Their Actors and Their Strategies, Staging and Forms of Expression] (Tübingen: Mohr Siebeck, 2019); Elizabeth L. Eisenstein, The Printing Press as an Agent of Change (Cambridge: Cambridge University Press, 1979).
11 Michael Schudson, Discovering the News: A Social History of American Newspapers (New York: Basic Books, 1978). 12 W. Russell Neuman, The Future of the Mass Audience (Cambridge: Cambridge University Press, 1991); Markus Prior, Post-Broadcast Democracy: How Media Choice Increases Inequality in Political Involvement and Polarizes Elections (Cambridge: Cambridge University Press, 2007). 13 Bruce A. Williams & Michael X. Delli Carpini, After Broadcast News: Media Regimes, Democracy, and the New Information Environment (Cambridge: Cambridge University Press, 2011); Andreas Jungherr, Gonzalo Rivero & Daniel Gayo-Avello, Retooling Politics: How Digital Media Are Shaping Democracy (Cambridge: Cambridge University Press, 2020).
إنّ الحضور المتزايد للأنظمة القائمة على الذكاء الاصطناعي في المجتمع يتطلّب، بالمثل، مساءلة الكيفية التي يؤثّر بها في فكرة الديمقراطية وممارستها . كثيرًا ما يناَقَش الذكاء الاصطناعي بوصفه خطرًا على المجتمع، وربما على الحياة الإنسانية برمّتها ؛ وهذا النقاش في معظمه قائم على ذكاء اصطناعي عام خيالي إلى حد بعيد، قادر على الإدراك والتفكير واتخاذ القرار والتصرّف على نحٍوٍ مستقل في سياقات متنوعة وبقدرات تضاهي القدرات البشرية أو تتجاوزها. وهذه الفكرة المستمدة في الغالب من الخيال الافتراضي لا تتوافق مع التطوّر الحالي للأنظمة القائمة على الذكاء الاصطناعي أو الأبحاث المخبرية في مجال تطويره . وفي الحقيقة، إنّ الذكاء الاصطناعي المتوافر حاليّا هو في أغلبه ذكاء اصطناعي محدود مدرّب على البيانات الخاصة بمجال معّي نلتنفيذ مهّم ات مرتبطة بالمجال الذي دُرّب عليه . وبناء عليه، عند فحص أثر الذكاء الاصطناعي في الديمقراطية، من المهمّ عدم السماح للذكاء الاصطناعي العام المتخيّل بتشتيت الانتباه، والتركيز على الحالات المحددة للذكاء الاصطناعي بمعناه الضيّق، وشروط توظيفه الفعّال، واستخداماته في المجالات ذات الصلة، وآثار تلك الحالات. من هذا المنطلق، تقدّم هذه الدراسة أجوبة عن السؤالين التاليين: أيّ نوع من الذكاء الاصطناعي نواجه عند دراسة أثر الذكاء الاصطناعي في الديمقراطية؟. 2 كيف يلامس ذلك فكرة الديمقراطية وممارستها؟ وفي أيّ جانب؟ تقدّم الدراسة إطارًا مفهومًّيًا جديدًا من أجل تقييٍمٍ ورصٍدٍ للكيفية التي يؤثّر بها الذكاء الاصطناعي في فكرة الديمقراطية وممارستها، وذلك حتّى في تمظهره المحدود حاليّا. وتمزج بين مناقشة الخصائص التقنية التكوينية للذكاء الاصطناعي وأثره المتوقّع في الديمقراطية،
14 Mathias Risse, Political Theory of the Digital Age: Where Artificial Intelligence Might Take Us (Cambridge: Cambridge University Press, 2023). 15 Nick Bostrom, Superintelligence: Paths, Dangers, Strategies (Oxford: Oxford University Press, 2014). 16 Ajay Agrawal, Joshua Gans & Avi Goldfarb, Prediction Machines: The Simple Economics of Artificial Intelligence. Updated and Expanded (Boston: Harvard Business Review Press, 2022 [2018]); Erik J. Larson, The Myth of Artificial Intelligence: Why Computers Can't Think the Way We Do (Cambridge, MA: Belknap Press of Harvard University Press, 2021); Melanie Mitchell, Artificial Intelligence: A Guide for Thinking Humans (New York: Farrar, Straus and Giroux, 2019); Brian Cantwell Smith, The Promise of Artificial Intelligence: Reckoning and Judgment (Cambridge, MA: MIT Press, 2019). 17 Mitchell, p. 45f.
مسترشدةً في ذلك بالنظرية السياسية والنتائج الإمبريقية من حقول بحثية مختلفة. إنّ اتساع نطاق هذا التصوّر يؤدّي بطبيعة الحال إلى إغفال التفصيلات الدقيقة لمجالات محَّدَدة. وإذا كان ذلك ربما يبدو مؤسفًا للمتخصّصين، فإن تجاهل هذه التفاصيل قد يُعدّ سمة من سمات النظرية الاجتماعية؛ إذ يتيح تطوير أطر مجرّدة، ما يمكّن، في المقابل، من رسم خرائط نظرية لموضوعات جديدة وإنشاء روابط بين الحقول البحثية . وفي حين أنه من المحتمل أن يشعر علماء العلوم الاجتماعية وعلماء الحاسوب، على حد سواء، بنوع من الُغبُن، بسبب تجاهل الفروق الدقيقة، فإن التوليف بين منظوَرَي هؤلاء وأولئك يَِعُِدُ بإفادة المجموعتين معًا. فبالنسبة إلى المتخصّصين في التكنولوجيا، تؤسس الدراسة نقاشهم حول تأثير الذكاء الاصطناعي في الديمقراطية في النظرية السياسية. أمّا علماء العلوم الاجتماعية، فُي ربط نقاشهم بالانشغالات الفعلية لتكنولوجيا الذكاء الاصطناعي المتوافرة فعليّا. إنّ بعض الأمثلة المقدمة هنا تظل إلى حدّ ما افتراضات. وههنا أيضًا، قد يعتبر البعض هذا عيبًا في مقاربتنا، ولكن إذا قبلنا بأنّ التطوّرات التكنولوجية الحالية، مثل الذكاء الاصطناعي، ستؤثّر في الممارسة والأفكار، وربما حتّى في البنى الديمقراطية، فإن علينا أن نسمح لأنفسنا بتأمل التجارب الذهنية والاستفادة منها؛ إذ إنّ الاعتماد الحصري على بيانات وأمثلة توثّق الحاضر والماضي يقودنا إلى تجاهل الطبيعة التطوّرية للديمقراطية، ويجعلنا نلتزم الصمت حيال الأسئلة المتعلقة بتصميم الاختيارات التي تتقاطع فيها التكنولوجيا والديمقراطية .
أولًا: الذكاء الاصطناعي
يحفل تاريخ الذكاء الاصطناعي بالمقاربات والتطبيقات والتصوّرات المتخَّيَلة المرتبطة به . ومن أجل صياغة توقّعات محَّدَدة عن تأثيره في الديمقراطية، لا بد أولًامن توضيح المصطلح بدقة، وفهم آليات عمل التكنولوجيا التي يقوم عليها. ثمّة العديد من التعريفات المتنافسة، ولأغراض الدراسة، يمكن تعريف الذكاء الاصطناعي بأنه
18 Kieran Healy, "Fuck Nuance," Sociological Theory , vol. 35, no. 2 (2017), pp. 118-127. 19 Zizi Papacharissi, After Democracy: Imagining Our Political Future (New Haven: Yale University Press, 2021). 20 Pamela McCorduck, Machines Who Think: A Personal Inquiry into the History and Prospects of Artificial Intelligence)Natick, MA: A K Peters, 2004(; Nils J. Nilsson, The Quest for Artificial Intelligence: A History of Ideas and Achievements)Cambridge: Cambridge University Press, 2010(; Stuart Russell & Peter Norvig, Artificial Intelligence: A Modern Approach , 4 th ed. (Hoboken, NJ: Pearson Education, 2021 [1995]).
"دراسة وإنشاء وكلاء Agents يمكنهم القيام بالأمر الصحيح" . وعلى نحو أكثر تحديدًا، وُصف بأنه "النشاط المخصّص لجعل الآلات ذكية، والذكاء هو تلك الخاصية التي تمكّن كيانًا معينًا Entity من العمل على نحٍوٍ مناسب وبتبّص رفي بيئته" . يشمل هذا المقاربات التي تسمح للآلات بأداء مهّم ات تضاهي أحيانًا القدرات البشرية، وتتفوق عليها أحيانًا أخرى. وقد ألهمت فكرة إنشاء نسخة قوية من الآلة - الذكية توقّعات ومخاوف كبيرة حول إمكانيات الذكاء الاصطناعي وأخطائه، بدءًا من تأثيره في النمو الاقتصادي وتجاوز الإنسان والتسامي عليه Transecendence Post-human ، وصولًا إلى تهديد شامل للوجود البشري . إنّ التوقّعات بشأن القدرة العامّة المفترضة للذكاء الاصطناعي على معالجة المهّم ات، أو اتّخاد القرارات في مجالات مختلفة (الذكاء الاصطناعي العام)، يجري استقراؤها من خلال نجاح الذكاء الاصطناعي في إنجاز مهّم ات بعينها اعتمادًا على البيانات في مجالات محَّدَدة (الذكاء الاصطناعي المحدود.) ومع ذلك، فإنّ هذا يُعدّ خطأ في التصنيف. لا تنتمي النجاحات الراهنة للذكاء الاصطناعي إلى مجال الذكاء الاصطناعي العام، الذي لا يزال خياليّا إلى حد بعيد، بل تعتمد بدلًامن ذلك على الذكاء الاصطناعي المحدود. فقد تمكّنت هذه التكنولوجيا من إنجاز مهّم ات معيّنة في مجالات متعدّدة. وتعتمد هذه النجاحات كثيرًا على التقدم الذي جرى إحرازه، في قدرة البرمجيات على تحديد أنماط العلاقات بين نقاط في البيانات المتوافرة والمخرجات المهمّة. ويمكن أن يتّخذ ذلك، في أبسط تجلياته، شكل استخدام نموذج انحدار أحادي أو نماذج تعلّم آلي يمكن أن يفوق نجاحها كل التوقّعات في مهّم ات عديدة، وغالبًا ما تصَّنَف بوصفها أحد أشكال الذكاء الاصطناعي. لكنها، بطبيعة الحال، تبقى بعيدة كل البعد عن فهم الذكاء المقدّم آنفًا. وثمّة مقاربات أكثر تقدّمًا تتوافق مع هذا الفهم للذكاء الاصطناعي، مثل التعلّم العميق Learning Deep والتعلم المعزّز Reinforcement Learning. وقد نجحت هذه المقاربات في العديد من السياقات، بما فيها الرؤية الحاسوبية
21 Russell & Norvig, p. 22. 22 Nilsson, p. xiii. 23 Brynjolfsson & McAfee. 24 Robin Hanson, The Age of Em: Work, Love, and Life When Robots Rule the Earth (Oxford: Oxford University Press, 2016). 25 Bostrom. 26 Ian Goodfellow, Yoshua Bengio & Aaron Courville, Deep Learning (Cambridge, MA: MIT Press, 2016). 27 Richard S. Sutton & Andrew G. Barto, Reinforcement Learning: An Introduction , 2 nd ed. (Cambridge, MA: MIT Press, 2018).
Vision Computer، والترجمة الآلية، والتشخيص الطبّي، وعلم الروبوت، والتعرّف إلى الأصوات . ومن الأمثلة على هذه التطوّرات الواعدة، التنبّؤ بمركّبات بيولوجية أو كيميائية محتملة ولكنّها غير معروفة حتّى الآن ، أو بحركة استراتيجية في أثناء لعبة ما. ومؤخّرًا، أثبتت نماذج المحّولّات Models Transformer - وهي فئة فرعية من التعلّم العميق - أنها واعدة جًّدًا في التوليد المستقلّ للمحتوى، سواء من النصوص أو الصور أو الفيديو . وكما سنرى لاحقًا، فإن هذه التطوّرات بدأت تتمظهر في السياسة، ويمكن أن تصل إلى حدّ التأثير في الديمقراطيات. لكنّ هذه المقاربات لا تعمل بطريقة شاملة أو مطلقة. فهي في الواقع تعتمد على مجموعة من الشروط المسبقة، التي قد تحدّ من توظيفها في السياسة. وبعض هذه الشروط بديهي. لكي ينجح الذكاء الاصطناعي، مثلًا، يجب أن يكون قادرًا على الوصول إلى تمثيل رقمي لبيئته، سواء عبر مستشعرات ترسم خريطة العالم أو عبر إدخال البيانات الموجودة. وحين يصعب الحصول على هذه التمثيلات أو تكون البيانات شحيحة، كما هو الحال في العديد من مجالات السياسة، لن ينجح الذكاء الاصطناعي. في مقابل ذلك، ثمّة شروط مسبقة أخرى ليست على هذه الدرجة من البداهة. فمثلًا،
28 Yann LeCun, Yoshua Bengio & Geoffrey Hinton, "Deep Learning," Nature 521 (2015), pp. 436-444. 29 Sophia Chow, Simon Liver & Alan Nelson, "Streamlining Bioactive Molecular Discovery through Integration and Automation," Nature Reviews Chemistry , vol. 8, no. 2 (2018), pp. 174-183; Ross D. King et al., "The Automation of Science," Science , vol. 324, no. 5923 (2009), pp. 88-89; Gisbert Schneider, "Automating Drug Discovery," Nature Reviews Drug Discovery , vol. 17, no. 2 (2018), pp. 97-113. 30 Anton Bakhtin et al., "Human-Level Play in the Game of Diplomacy by Combining Language Models with Strategic Reasoning," Science , vol. 378, no. 6624 (2022), pp. 1067-1074; David Silver et al., "Mastering the Game of Go with Deep Neural Networks and Tree Search," Nature 529 (2016), pp. 484-488; David Silver et al., "A General Reinforcement Learning Algorithm That Masters Chess, Shogi, and Go through Self-Play," Science , vol. 362, no. 6419 (2018), pp. 1140-1144; David Silver et al., "Mastering the Game of Go without Human Knowledge," Nature 550 (2017), pp. 354-359. 31 Niki J. Parmar et al., "Image Transformer," in: Jennifer Dy & Andreas Krause (eds.), Proceedings of the 35 th International Conference on Machine Learning , Stockholm, Sweden PMLR 80, 2018, pp. 4055-4064; Ashish Vaswani et al., "Attention Is All You Need," in: Isabelle Guyon et al. (eds.), NIPS 2017: 31 st Conference on Neural Information Processing Systems , vol. 30 (Red Hook, NY: Curran Associates, Inc., 2017), pp. 1-11. 32 Tom B. Brown et al., "Language Models Are Few-Shot Learners," in: Hugo Larochelle et al. (eds.), Advances in Neural Information Processing Systems , vol. 33 (Red Hook, NY: Curran Associates, Inc., 2020), pp. 1877-1901; Aditya Ramesh et al., "Hierarchical Text-Conditional Image Generation with CLIP Latents," arXiv , 2022.
لكي يتمكّن الذكاء الاصطناعي من تحقيق نتائج مساعدة أو مفيدة، يتعّي نأن تكون الروابط الأساسية بين المدخلات والمخرجات مستقرّة عبر الزمن. ويشير ذلك إلى مشكلتين: التغّي رات الزمنية غير الملحوظة بين المتغّي رات ، ومخاطر الاعتماد على أدلّة ارتباطية بحتة غير مسنودة بنماذج سببية . الأهم من ذلك، خاصة فيما يتعلّق بالديمقراطية، أنّ على الماضي أن يكون نموذجًا مفيدًا للمستقبل من الناحية المعيارية. فالتغيير سمة جوهرية للمجتمعات، خاصة فيما يتعلق بتوسيع حقوق مشاركة الجماعات التي خضعت للاستبعاد سابقًا. فقد سعى العديد من المجتمعات، مع مرور الوقت، إلى الحدّ من التمييز وتعزيز المساواة. يجري، في الواقع، تخطيط السياسات على نحٍوٍ واٍعٍ لكسر أنماط التمييز السابقة. وتخاطر التوقّعات والتصنيفات القائمة على الذكاء الاصطناعي، التي تستند إلى أنماط الماضي، بإعادة إنتاج أشكال التفاوت الممنهج Inequalites Systemic، بل حتّى التمييز البنيوي . يمكن العثور على مشكلات تشترك في مثل هذه الخصائص في مجالات عديدة، مثل الاقتصاد الرقمي، والتجارة، والتفاعلات الاجتماعية عبر الوسائط الرقمية، والروبوتات، والرياضات. وقد أثبت الذكاء الاصطناعي نجاحًا منقطع النظير في هذه المجالات. وفي الوقت نفسه، ثمّة مشكلات قليلة في السياسة، والديمقراطية على نطاق أوسع، تشترك في هذه الخصائص نفسها. وهذا يقيّد نطاق تطبيقات الذكاء الاصطناعي في المجتمع، ومن ثمّ، يحدّ من تأثيره المحتمل في الديمقراطية.
| مجال الأثر | المستوى |
|---|---|
| الحكم الذاتي | الفردي |
| المساواة | المجموعاتي |
| الانتخابات | المؤسسي |
| التنافس بين الأنظمة | النظمي |
ثانيًا: أثر الذكاء الاصطناعي في الديمقراطية
بدأت نجاحات الذكاء الاصطناعي الأخيرة، وانتشاره الواسع في العديد من مجالات الحياة الاجتماعية والاقتصادية والسياسية، في
33 David Lazer et al., "The Parable of Google Flu: Traps in Big Data Analysis," Science , vol. 343, no. 6176 (2014), pp. 1203-1305. 34 Judea Pearl, "The Seven Tools of Causal Inference, with Reflections on Machine Learning," Communications of the ACM , vol. 62, no. 3 (2019), pp. 54-60; Bernhard Schölkopf et al., "Toward Causal Representation Learning," Proceedings of the IEEE , vol. 109, no. 5 (2021), pp. 612-634. 35 Tolga Bolukbasi et al., "Man Is to Computer Programmer as Woman Is to Homemaker? Debiasing Word Embeddings," in: Daniel D. Lee et al. (eds.), NIPS'16: Proceedings of the 30 th International Conference on Neural Information Processing Systems (Red Hook, NY: Curran Associates, Inc., 2016), pp. 4356-4364; Brian Christian, The Alignment Problem: Machine Learning and Human Values (New York: W. W. Norton, 2020); Shira Mitchell et al., "Algorithmic Fairness: Choices, Assumptions, and Definitions," Annual Review of Statistics and Its Application , vol. 8 (2021), pp. 141-163.
طرح تساؤلات من قبيل: هل يؤثّر الذكاء الاصطناعي في الديمقراطية؟ وكيف يؤثّر فيها؟ تُعدّ الديمقراطية، فكرةً وممارسةً، من أكثر المفاهيم إثارة للجدل والخلاف، إذ إنها تشكّل موضوعًا لتصوّرات متنافسة ذات تفصيلات دقيقة. والنقاشات المرتبطة بهذا الموضوع في الفكر السياسي مثمرة ومفيدة في تحديد السمات والعواقب المعيارية والإجرائية والبنيوية التي يتأسس عليها فهمنا للديمقراطية . وعلى الرغم من ذلك، وخدمةً لأهداف هذه الدراسة، يتعّي نحصر هذا الحقل الغنيّ في عدد ضئيل من السمات المهمّة للديمقراطية - وإن كانت أحيانًا خلافية - التي يمكن أن نتوقّع أثرًا للذكاء الاصطناعي فيها. وما قد يُفِقِد الحجَةَ دقتها، سيعوّضه توفير إطار مفهومي واسع قابل للتطبيق على نطاق واسع. تقدّم الدراسة أربعة مجالات للأثر المحتمل من مستويات تحليلية مختلفة: الأفراد، يؤثّر الذكاء الاصطناعي في ظروف الحكم الذاتي على مستوى Self- وفرص الناس في ممارسته؛ وعلى مستوى المجموعات rule، يؤثّر في المساواة في الحقوق بين مجموعات مختلفة من الأفراد داخل المجتمع؛ أما على مستوى المؤسسات فيتعلق تأثيره بتصوّر الانتخابات بوصفها آلية نزيهة ومفتوحة لتقنين الصراع السياسي وإدارته؛ وأمّا على مستوى الأنظمة، فيؤثّر في المنافسة بين أنظمة الحكم الديمقراطية والسلطوية. جدول يوضح مستويات تأثير الذكاء الاصطناعي في الديمقراطية
المصدر: من إعداد الباحث.
36 Robert A. Dahl, On Democracy (New Haven, CT: Yale University Press, 1998); Amy Guttman, "Democracy," in: Robert E. Goodin, Philip Pettit & Thomas Pogge (eds.), A Companion to Contemporary Political Philosophy , 2 nd ed. (Malden, MA: Blackwell, 2007), pp. 521-532; Adam Przeworski, Why Bother with Elections? (Cambridge: Polity Press, 2018); Hélène Landemore, Democratic Reason: Politics, Collective Intelligence, and the Rule of the Many (Princeton, NJ: Princeton University Press, 2012); Hélène Landemore, "Can AI Bring Deliberative Democracy to the Masses?" Working Paper , 2022; Charles Tilly, Democracy (Cambridge: Cambridge University Press, 2007).
لا تلتزم الدراسة بنظرية واحدة ومحدّدة للديمقراطية، بل تتناولها بوصفها ظاهرة متعدّدة الأوجه . ويقدّم ذلك نظرة أوسع للمجالات، حيث يمكن تصوّر أنّ الذكاء الاصطناعي يؤثّر في المجتمع بطرائق ذات صلة بأداء الديمقراطية وجودتها.
1. الذكاء الاصطناعي والحكم الذاتي
من مبادئ الديمقراطية أنّ الحكومات يتعّي نأن يختارها أولئك الذين ستخدمهم. ويمثّل هذا الحكم الذاتي فكرة معيارية متمحورة حول إضفاء الشرعية على السلطة الدنيوية Temporal Power التي يحظى بها الحكّام على المحكومين، كما يمثّل فكرة عملية مفادها أنّ توزيع صنع القرار بين غالبية الأفراد يسمو على أشكال صنع القرار الأشدّ مركزية أو حُكم الخبراء . يؤثّر الذكاء الاصطناعي في قدرة الناس على تحقيق الحكم الذاتي والتفوّق المتصوّر لعملية صنع القرار الموزّعة مقارنةً بحكم الخبراء، في النظم الاجتماعية المعقّدة؛ ما قد يدلّ على حدود الحكم الذاتي المحتملة بطرائق متعددة.
. أ تشكيل بيئات المعلومات
ترتبط شرعية الحكم الذاتي ارتباطًا وثيقًا بفكرة قدرة الأفراد على اتخاذ قرارات عن بيّنة، لأنفسهم ولجماعاتهم. ويتوقّف هذا، على الأقل في جزٍءٍ منه، على بيئة المعلومات التي تحتضنهم ويعيشون فيها . ويؤثّر الذكاء الاصطناعي مباشرةً في هذه الركائز المعلوماتية للحكم الذاتي. ويتضمّن ذلك الكيفية التي يتعرّض بها الأفراد للمعلومات السياسية ويصلون إليها، ومدى قدرتهم على إيصال وجهات نظرهم وهمومهم، والكيفية التي قد تفضي بها هذه الركائز المعلوماتية إلى توسيع فرص التلاعب . وقد أثار تشكيل الخوارزميات لبيئات المعلومات الرقمية، استنادًا إلى تفضيلات الأفراد المعلوماتية المستنَتَجة أو استجاباتهم السلوكية
37 Hans Asenbaum, "Rethinking Democratic Innovations: A Look through the Kaleidoscope of Democratic Theory," Political Studies Review , vol. 20, no. 4 (2022), pp. 680-690. 38 Dahl; Hélène Landemore & Jon Elster (eds.), Collective Wisdom: Principles and Mechanisms (Cambridge: Cambridge University Press, 2012); Melissa Schwartzberg, "Epistemic Democracy and Its Challenges," Annual Review of Political Science , vol. 18 (2015), pp. 187-203. 39 Andreas Jungherr & Ralph Schroeder, Digital Transformations of the Public Arena (Cambridge: Cambridge University Press, 2022). 40 Andreas Jungherr & Ralph Schroeder, "Artificial Intelligence and the Public Arena," Communication Theory , vol. 33, no. 3 (2023), pp. 164–173.
المتنَّبّأ بها ، مخاوَفَ متزايدة، من أبرزها أنّ الأفراد سيتعرّضون فقط للمعلومات التي من المحتمل أن يتّفقوا معها أو التي توافق أهواءهم، فتغيب عنهم رؤى الجانب السياسي الآخر. وتدلّ نتائج الأبحاث الإمبريقية على أنّ مثل هذه التخوّفات ربما يكون مبالغًا فيها . وفي الواقع، يمكن أن يتعرّض الأشخاص في البيئات التواصلية الرقمية لمعلومات سياسية أكثر عن الجانب الآخر، والتي يختلفون معها، مقارنةً بما هو قائم في بيئات المعلومات الأخرى. ويمكن أن يمثّل هذا الأمر مشكلة، خاصة بالنسبة إلى أنصار التيارات السياسية، لأنها تزيد من بروز الصراع السياسي . ومع ذلك، لا يزال غير معلوم ما إذا كانت هذه الآلية مدفوعة بالذكاء الاصطناعي، أو يمكن أن تضعفها تصميمات خوارزمية محدّدة. وذهب عدد من المؤلّفين إلى تشخيص الآثار السيّئة لبيئات التواصل الرقمية في جودة المعلومات والخطاب السياسي، وبعضها مدفوع بالذكاء الاصطناعي، في حين أنّ بعضها الآخر لا علاقة له بها . وعلى الرغم من أهمية هذا التشخيص، فإنه يخاطر بالمبالغة في تقدير جودة بيئات المعلومات السابقة، ودور المعلومات في تمكين الأفراد من ممارسة الحكم الذاتي. وفي الواقع، اتسمت الانتقادات الموجّهة إلى جودة وسائل الإعلام في الأنظمة الديمقراطية بالوفرة، حتّى قبل أن يصبح الإعلام الرقمي سائدًا، بوقت طويل . إضافة إلى ذلك، لا يتابع معظم الأفراد الأخبار عن كثب، وليست لهم توجّهات سياسية قوية، ولا يتفوّقون كثيرًا في اختبار المعرفة
41 Arvind Narayanan, Understanding Social Media Recommendation Algorithms (New York: Knight First Amendment Institute at Columbia University, 2023), at: https://acr.ps/1L9BPGK 42 Kaye. 43 Seth Flaxman, Sharad Goel & Justin M. Rao, "Filter Bubbles, Echo Chambers, and Online News Consumption," Public Opinion Quarterly , vol. 80, no. 1 (2016), pp. 298-320; Brian Kitchens, Sean L. Johnson & Paul Gray, "Understanding Echo Chambers and Filter Bubbles: The Impact of Social Media on Diversification and Partisan Shifts in News Consumption," MIS Quarterly , vol. 44, no. 4 (2020), pp. 1619-1649; Michael Scharkow et al., "How Social Network Sites and Other Online Intermediaries Increase Exposure to News," Proceedings of the National Academy of Sciences of the United States of America , vol. 117, no. 6 (2020), pp. 2761-2763. 44 Settle. 45 W. Lance Bennet & Steven Livingston (eds.), The Disinformation Age: Politics, Technology, and Disruptive Communication in the United States (Cambridge: Cambridge University Press, 2021). 46 John Keane, Democracy and Media Decadence (Cambridge: Cambridge University Press, 2013).
السياسية ؛ إذ يبدو أنّ معظمهم يعتمدون على مختصرات معلوماتية أو على بنى اجتماعية لممارسة الحكم الذاتي . لذلك، يمكن توقّع أن تتوسّط هذه الآليات أثر تحديد بيئات المعلومات التي يقودها الذكاء الاصطناعي. ولتقييم أثره على نحو شامل، يتعّي ن على البحث أن لا يأخذ في الحسبان بيئات المعلومات فحسب، بل عليه أيضًا أن ينظر في مدى تأثيره في العوامل البنيوية والاجتماعية التي تتوسط أثر المعلومات السياسية في الحكم الذاتي، وكيفيته. لا يبدو أنّ تحديد بيئات المعلومات التي يقودها الذكاء الاصطناعي يؤدّي حتمًاإلى تدهوٍرٍ في وصول الأفراد إلى المعلومات الضرورية، من أجل ممارسة حقهم في الحكم الذاتي. ومع ذلك، ثمّة غموض كبير يحيط بطريقة تشكيل بيئات المعلومات الرقمية. وكلما زاد دور هذه البيئات في الديمقراطيات، زادت الحاجة إلى تقييم دور الذكاء الاصطناعي في تشكيلها . ونحتاج أيضًا إلى عمليات تدقيٍقٍ خارجية منتظمة لتأثير الذكاء الاصطناعي في المعلومات المرئية على المنصات الرقمية على الإنترنت، وخاصة طبيعة المعلومات التي يجري الترويج لها ونوعها، أو طمسها من خلال الخوارزميات.
. ب اقتصاديات الأخبار
يؤثّر الذكاء الاصطناعي على نحٍوٍ غير مباشر في إنشاء معلومات سياسية ذات صلة وتوفيرها، من خلال تغيير الظروف الاقتصادية لإنتاج الأخبار. فمن جهة، تشير النجاحات الأخيرة في تطوير نماذج المحّولّات Transformer Models إلى أنّ الذكاء الاصطناعي قد يُستخدم قريبًا في إنتاج محتوى النصوص والصور والفيديوهات تلقائيّا. وهو ما قد يؤدّي إلى تعزيز الاتجاهات الحالية نحو الاعتماد على التوليد الآلي
47 Philip Converse, "The Nature of Belief Systems in Mass Publics," in: David E. Apter (ed.), Ideology and Discontent (New York: Free Press, 1964), pp. 206-261; Arthur Lupia & Mathew D. McCubbins, The Democratic Dilemma: Can Citizens Learn What They Need to Know? (Cambridge: Cambridge University Press, 1998); Prior; John R. Zaller, The Nature and Origins of Mass Opinion (Cambridge: Cambridge University Press, 1992). 48 Christopher H. Achen & Larry M. Bartels, Democracy for Realists: Why Elections Do Not Produce Responsive Government (Princeton, NJ: Princeton University Press, 2016); James H. Kuklinski & Paul J. Quirk, "Reconsidering the Rational Public: Cognition, Heuristics, and Mass Opinion," in: Arthur Lupia, Mathew D. McCubbins & Samuel L. Popkin (eds.), Elements of Reason: Cognition, Choice, and the Bounds of Rationality (Cambridge: Cambridge University Press, 2000), pp. 153-182; Milton Lodge & Charles S. Taber, The Rationalizing Voter (Cambridge: Cambridge University Press, 2013); Samuel L Popkin, The Reasoning Voter: Communication and Persuasion in Presidential Campaigns (Chicago: University of Chicago Press, 1991). 49 Andreas Jungherr & Ralph Schroeder, "Artificial Intelligence and the Public Arena," Communication Theory , vol. 33, no. 3 (2023), pp. qtad006.
للمحتوى في الهيئات الإخبارية . ويشكّل هذا التطور ضغطًا على الصحافيين الذين قد يَشهدون تحوّلًافي مهّم اتهم الروتينية نحو نُظم مَمََّكَنة بالذكاء الاصطناعي، وعلى الهيئات الإخبارية التي قد تواجه مجموعة من المنافسين الجدد ذوي التكلفة المنخفضة والمتخصصين في التوليد الآلي للمحتوى. وقد يزيد هذا من الضغوط على رواتب الصحافيين، وكذلك على الجمهور وأرباح شركات الأخبار؛ ما قد يكثّف الضغوط القائمة على قطاع الأخبار بوصفه نشاطًا تجاريّا . إضافة إلى ذلك، يعيد الذكاء الاصطناعي تشكيل الطرائق التي يصل بها الجمهور إلى الأخبار والمعلومات السياسية؛ فمثلًا، تُجري حاليّا محركاُتُ البحث، مثل بينغ Bing وغوغل Google، تجارَبَ على النماذج اللغوية الضخمة لتزويد المستخدمين بمحتوى موَّلَد آليّا، استجابةً لطلبات البحث، بدلًامن روابط المحتوى التي يوفّرها المزوّدون بالأخبار والمعلومات. ويحدّ هذا من فرص العوائد المالية Monetization لهيئات الإعلام الصغيرة أو المتوسطة الحجم التي لا تملك علامات تجارية قوية أو تفتقر إلى ولاء زبائنها، والتي كانت في الماضي قادرة على تحفيز الزيارات لمواقعها الإلكترونية، من خلال الإحالات عليها الناتجة من طلبات البحث على محركات البحث أو على مواقع التواصل الاجتماعي. وقد تؤدّي هذه القيود الجديدة على فرص تحقيق العوائد المالية إلى تراجع تغطية الشؤون السياسية، أو حتّى تقليص عدد الهيئات الإخبارية. وسيحدّ هذا من الحجم الكّل يللمعلومات المتوافرة لدى الأفراد وتنوّعها لاتخاذ قرارات مستنيرة. سيلحق كُّلُ ذلك ضررًا بالقادمين من خارج المنظومة السياسية القائمة أو متحدّيها، والذين يُعدّون الأكثر اعتمادًا على مزوّدي المعلومات الأصغر حجمًافي تغطية أنشطتهم. وسيؤدي هذا التراجع في فرص العوائد المالية للأخبار، على الأرجح، إلى تقوية المؤسسات القائمة والعلامات الإعلامية الكبيرة، وعلاقات السلطة المرتبطة بها. فضلًاعن ذلك، يمكن أن تساهم تصوّرات الجمهور بشأن هيمنة المحتوى الموَّلَد بالذكاء الاصطناعي على بيئات التواصل الرقمية - وبعضها صحيح، بينما بعضها الآخر مضلّل على نحو متعمّد، في حين أنّ قسطًا منها يُعدّ مضلّلًاعن غير قصد - في جعل فئات من الناس تحسّن تقييمها لهيئات الأخبار المختارة، التي يثقون بعملية إنتاجها للأخبار وضمانات جودتها. وقد تجد علامات الأخبار هذه نفسها أقوى، من خلال تزايد المحتوى المولّد بالذكاء الاصطناعي في
50 Nicholas Diakopoulos, Automating the News: How Algorithms Are Rewriting the Media (Cambridge, MA: Harvard University Press, 2019). 51 Rasmus Kleis Nielsen, "Economic Contexts of Journalism," in: Karin Wahl-Jorgensen & Thomas Hanitzsch (eds.), The Handbook of Journalism Studies , 2 nd ed. (New York: Routledge, 2020), pp. 324-340. 52 Jungherr & Schroeder, "Artificial Intelligence and the Public Arena."
بيئات الإعلام المفتوحة أو في التغطية التي يقوم بها المنافسون الذين يخفّضون التكلفة. وبطبيعة الحال، لا تصحّ هذه التوقّعات إّل اإذا نُظر إلى العلامات التجارية الإخبارية على أنها تقدّم قيمة مضافة مقارنةً بالمحتوى الموَّلَد بالذكاء الاصطناعي. من المهمّ، أيضًا، أن نتذكّر أنّ هذا التوجّه، الذي يحفّزه الذكاء الاصطناعي، نحو علامات إخبارية معيّنة لا يتحقّق إّل ا في ظل تفاعل أفراد الجمهور مع الأخبار والسياسة، وسعيهم للحصول على معلومات دقيقة تعكس اهتمامهم بالسياسة. ومن المرجّح أن يكون هؤلاء الأفراد من ذوي الموارد السوسيو-اقتصادية الجيّدة والمنخرطين سياسيًا . وقد يقبل آخرون بالمحتوى المجاني أو المولّد آلًّيًا. ومن المرجح أن يعزّز ذلك فجوة المعلومات بين الجمهور المهتمّ بالسياسة والجمهور غير المهتمّ بها، والتي اتّسعت في أعقاب التحوّل من بيئة إعلامية محدودة الخيارات إلى بيئات تواصلية رقمية تتيح خيارات أوسع . وفي البلدان التي تفتقر إلى هيئات بثّ عمومية قوية، مثل الولايات المتحدة الأميركية، يعكس هذا الانقسام الفروق الاقتصادية أيضًا، إذ إنه يتيح لمن يملكون القدرة على الدفع الوصول إلى معلومات ذات جودة عالية ودقيقة ومؤكّدة؛ في حين يترك أولئك غير القادرين أو غير الراغبين في الدفع لبيئة معلومات رقمية مجانية مشوّشة، وآلية (نسبيّا)، ومتباينة الصدقية. وبمرور الوقت، قد يعني هذا أنّ الانقسامات السوسيو-اقتصادية تحدد (أو يُنَظَر إليها على أنها تحدد) مدى قدرة الناس على التوصّل إلى قرارات سياسية مستنيرة.
. ج الخطاب
لا يؤثّر الذكاء الاصطناعي في الوصول إلى المعلومات فحسب، بل يشمل أيضًا التعبير عن الآراء والاهتمامات والمخاوف في بيئات التواصل الرقمي. ومع التحوّل المتزايد لهذه البيئات إلى فضاءاٍتٍ للتعبير عن أصوات المستخدمين، وإبراز مخاوفهم، وبناء هوياتهم السياسية، يصبح كل ذلك عنصرًا مهًّم افي تشكيل الذكاء الاصطناعي لظروف الحكم الذاتي.
53 Markus Prior, Hooked: How Politics Captures People's Interest (Cambridge: Cambridge University Press, 2018); Kay Lehman Schlozman, Henry E. Brady & Sidney Verba, Unequal and Unrepresented: Political Inequality and the People's Voice in the New Gilded Age (Princeton, NJ: Princeton University Press, 2018). 54 Markus Prior, "Conditions for Political Accountability in a High- Choice Media Environment," in: Kate Kenski & Kathleen Hall Jamieson (eds.), The Oxford Handbook of Political Communication , (Oxford: Oxford University Press, 2017), pp. 897-912.
إنّ القدرة المتصوّرة للذكاء الاصطناعي على تصنيف المحتوى جعلته يتصدّر محاربة الخطابات والمعلومات المضِّللِة الضارّة. وتستخدم شركاُتُ التكنولوجيا الذكاَءَ الاصطناعي على نطاق واسع لتصنيف محتوى المستخدمين، سواء لمنع نشره أو الإبلاغ عنه لدى المشرفين على المنصات من أجل مراجعته . وثمّة غموض في الإجراءات التي تطبّقها هذه المنصات، ومدى نجاحها ونسبة الخطأ فيها، خاصة بالنسبة إلى مَن هم مِن خارج هذه الشركات التي تشرف على المنصات؛ ما يجعل تقييم نطاق استخدامات الذكاء الاصطناعي وآثاره في الخطاب مسألة صعبة. وهذا أمر إشكاليّ؛ لأن ما يُدرج ضمن فئَتَي خطاب الكراهية والمعلومات المضللة يصعب تصنيفه؛ إذ لا تتّسم أٌّيٌ من هاتين الفئتين بالموضوعية أو الاستقرار، فكلتاهما تتطلّب التأويل مع تغّي رالمعنى، كّلمّا اختلفت السياقات والفترات الزمنية. وهذا ما يجعل تحديدهما باستخدام الذكاء الاصطناعي الآلي القائم على البيانات مسألة صعبة، ويخاطر بقمع الخطاب السياسي المشروع. إضافة إلى ذلك، تؤثّر العمليات التقنية للذكاء الاصطناعي في نوع الخطاب الذي يظهر في الفضاءات التي يشكّلها هذا الذكاء نفسه. فمن خلال تعلّم أنماط معيّنة ضمن مجموعة من الحالات، يجنح الذكاء الاصطناعي إلى المتوسطات Averages؛ ومن ثمّ، فإن تشكيل الخطاب أو المواقف السياسية وتلخيصها اعتمادًا على الذكاء الاصطناعي، يمنح المواقَفَ والمخاوَفَ والتعبيرات الشائعة نوعًا من الأفضلية، في حين تؤدّي البيئات التواصلية التي يشكّلها، والتي لا تستجيب لهذا التحدي، إلى حجب المواقف والمخاوف والتعبيرات التي يتبنّاها مَن هم مِن خارج الفئات المرئية في الفضاء العمومي، فضلًاعن حجب مواقف الأقلّيات. وبناء عليه، فإنّ الذكاء الاصطناعي يؤثّر سلبيّا في قدرة المجتمع على أن يجعل نفسه جليّا لنفسه to make itself visible to itself، ويؤدي إلى تقويض قدرات الديمقراطيات على معالجة المعلومات، وإلى تعزيز الوضع السياسي القائم . ومع ذلك، ثمّة بعض البدائل للإشراف القائم على الذكاء الاصطناعي، نظرًا إلى الحجم الهائل للمحتوى المنشور في بيئات التواصل الرقمية ، وهو ما يستدعي فهمًاأفضل لآليات عمل هذه الأنظمة وتأثيراتها. وبناء عليه، فإنّ الإشراف القائم على الذكاء الاصطناعي يحتاج إلى تقييٍمٍ تجريه منصّاٌتٌ وعملياُتُ تدقيق خارجية External Audits من أجل ضمان عمله على نحٍوٍ سليم.
55 Evelyn Douek, "Governing Online Speech: From 'Posts-as-Trumps' to Proportionality and Probability," Columbia Law Review , vol. 121, no. 3 (2021), pp. 759-834; Kaye. 56 Jungherr & Schroeder, "Artificial Intelligence and the Public Arena." 57 Douek.
إن الإشراف القائم على الذكاء الاصطناعي ليس مخاطرة في حد ذاته. فقد أشار الباحثون والمعلّقون، منذ فترة طويلة، إلى حدود التداولات السياسية الواسعة النطاق التي يجري فرضها في غياب أيّ كفاءة في توزيع المعلومات، وإظهار التفضيلات، والتنسيق بين الأفراد. فقد يتغلّب الذكاء الاصطناعي على بعض هذه التحدّيات من خلال التنبّؤ بالتفضيلات الفردية، وتصنيف المعلومات، وتنظيم تدفقها ؛ ما قد يتيح فرصًا تداولية وتشاركية جديدة في الديمقراطيات، ويعزز الممارسة الديمقراطية وينعشها. ومن المهمّ أن نظلّ واعين بالمخاطر والفرص التي يوفّرها الذكاء الاصطناعي في الإشراف على الخطاب، وإبراز المخاوف في البيئات التواصلية الرقمية. ويمكن أن يساهم الذكاء الاصطناعي في إيجاد حلول خّل اقة لبعض التحديات التكنولوجية الكامنة في الحكم الذاتي الناجح، ولكنّ تحقيق ذلك يقتضي منا معرفة المزيد عن استخداماته الفعلية، وآثاره ومخاطره. ويتطلّب ذلك شفافية أكبر من المنصات الرقمية، ويقظةً وانتباهًا متواصَليَن من المجتمع المدني.
. د التلاعب
يمكن أن يؤثّر الذكاء الاصطناعي سلبيّا كذلك في الاستقلالية المعلوماتية للأفراد، من خلال التنبّؤ بردّات أفعالهم تجاه التدّخلّات في عمليات التواصل. ويمكن أن يسمح ذلك للمشتغلين في ميدان التواصل بالوصول إلى الناس بالطريقة الصحيحة لتغيير آرائهم وسلوكاتهم. يقدّم ناثان ساندرز وبروس شناير تجربة ذهنية، توضح الكيفية التي يمكن أن يستخدم بها أعضاُءُ جماعات الضغط الذكاَءَ الاصطناعي للتنبؤ باحتمال نجاح مقترح قانوٍنٍ يقدمونه للمشرّعين في المجالس البرلمانية. وعلى الرغم من أنّ تحقق ذلك لا يزال بعيدًا، فإن المثال الذي قدّمه ساندرز وشناير يُظهر استخدام الأطراف ذات المصلحة للذكاء الاصطناعي لتعزيز مواردها، وربما لإحداث تدخلات تسعى إلى توجيه تصرفات الأفراد بما يخدم مصالحها الخاصة. ويمكن كذلك استخدام الذكاء الاصطناعي لتوليد رسائل هدفها إقناع الناس؛ إذ تشير أبحاث مبكرة إلى أنّ التدخلات المصمّمة باعتماد النماذج اللغوية الكبيرة لها قدرة على الإقناع . وعلى هذا المنوال، يستخدم الأكاديميون وخبراُءُ الحملات الانتخابية هذه النماذج حالًّيًا، لإثارة ردات أفعال وتوجّهات معيّنة لدى مصوّتين نموذجيين Prototypical؛ من أجل اختبار مدى
58 Landemore, Can AI Bring Deliberative Democracy to the Masses? 59 Nathan E. Sanders & Bruce Schneier, "Machine Learning Featurizations for AI Hacking of Political Systems," arXiv , 2021. 60 Hao Bai et al., "Artificial Intelligence Can Persuade Humans on Political Issues," OSF Preprints , 2023.
تأثير الرسائل، ولأغراض تتعلق بالبحث العلمي، على الرغم من أن دقّة هذه المقاربات وصلاحيتها تظّل ان محلّ جدل . ثّة أيضًا مخاوف ترتبط بتعرّض الأفراد لتدخلات تواصلية مستهدفة في بيئات التواصل الرقمية. فمن خلال التنبؤ بالكيفية، التي يحتمل أن يتفاعل بها الناس مع إعلان إشهاري مثلًا، يمكن أن تستخدم شركاُتُ الاستشارات الرقمية الذكاَءَ الاصطناعي في تصميم تدّخلّات للتأثير في الأفراد. وقد قدَّمَت لمحةً أولى عن هذه المشكلة ممارساُتُ شركة الاستشارات الإنكليزية، "كامبريدج أناليتيكا" Analytica Cambridge، التي ادّعت القدرة على التنبّؤ بطبيعة المعلومات المنشورة على منصة فيسبوك، الضرورية لجعل المستخدمين يتصرّفون بطرائق مربحة لزبائنها الذين يخوضون انتخابات. وعلى الرغم من أنّ ادعاءات الشركة قد دُحضت ، فإن هذه الواقعة تكشف التصوّر الشائع بأنّ للذكاء الاصطناعي قدرةً على التلاعب بالناس بحسب الطلب، فضلًاعن استعداد الصحافيين والجمهور لقبول ادعاءات مبالغ فيها بشأن قوة التلاعب المدعوم رقميّا، بغضّ النظر عن الحجج التي تنقضها. تتيح التطوّرات الحديثة في نماذج المحّولّات آفاقًا جديدة لتلاعباٍتٍ محتملة، عبر الإنتاج الآلي للنصوص أو الصور . وثمّة استخدامات مشروعة لهذه النماذج، فضلًاعن أخرى خبيثة. فعلى سبيل المثال، تسهّل هذه النماذج التوليد الآلي للمحتوى اعتمادًا على المعلومات الخام وبيانات الأحداث، كما هو الحال في تغطية الأحداث الرياضية أو سوق الأسهم . وإلى حد بعيد، لا يثير ذلك أيّ إشكالية؛ لأن الذكاء الاصطناعي يترجم المعلومات من أحد أشكال التمثيل، مثل البيانات العددية أو بيانات الأحداث، إلى شكل آخر، مثل مقالة إخبارية سردية. وأمّا الحالات الأكثر إشكالية، فهي تلك التي لا يقتصر فيها دور الذكاء الاصطناعي على تغيير شكل تمثيل للمعلومة إلى شكل آخر، بل يولّد محتوى استنادًا إلى تعليمات ونماذج سابقة. ومن الأمثلة على ذلك الاستجابات النصية أو المرئية لتعليمات نصّية أو أسئلة. ولا يلتزم الذكاء الاصطناعي بصحة الحجة أو الملاحظة، بل يحاكيها فقط كما هي موجودة في البيانات السابقة. فهو يلتزم اليوم فقط بتمثيل
61 James Bisbee et al., "Artificially Precise Extremism: How Internet- Trained LLMs Exaggerate Our Differences," Socarxiv , 2023; John J. Horton, "Large Language Models as Simulated Economic Agents: What Can We Learn from Homo Silicus?" NBER Working Paper , 2023; Jihoo Kim & Byoungkwan Lee, "AI-Augmented Surveys: Leveraging Large Language Models for Opinion Prediction in Nationally Representative Surveys," arXiv , 2023. 62 Jungherr, Rivero & Gayo-Avello, pp. 124-130. 63 Brown et al.; Ramesh et al. 64 Diakopoulos.
العالم أو بموضوٍعٍ ما أو حجة كما هي متوافرة له، وليس كما هي بالفعل . وبذلك، فإن مخرجاته كما تظهر لا يمكن الوثوق بها؛ إذ إنها قد لا تكون صحيحة True، بل معقولة Plausible فقط. ويتمثل الأمر الأكثر إشكالية في احتمال أن يُستخدم الذكاء الاصطناعي مستقبلًالإنتاج معلومات مزيّفة على نطاق واسع. وقد يتّخذ ذلك شكل تزييف موجّه يهدف إلى تضليل الأشخاص، وإغراق بيئات المعلومات بكميات هائلة من محتوى غير موثوق به أو مضِّلِل موَّلَد بالذكاء الاصطناعي. وسيؤدي ذلك إلى تمييع بيئات المعلومات؛ ما يصعّب على الناس الوصول إلى المعلومات المهمّة و/ أو يجعلها تبدو غير جديرة بالثقة. في الوقت نفسه، وعلى نحو قد يبدو معارضًا للحدس، قد يساهم تفّش يالمعلومات المضلّلة الموَّلَدة آلًّيًا في تعزيز الأخبار المهنية والسعي وراء المعلومات الموثوقة، وفق ما ناقشنا آنفًا. فعندما يصبح شيوع المعلومات غير الموثوقة والمضللة في بيئات المعلومات الرقمية جليّا، ترتفع قيمة المكاسب من الاعتماد على المعلومات الموثوقة. وبناء عليه، قد تشهد مصادر الأخبار المهنية والموثوقة والمحايدة تراجعًا في حظوظها، مقارنةً بالتحديات الاقتصادية والفكرية التي واجهتها خلال العشرين عامًا الماضية. وبهذه الطريقة، قد يؤدي التزايد في حجم المعلومات المضلّلة المؤتمتة Automated إلى تعزيز دور المؤسسات الوسيطة التي تزوّد بالمعلومات في سياق الديمقراطيات. ومن المهمّ الإشارة إلى أنّ استخدامات الذكاء الاصطناعي هذه لا تزال تصوّرات نظرية، وقد لا تتحقق نظرًا إلى محدودية التكنولوجيا المؤِّسِسة لها، أو احتمال تطوير إجراءات مضادّة فاعلة، و/ أو استمرارية وجود بنى وسيطة تحدّ من آثار المعلومات إجمالًا. مع ذلك، وبالنظر إلى التطوّرات التكنولوجية الأخيرة، أصبحت هذه الاستخدامات بارزة بقوة في مخيال الجمهور، ولذلك فهي تتطلب تأمّلًانقديّا من جانب علماء الحاسوب والعلوم الاجتماعية.
ه. حكم الخبراء
يرتبط دعم الحكم الذاتي ارتباطًا وثيقًا أيضًا بتقييم محدودية حُكم الخبراء في نظم اجتماعية معقّدة. ولا شك في أنّ الخبرة مهمّة، ولكنّ قدرتها على التنبؤ تظلّ محدودة في مجتمعات معقّدة؛ إذ يُنَظَر إلى آليات اتّخاد القرار اللاممركزة وظهور تفضيلات الحكم الذاتي، على الرغم من أنها لا تخلو من عيوب، على أنها أفضل ترتيٍبٍ لاتخاذ
65 Smith.
القرارات الملِزِمة جماعيّا . لقد عزّز النموّ في حجم البيانات المتوافرة في مجالات متزايدة، إلى جانب الفرص التحليلية الجديدة التي يوفّرها الذكاء الاصطناعي، الآماَلَ في تطوير قدرات تنبّئية جديدة في المجتمعات المعقّدة . ولا يقتصر دوره على إلقاء الضوء على نقاط ضعف متّخذي القرارات السياسية، بل إنه يعزّز أيضًا سلطة الخبراء. يحمل الذكاء الاصطناعي معه فرصًا جديدة لنمذجة التوجهات الاجتماعية والاقتصادية والبيئية والجيوسياسية والتنبّؤ بها؛ ما يبّش ر بتزويد الخبراء بتنبّؤات تتعلق بسلوك الأفراد، استجابةً للتدخلات التنظيمية أو الحوكمية. وفي حين لا تزال الجودة الفعلية لمثل هذه المقاربات محلّ تساؤل، فإنها تحظى بسلطة إضفاء الشرعية فضلًاعن سلطةٍ خطابية. فهي تعزّز سلطة الخبراء الذين يعتمدون، أحيانًا فعليّا وأحيانًا أخرى خطابيّا، على نماذج مدعومة بالذكاء الاصطناعي أساسًا لتوصياتهم بشأن كيفية تصرّف المجتمعات في مواجهة التحديات المجتمعية الكبرى. ويمكن أن يقلّص هذا النموّ الجّل ي في سلطة الخبراء، التي تسمح لهم بتوجيه استجابة المجتمعات للتحديات، حيَّزَ الخيارات المتاحة لآليات اتخاذ القرار الديمقراطية؛ ما يحوّل السؤال من "هل يمكن أن يتّخذ الأفراد القرارات؟" إلى "هل ينبغي لهم اتخاذها بأنفسهم؟." وههنا، يمكن أن يحفّز الذكاء الاصطناعي الانتقال من الحكم الذاتي إلى حكم الخبراء؛ ومن ثمّ إضعاف الديمقراطية.
. و سلطة شركات التكنولوجيا
يعزّز الذكاء الاصطناعي أيضًا سلطَةَ الشركات على الجمهور، وحتّى على الدول. وفي حين انطلقت الطفرات النظرية في الموجة الحالية من الجامعات، فإن الشركات هي التي تقود تطبيقاته العملية وتطويرها ونشرها على نطاق واسع . وبمرور الوقت، قد تتحوّل القدرة على الابتكار والمساءلة النقدية للذكاء الاصطناعي من الفاعلين العموميين أو الحكوميين إلى الخواص؛ ما يضعف القدرة على الإشراف عليه وتقنينه بوساطة مؤسسات ذات شرعية ديمقراطية. ويمكن رؤية هذه
66 Dahl; Charles E. Lindblom, The Market System: What It Is, How It Works, and What to Make of It (New Haven, CT: Yale University Press, 2001). 67 Rob Kitchin, "Big Data, New Epistemologies and Paradigm Shifts," Big Data & Society , vol. 1, no. 1 (2014), pp. 1-12. 68 Nabeel Ahmed, Mohamed Wahed & Neil C. Thompson, "The Growing Influence of Industry in AI Research," Science , vol. 379, no. 6635 (2023), pp. 884-886; Cade Metz, Genius Makers: The Mavericks Who Brought AI to Google, Facebook, and the World (New York: Dutton, 2021).
التحديات بوضوح في محاولات الولايات المتحدة والاتحاد الأوروبي فرض سيطرتهما على تقنين تطوير الذكاء الاصطناعي واستخداماته . وُتُطرح أيضًا مسألة السلطة الاقتصادية والسياسية؛ فقد سمح الذكاء الاصطناعي لشركات مثل غوغل وأمازون بالهيمنة على قطاعات اقتصادية عديدة . وقد أخذت الحكومات أيضًا تعتمد على مزوّدي خدمات قائمة على الذكاء الاصطناعي لدعم الوظائف التنفيذية، مثل الشرطة والأمن. وترتّب على ذلك تزايد اعتماد الحكومات على شركات الذكاء الاصطناعي، وتحوّل غير شفاف للمعرفة من الحكومات إلى مزوّدي هذه الخدمات. ويضاف إلى ذلك ما تملكه هذه الشركات من سلطة على تدفّق المعلومات التي يدعمها الذكاء الاصطناعي وتحكّم في الخطاب السياسي ، إلى جانب احتلالها مواقَعَ مركزية في النظم الديمقراطية؛ ما قد يؤثّر سلبيّا في قدرات الأفراد على ممارسة الحكم الذاتي. وُيُظهر ذلك أهمية إشراف الحكومات والمجتمع المدني على الشركات التي تطوّر تطبيقات الذكاء الاصطناعي وتستخدمها، لضمان ترسيخ أسس الحكم الذاتي في ظل التزايد المطّرد لاعتماد المجتمعات على النظم المدعومة بالذكاء الاصطناعي.
2. الذكاء الاصطناعي والمساواة
تعتمد الديمقراطية على حصول الأفراد على حقوق متساوية في المشاركة والتمثيل . وعلى الرغم من أنّ هذا المثل الأعلى Ideal لا يتحقق على نحو كامل، ويجري التنازع بشأنه في الممارسة العملية ، فإن الديمقراطيات تخوض كفاحًا مستمرًا من أجل توسيع نطاق الحقوق لتشمل المجموعات المستبَعَدة سابقًا. ويهدد اعتماد الذكاء الاصطناعي على البيانات التي توثّق للماضي بتقويض هذه العملية، واستمرار التمييز الذي كان سائدًا في الماضي، وتواصله في المستقبل؛ ومن ثم إضعاف الديمقراطية. ومن خلال التنبؤ بكيفية تصرّف الأفراد في ظروف مختلفة، استنادًا إلى ملاحظاٍتٍ مستمدة من
69 Chris Criddle & Hannah Murphy, "OpenAI Chief Says New Rules Are Needed to Guard against AI Risks," Financial Times , 16/5/2023; Javier Espinoza & Ian Johnston, "EU Lawmakers Agree Tough Measures over Use of AI," Financial Times , 11/5/2023. 70 James Bessen, New Goliaths: How Corporations Use Software to Dominate Industries, Kill Innovation, and Undermine Regulation (New Haven, CT: Yale University Press, 2022); Erik Brynjolfsson, Wang Jin & Xiang Hui Wang, "Information Technology, Firm Size, and Industrial Concentration," NBER Working Paper, no. 31065, 2023. 71 Jungherr & Schroeder, "Artificial Intelligence and the Public Arena." 72 Dahl. 73 Anne Phillips, Unconditional Equals (Princeton: Princeton University Press, 2021); Iris Marion Young, Inclusion and Democracy (Oxford: Oxford University Press, 2002).
الماضي، يميز الذكاء الاصطناعي بين الأفراد، بناءً على معاييَرَ مجَّسَدة في نقاط البيانات Points Data. وُيُخشى أن يؤدي ذلك إلى تعزيز التحيّزات القائمة في المجتمع، بل إعادة إنتاج أنماط تمييزية اجتماعية وقانونية وسياسية، كنا قد تجاوزناها، ونْقْلها من الماضي إلى الحاضر والمستقبل . ومن ثمّ، تغدو مراقبة تطبيقات الذكاء الاصطناعي وتدقيقها باستمرار مسألة حيوية وذات أهمية قصوى. تتوقف مرئية الأفراد بالنسبة إلى الذكاء الاصطناعي على مدى تمثيليتهم في بيانات الماضي. ويواجه الذكاء الاصطناعي صعوبة في التعرف إلى أولئك الذين ينتمون إلى مجموعات غير ممثّلة تمثيلًاكافيًا في البيانات التي جرى توظيفها في تدريبه. ستظل، مثلًا، الأقليات غير الممثّلة تقليديّا في مجموعات البيانات غير مرئية بالنسبة إلى رؤية الحاسوب ، ولن يتم ربط المجموعات غير الممثّلة على نحٍوٍ كاٍفٍ تاريخيًا بمهن معيّنة، ومن ثمّ تخاطر بالتمييز في إجراءات التوظيف المسنودة بالذكاء الاصطناعي . وهذا النمط العام وثيق الصلة بالديمقراطية: فمثلًا، يعني افتقار مجموعات معيّنة إلى المرئية، على نحو ممنهج، أنّ دورها سيتضاءل في أيّ تمثيل للكيان السياسي قائٍمٍ على الذكاء الاصطناعي، وفي التنبّؤات المتعلّقة بسلوكه ومصالحه وتوجّهاته ومظالمه. وبناءً على ذلك، قد يواجه الأفراد المحرومون خطر المزيد من الحرمان والتمييز في الوصول إلى الخدمات الحكومية، أو تطوير أجندات السياسات العمومية القائمة على تفضيلات وأصوات بوساطة رقمية، أو مواجهة قمع متزايد من أجهزة أمن الدولة. يجعل الذكاء الاصطناعي بعض الأفراد أكثر مرئية. ومن الناحية التاريخية، سنجد المجموعات المهمّشة ممثّلة تمثيلًاعاليًا في سجلات الجرائم؛ ما سيؤثّر سلبيّا في أعضاء تلك المجموعات في المقاربات
74 Virginia Eubanks, Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. (New York: St. Martin's Press, 2018); Sandra G. Mayson, "Bias In, Bias Out," Yale Law Journal , vol. 128, no. 8 (2019), pp. 2218-2300; Ninareh Mehrabi et al., "A Survey on Bias and Fairness in Machine Learning," ACM Computing Surveys , vol. 54, no. 6 (2022); Ziad Obermeyer et al., "Dissecting Racial Bias in an Algorithm Used to Manage the Health of Populations," Science , vol. 366, no. 6464 (2019), pp. 447-453; Mitchell et al. 75 Joy Buolamwini & Timnit Gebru, "Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification," in: Sorelle A. Friedler & Christo Wilson (eds.), Proceedings of the 1 st Conference on Fairness, Accountability and Transparency, 23-24 February 2018, New York , PMLR 81 (New York: Association for Computing Machinery, 2018), pp. 77-91, accessed on 20/1/2025, at: https://acr.ps/1L9BPey 76 Aylin Caliskan, Joanna J. Bryson & Arvind Narayanan, "Semantics Derived Automatically from Language Corpora Contain Human-Like Biases," Science , vol. 356, no. 6334 (2017), pp. 183-86.
القائمة على الذكاء الاصطناعي في مجالات إنفاذ القانون والمحاكمة . وفي بلدان مثل الولايات المتحدة، حيث يُحَرَم المجرمون من حقوق التصويت بدرجات متفاوتة بحسب الولايات، يمكن أن تؤدّي التحيّزات الممنهجة الكامنة في إجراءات إنفاذ القانون والمحاكمة المدعومة بالذكاء الاصطناعي، بمرور الوقت، إلى جعل المصوّتين متحيّزين على نحو ممنهج ضد المجموعات المحرومة تاريخيّا . ويمكن أن يكون أيضًا للمقاربات القائمة عليه تأثير عميق في إعادة ترسيم الدوائر الانتخابية . وقد يؤدّي ذلك أيضًا إلى تعزيز أوجه عدم المساواة البنيوية وأشكال التمييز، من خلال المساهمة في استمرارية الأنماط القائمة في البيانات التاريخية، حتّى في المجتمعات التي تسعى إلى سنّ ممارسات أكثر مساواةً وأقلّ تمييزًا. من خلال ذلك، يمكن أن نستنتج أنّ التمثيلات اللاحقة للرأي العام والكيان السياسي، القائمة على الذكاء الاصطناعي، وعمليات إعادة ترسيم الدوائر الانتخابية المدعومة به، قد تكون متحيّزة ضد مجموعات كانت مهَّمَشة في الماضي. ويمكن أن تزيد درجات مختلفة من المرئية للذكاء الاصطناعي من النفوذ الديمقراطي لبعض المجموعات، وتقلّل نفوذ مجموعات أخرى. فمثلًا، يمكن أن يساهم الذكاء الاصطناعي في زيادة موارد المحظوظين أصلًا، بجعل أصواتهم ومصالحهم وتوجّهاتهم ومخاوفهم ومظالمهم أكثر بروزًا، وفي متناول صنّاع القرار. وقد يستخدم تفضيلات المجموعات البارزة في التنبّؤ بالاتجاهات Trends السياسية وتأثير السياسات، في حين يتجاهل تفضيلات المجموعات الأقل مرئية. قد تخلّف تكنولوجيا الذكاء الاصطناعي آثارًا سلبية في سوق العمل؛ فبينما يمكن الشركات، من حيث المبدأ، أن تستثمر في الأتمتة من أجل تمكين العمال من التفرّغ لإنجاز مهّم ات جديدة تزيد من قيمة عملهم، يبدو أنّها في الغالب تسعى إلى خْفْض تكاليف العمالة من خلال استبدال الذكاء الاصطناعي بالمهّم ات القائمة على العمل
77 Alexandra Chouldechova, "Fair Prediction with Disparate Impact: A Study of Bias in Recidivism Prediction Instruments," Big Data , vol. 5, no. 2 (2017), pp. 153-163; Christian; Andrew Guthrie Ferguson, The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement (New York: New York University Press, 2017). 78 Hadar Aviram, Alexander Bragg & Christopher Lewis, "Felon Disenfranchisement," Annual Review of Law and Social Science , vol. 13 (2017), pp. 295-311. 79 Wendy K. Tam Cho & Bruce E. Cain, "Human-Centered Redistricting Automation in the Age of AI," Science , vol. 369, no. 6508 (2020), pp. 1179-1181.
البشري . وهذا يضعف قدرة العّم ال على التفاوض، ويقلّل دخلهم من خلال استبدال رأس المال بالعمل؛ ما يهدد بتعميق عدم المساواة الاقتصادية وإضعاف القوة التفاوضية الجماعية لدى العمال. ومن ثمّ، قد يؤدي ذلك أيضًا إلى إضعاف نفوذ العمال السياسي وتقليص تمثيلهم . ومع ذلك، فنحن غير متيقّنين من نوعية العمل الذي سيتأثّر بالتقدّم التكنولوجي القائم على الذكاء الاصطناعي؛ فعادةً ما تحلّ الأتمتة محلّ المهّم ات البشرية الروتينية، ولذلك، فهي غالبًا تؤثّر في العمال ذوي المهارات المتدنّية . لكنّ الموجات اللاحقة من الابتكار في الذكاء الاصطناعي بيّنت أنّ المهّم ات الروتينية تشكّل أساس العديد من المهن، بما فيها المهن المكتبية White-collar والَمَعرفية التي لطالما عَُّدَت محصَّنَة ضد الأتمتة. وهكذا، قد يساهم الذكاء الاصطناعي في تغيير مصائر العمال السياسية، مؤِّثِرًا في مجموعات اقتصادية أوسع مقارنةً بأشكال الأتمتة التقليدية. ويمكن بالفعل ملاحظة ذلك في النقاش الراهن حول أثر النماذج اللغوية الكبيرة والذكاء الاصطناعي التوليدي في قطاَعَي الإبداع والبرمجيات، اللَذَين بدَوَا حتى الآن في مأمن من مخاطر الاستبدال المهني بفعل الأتمتة. وقد تجلّت هذه التصدعات الناشئة عمليًا خلال إضرابات الُكُتّاب السينمائيين في هوليود عام 2023، حيث طالب كتّاب السيناريو بحمايةٍ تعاقدية ضدّ استخدام شركات الإنتاج للذكاء الاصطناعي في مهّم ات الكتابة . وفي الوقت نفسه، يمكن أن يساعد الذكاء الاصطناعي المجتمعات التي تعاني الشيخوخة Aging في إنجاز مهّم ات العمل، التي يمكن الاستعاضة عنها، وتركيز قوة العمل في المهّم ات التي لا يمكن الاستعاضة عنها حاليّا بالذكاء الاصطناعي، ومن ثمّ الحفاظ على مستويات الإنتاجية في مواجهة الضغوط الديموغرافية المتزايدة في العديد من
80 Daron Acemoglu & Pascual Restrepo, "Artificial Intelligence, Automation and Work," in: Ajay Agrawal, Joshua Gans & Avi Goldfarb (eds.), The Economics of Artificial Intelligence: An Agenda (Chicago: University of Chicago Press, 2019), pp. 197-236. 81 Daron Acemoglu, "Harms of AI," in: Justin B. Bullock et al. (eds.) The Oxford Handbook of AI Governance (Oxford: Oxford University Press, 2021); Aina Gallego & Thomas Kurer, "Automation, Digitalization, and Artificial Intelligence in the Workplace: Implications for Political Behavior," Annual Review of Political Science , vol. 25 (2022), pp. 463-484. 82 Daron Acemoglu & Pascual Restrepo, "Tasks, Automation, and the Rise in U.S. Wage Inequality," Econometrica , vol. 90, no. 5 (2022), pp. 1973-2016; Frey. 83 Alissa Wilkinson, "The Looming Threat of AI to Hollywood, and Why It Should Matter to You," Vox , 2023.
الاقتصاديات المتقدّمة . لكنّ تحقيق الإمكانات الاقتصادية للذكاء الاصطناعي لفائدة المجتمعات يتطلب ضمان توزيع المكاسب على نطاق واسع بدلًامن أن ينحصر في نخبة محدودة. وفي ظل المكاسب الاقتصادية الناتجة من التكنولوجيا الرقمية، يبدو أنّ الرابط بين هذه المكاسب والتوزيع المشترك للرخاء قد تراجع أو انقطع. ويثير ذلك مخاوف من أنّ النخب قد تكون المستفيد الأساسي من المكاسب التي يتيحها الذكاء الاصطناعي، في حين يظل معظم الناس عرضة للمخاطر الاقتصادية الناجمة عن الأتمتة . ويمكن أن يعزّز هذا غياب المساواة في المجتمع، ويضعف الديمقراطية. ويضع هذا التطوّر الخطير المحتمل توظيف الذكاء الاصطناعي والإشراف العمومي والتنظيمي عليه في صلب الاهتمام. يلامس الذكاء الاصطناعي، بكل وضوح، مسألة المساواة داخل الديمقراطيات؛ إذ إنّ أوجه غياب المساواة ربما تتجلى في تخصيص اختيارات الأفراد والمجموعات، وفي تقديم خدمات الدولة التي تستخدم أنظمة الذكاء الاصطناعي، وفي مرئية الأفراد وتمثيلهم ضمن هذه الأنظمة، فضلًا عن توفير الفرص الاقتصادية لأولئك الذين يمكن استبدال مهّم ات عملهم بالذكاء الاصطناعي، أو حجب هذه الفرص عنهم. ومن ثمّ، تُعدّ هذه المجالات مهمّة للمزيد من البحث، وللتدخل التنظيمي عند الضرورة.
الذكاء الاصطناعي والانتخابات
تعتمد الديمقراطية على الانتخابات التي تقِّنِن الصراع السياسي وتدبّره، من خلال منح مختلف الفصائل السياسية فرصة الوصول إلى السلطة ضمن إطار مؤسسي. ولا ينجح هذا، إلا إذا رأى كل فصيل فرصةً فعليةً للوصول إلى السلطة عن طريق الانتخابات؛ ما يجعل الديمقراطية نظامًا قائمًا على "عدم يقين منظّم" . وتهدّد تطبيقات الذكاء الاصطناعي بإزاحة هذه الحالة المتصَّوَرة من عدم اليقين بشأن من سيخسر في الانتخابات ومن سيفوز بها. ومع ذلك، تظلّ استخداماته في هذا المجال محدودة. تَُعَدّ المقاربات القائمة على البيانات محدودة في قدرتها على التنبّؤ بسلوك المصِّوِتين. فبينما يمكن التنبّؤ بدرجة معيّنة بسلوك تصويت
84 Daron Acemoglu & Pascual Restrepo, "Demographics and Automation," The Review of Economic Studies , vol. 89, no. 1 (2022), pp. 1-44. 85 Acemoglu & Johnson. 86 Przeworski. 87 Adam Przeworski, Democracy and the Market: Political and Economic Reforms in Eastern Europe and Latin America (Cambridge: Cambridge University Press, 1991), p. 13.
المتحزّبين ، لا سيما في الأنظمة ثنائية الحزب، يصبح التنبّؤ بسلوك الأفراد الذين يشاركون في السياسة مشاركة محدودة أشد صعوبة وتعقيدًا؛ فالناس لا يصِّوِتون دائمًا، وعندما يدلون بأصواتهم، قد تختلف السّياقات كثيرًا. وفي الغالب، لا تكون خياراتهم التصويتية متاحة أمام الُمُنمذجين Modelers؛ ما يجعل التنبؤ آليًا بالسلوك التصويتي مشكلة بالنسبة إلى الذكاء الاصطناعي، ويظلّ غير مؤهّل للتعامل معها. وبناء عليه، فإن عدم اليقين المرتبط بالانتصارات الانتخابية يظلّ قائمًا على المدى المنظور. وفي مقابل ذلك، يمكن أن تطوّر الحملات الانتخابية نماذج أخرى ذات صلة بالانتخابات، وقائمة على البيانات، مثل احتمال أن يصوّت الفرد أو أن يتبرّع بأموال ؛ ما قد يمنح الحملاِتِ الانتخابيَةَ ميزة تنافسية. ومع ذلك، فمن المرجّح أن تكون هذه الميزة عابرة، نظرًا إلى توافر الأدوات القائمة على الذكاء الاصطناعي، وتعلّم هيئات الحملات الانتخابية من نجاحات الآخرين وإخفاقاتهم . قد تسعى الشركات والحكومات أيضًا إلى استخدام الذكاء الاصطناعي، للتنبؤ بنتائج الانتخابات أو بتقلّبات مزاج الناخبين، وربما للتدخّل فيها. ورغم أن هذه المجهودات تظل محدودة بالتحدّيات نفسها المذكورة آنفًا، فإنّ انطباع الجمهور بوجود مثل هذه القدرة قد يكون كافيًا لتقويض الانتخابات ونزع الشرعية عنها، ومنح الخاسرين ذريعةً للطعن في نتائجها بدلًامن الاعتراف بالهزيمة. أماط الدور المحتمل لشركة كامبريدج أناليتيكا في استفتاء خروج المملكة المتحدة من الاتحاد الأوروبي، وفي الانتخابات الرئاسية الأميركية عام 2016، اللثاَمَ عن بعض هذه التحديات. فعلى الرغم من قلّة المؤشرات على الاستخدام الواسع للاستهداف السيكولوجي للناخبين القائم على البيانات، أو على وجود آثار كبيرة له، فإن تلك الأحداث لا تزال حاضرة على نحو واسع في مخيّلة الجمهور، بوصفها مث لًا على القوة المتصَّوَرة للذكاء الاصطناعي في التلاعب بالانتخابات . ومن المتوقّع أن يغّي رالانتشار الأوسع للذكاء الاصطناعي في الحياة الاجتماعية والاقتصادية والسياسية توقّعات الأفراد حول استخداماته وإساءة استخدامه في الحملات الانتخابية، بغضّ النظر عن توظيفاته الفعلية أو القيود الكامنة فيه.
88 Eitan D. Hersh, Hacking the Electorate: How Campaigns Perceive Voters (Cambridge: Cambridge University Press, 2015); Sasha Issenberg, The Victory Lab: The Secret Science of Winning Campaigns (New York: Crown Publishing Group, 2012); David W. Nickerson & Todd Rogers, "Political Campaigns and Big Data," Journal of Economic Perspectives , vol. 28, no. 2 (2014), pp. 51-74. 89 Nickerson & Rogers. 90 Daniel Kreiss, Prototype Politics: Technology-Intensive Campaigning and the Data of Democracy (Oxford: Oxford University Press, 2016). 91 Jungherr, Rivero & Gayo-Avello, pp. 124-130.
يبدو أثر الذكاء الاصطناعي في الانتخابات محدودًا عمومًا،، نظرًا إلى الُّنّدرة النسبية للنشاط موضوع التنبّؤ، أي التصويت. وبينما قد تظهر آثار غير مباشرة، من خلال فرص التمايز التنافسي Differentiation Competitive، فمن غير المرجّح أن تتُرَجَم هذه إلى تغّي ردائم ومنهجي في السلطة، لا سيما مع التوافر الواسع لأدوات الذكاء الاصطناعي. والأرجح هو الأثر غير المباشر المشار إليه سابقًا: أي إنّ الجمهور، من خلال نقل توقّعات حول القوى المفترضة للذكاء الاصطناعي في السياسة، مستوحاة من تطبيقاته في الصناعة والبحث العلمي، يعتقد أنه قادر حقّا على تقليل "عدم اليقين المنظّم" في الانتخابات الديمقراطية. وهذا وحده كفيل بتقويض ثقة الجمهور بالانتخابات وقبول نتائجها. بناء عليه، من المهمّ المحافظة على عدم اليقين المنظّم حًّيًا في مواجهة الذكاء الاصطناعي، لا إضعافه عبر تكهّنات غير مسؤولة أو خيالية.. 4 الذكاء الاصطناعي والتنافس السلطوي يؤثّر الذكاء الاصطناعي أيضًا في العلاقة بين الديمقراطية وأنظمة الحكم الأخرى، بما فيها الأنظمة السلطوية، والتي حاجّ البعض بأنها تحظى بميزة في تطويره ونشره. ففي حين تواجه الشركات والحكومات في الأنظمة الديمقراطية قيودًا على النشر أو التجميع الشامل للبيانات حول سلوك الأفراد، فإنها تحظى بهامش أوسع للقيام بذلك في الأنظمة السلطوية. ويؤدي الترابط الوثيق بين الدولة والشركات التي تطوّره وتنشره في هذه الأنظمة إلى إنشاء بيئة قانونية متساهلة فيما يتعلق بالخصوصية؛ ما يوفّر للمطِّوِرين والُمُنمِذِجين كنزًا هائلًامن البيانات؛ وهو ما يسمح لهم بصقل نماذج للسلوك البشري مدعومة به. يضاف إلى ذلك الموارد التي تُرصد مركزيّا وتدريب أعداد كبيرة من المهندسين والمديرين المتمرّسين بالذكاء الاصطناعي؛ ما يجعل البعض يتوقّع أن تكون النتيجة ميزة تنافسية هائلة في تطوير الأنظمة المدعومة به ونشرها وتحقيق أرباح منها . وربما يسمح ذلك بنشوء مسار تطوّري غير متكافئ في مجال الذكاء الاصطناعي، وقدرات الدولة والمنافع الاقتصادية، وحتّى الكفاءة العسكرية؛ ما يمنح الأنظمة السلطوية ميزة تنافسية على الديمقراطيات. طالما نُظر إلى الديمقراطيات، إذا ما وضعنا جانبًا الاعتبارات المعيارية، على مستوى وظيفي خالص، على أنها تتفوّق على الأنظمة السلطوية
92 Lee; Filgueira.
بفضل أدائها المتفوّق بوصفها أنظمةً لتجميع المعلومات وتحليلها . وتوفّر حرية التعبير والصحافة والتنافس الانتخابي المقنّن بين مختلف الفصائل، آليات بنيوية تمّكن الديمقراطيات من الكشف عن معلومات تتعلق بالمجتمع وأداء البيروقراطية وآثار السياسات. وعلى نقيض ذلك، تميل السلطويات إلى تقييد تدفّق المعلومات، عبر التحكّم في حرية التعبير والإعلام والتنافس السياسي، ما يترك الحكومات في حالة من العتمة إزاء الأوضاع المحلّية، وتفضيلات الجمهور، ومستويات الفساد في البيروقراطيات، فضلًاعن عواقب السياسات التي تتّبعها في نهاية المطاف. في المستقبل، وعلى سبيل الاستشراف، قد يمكّن الذكاء الاصطناعي السلطويات من تجاوز هذا العائق. وأوضُحُ مثاٍلٍ على ذلك، في الوقت الراهن، هو الصين ، التي تستخدم تجميَعَ البيانات الضخمة على نطاق واسع والذكاَءَ الاصطناعي لدعم التخطيط والتحكّم المجتمعَييَن ، على غرار نظام الائتمان الاجتماعي. وقد تساعد الاستفادة من إمكانات الذكاء الاصطناعي السلطويات أيضًا على زيادة قدراتها الدولتية، عبر الحوكمة والتخطيط المدعوَميَن به مثلًا. وقد يحسّن ذلك، في المقابل، جودة الخدمات العامة التي تقدّمها الدولة، ويتيح للأشخاص الذين يعيشون في الأنظمة السلطوية فرصًا أوسع على المستويات الثقافية والاقتصادية والصحّية .
93 Timur Kuran, Private Truths, Public Lies: The Social Consequences of Preference Falsification (Cambridge, MA: Harvard University Press, 1995); Charles E. Lindblom, The Intelligence of Democracy: Decision Making through Mutual Adjustment (New York: Free Press, 1965); Josiah Ober, Democracy and Knowledge: Innovation and Learning in Classical Athens (Princeton, NJ: Princeton University Press, 2008); Ronald Wintrobe, The Political Economy of Dictatorship (Cambridge: Cambridge University Press, 1998). 94 Jinghan Zeng, Artificial Intelligence with Chinese Characteristics: National Strategy, Security and Authoritarian Governance (Singapore: Palgrave Macmillan, 2022). 95 Jeffrey Ding et al., "The AI Powered State: China's Approach to Public Sector Innovation," Nesta , 2020; Jennifer Pan, Welfare for Autocrats: How Social Assistance in China Cares for Its Rulers (Oxford: Oxford University Press, 2020).
96 Rogier Creemers, "China's Social Credit System: An Evolving Practice of Control," Social Science Research Network (SSRN) , 2018; Fan Liang et al., "Constructing a Data-Driven Society: China's Social Credit System as a State Surveillance Infrastructure," Policy & Internet , vol. 10, no. 4 (2018), pp. 415-453; Daithi Mac S ı thigh & Mathias Siems, "The Chinese Social Credit System: A Model for Other Countries?" Modern Law Review , vol. 82, no. 6 (2019), pp. 1034-1071.
97 Peter H. Diamandis & Steven Kotler, The Future Is Faster than You Think: How Converging Technologies Are Transforming Business, Industries, and Our Lives (New York: Simon & Schuster, 2020); Kai-Fu Lee & Chen Quifan, AI 2041: Ten Visions for Our Future (New York: Currency, 2021).
ثمّة أيضًا من قد يرى أنّ هذه المزايا تستحق مقايضتها ببعض الحريات الفردية؛ ما يؤدي إلى تعزيز الدعم الشعبي للسلطويات وسيطرة الدولة. يمكن، إذًا، أن يعزّز التبايُنُ، في فرص تحقيق إمكانيات الذكاء الاصطناعي، الاتجاهاِتِ الجليَةَ أصلًافي البلدان التي تواجه أزمات اقتصادية وثقافية وأمنية . وفي الأوقات التي تواجه فيها الديمقراطيات، على نحو خاص، تحدياٍتٍ داخليةً متزايدة فيما يتعلق بالفرص التي توفرها للناس، فإن هذه الإمكانيات التي تجعل الكفّة تميل على نحو غير متكافئ إلى مصلحة السلطويات، تمثّل تحدّيًا واضحًا للديمقراطيات؛ هذا إذا ما تحققت. أبعد من ذلك، يعدّ الذكاء الاصطناعي تكنولوجيا، يجري التداول بشأنها على نحو متزايد في الأوساط العسكرية والأمنية . وبينما يثير دوره المعياري وإمكاناته الوظيفية في هذه المجالات جدلًامحتدمًا، تشير المخاوف المتزايدة في هذه الأوساط إلى تصوّر عام مفاده أنه قد يسهّل تأخّر الديمقراطيات عن السلطويات. ومع مرور الزمن، يمكن أن تبرز اختلافات في مسارات تطوّر الذكاء الاصطناعي ونشره بين الديمقراطيات والسلطويات. وإذا ثبتت صحة افتراض أنّ السلطويات تميل بطبيعتها إلى تبنّيه أكثر من الديمقراطيات، وأنّها قادرة على الاستفادة منه بدرجة أكبر، فقد يؤدّي ذلك إلى تحوّل في ميزان القوى بين الأنظمة، ومن ثمّ إضعاف الديمقراطية.
ثالثًا: الذكاء الاصطناعي والديمقراطية: الطريق إلى الأمام
بينما لا يزال العديد من تطبيقات الذكاء الاصطناعي جزءًا من المستقبل، فإن أثره في الديمقراطية بدأ يتجلى بالفعل. صحيح أنّ العديد من استخداماته وآثاره المستقبلية لا تزال غير مؤكّدة، لكن من المهمّ أن تنخرط العلوم الاجتماعية مبكرًا في مجاله، وتساعد في رصده وتقييمه وتوجيه تطبيقاته. ويشمل ذلك استخداماته في السياسة والحكومة وتقنينها وحوكمتها. تقدّم هذه الدراسة إطارًا مفهوميّا يسمح برسم خريطة لمجالات التقاءٍ مهمّةٍ بين الديمقراطية والذكاء الاصطناعي، ويسمح أيضًا بربط استخداماته وآثاره بالنقاشات المعيارية ذات الصلة في النظرية السياسية، والتي يمكن أن توفّر الإرشاد في تقييم استخداماته وآثاره. وفي المستقبل، يمكن أن
98 Mikhail Matovski, Popular Dictatorships: Crises, Mass Opinion, and the Rise of Electoral Authoritarianism (Cambridge: Cambridge University Press, 2021).
99 Ben Buchanan & Andrew Imbrie, The New Fire: War, Peace, and Democracy in the Age of AI (Cambridge, MA: MIT Press, 2022); Goldfarb & Lindsay (eds.).
تشكّل مجالات التقاطع المفهوميُةُ الواسعة، المتعلقة بالحكم الذاتي والمساواة والانتخابات والتنافس بين الأنظمة، مجموعاٍتٍ موضوعاتيةً رئيسة في الأبحاث مستقبلًا. وستوفّر الأبحاث المستقبلية تصوّرًا أدقّ وأكثر تفصيلًا، وستقدّم نظريات متقدمة تفسر أنماط استخدام الذكاء الاصطناعي وتأثيره. يحتاج الباحثون في العلوم الاجتماعية إلى أن يأخذوا الذكاء الاصطناعي في الحسبان عند تحليل خصائص الديمقراطية المعاصرة ومخاطرها وإمكاناتها. وفي أثناء ذلك، عليهم أن يتدبروا الآليات الداخلية والآثار، الخاصة بكل حقل من حقول العلوم الاجتماعية، كما تتجلى في التكنولوجيا الكامنة وراء الذكاء الاصطناعي. وفي الوقت نفسه، يتعّي نعلى المهندسين وعلماء الحاسوب أن يأخذوا في الحسبان عواقب تطوير الذكاء الاصطناعي ونشره على الديمقراطية. ولا يعني ذلك التركيز على تحليل التكنولوجيا نفسها فحسب، بل يقتضي أيضًا أخذ طبيعتها في الاعتبار بوصفها ضمن البنى الاقتصادية والسياسية والاجتماعية التي تتوسط تأثيرها، إيجابيًا وسلبيًا. وهذا يجعل تحليل أثره في الديمقراطية مج لًامهّمًاللأبحاث البينتخصّصية في المستقبل. Interdisciplinary تعتمد جودة تحليل آثار الذكاء الاصطناعي في الديمقراطية على خصوصية نوعيته، وكيفية عمله، وشروط النجاح في نشره، وجوانب الديمقراطية التي يلامسها. ويمكن السرديات عن ذكاءٍ اصطناعي عام فائق القدرة وغير محدد، وعن أثره المحتمل في المجتمع، أن تنتج قراءات مثيرة، لكنها لا تقدّم إلا القليل لتحليل الآثار الفعلية في المجتمع أو الديمقراطية. وفي الواقع، قد يستخدم الأطراف المهتمون بذلك النقاَشَ حول الذكاء الاصطناعي العام ومخاطَرَ أحداث على مستوى انقراض البشرية ستارًا دخانيّا، قصد إلهاء الجمهور وتشتيت الانتباه عن مسائل حوكمة الذكاء الاصطناعي وتقنينه وعن التوزيع المجتمعي للمكاسب والمخاطر الناجمة عنه، والتي قد تبدو روتينية لكنها جوهرية. وعلى الرغم من أنّ الذكاء الاصطناعي يناَقَش، في الكثير من الأحيان، بوصفه خطرًا أو تهديدًا، يمكنه أيضًا أن يتيح فرصًا لإزاحة بعض التحدّيات المعاصرة التي تواجه الديمقراطية. وقد يخفف التفكير المنفتح، في تطبيقات الذكاء الاصطناعي ضمن الديمقراطية، من وطأة بعض هذه التحديات. ويمكن أيضًا أن تساهم خيارات التصميم الواعية، وعمليات التدقيق الشفافة، في الحدّ من أوجه الخلل أو الكشف عن التحيّزات المحتَمَلة. يعتمد أثر الذكاء الاصطناعي، بصفة عامة، على التنفيذ وإشراف الجمهور والجهات التنظيمية الرقابية. لذلك، يتعّي نعلى الشركات
والهيئات التنظيمية والمجتمعية التحّل يبالصراحة والشفافية، فيما يتعلق بالأهداف الاقتصادية والسياسية والمجتمعية التي يرغبون في تحقيقها من خلال استخدامه، وبكيفية تأثير آليات عمله المحدّدة في دفع هذه الأهداف أو عرقلتها. وبحكم طبيعة هذا النقاش، فإنه يمزج بين حجج واعتبارات معيارية وآلاتية وتكنولوجية. ومن المهمّ عدم الانجراف وراء الرؤى المبالغ فيها، أو المتخَّيَلة للذكاء الاصطناعي العام، والتركيز بدلًامن ذلك على حالاته المحدودة، وآلياته الداخلية، واستخداماته في مجالات اهتمام محددة، فضلًاعن آثاره. ويشمل ذلك مناقشة الآثار المحتملة، سواء الإيجابية أو السلبية على حد سواء. من غير المرجّح أن يؤثّر الذكاء الاصطناعي على نحو مباشر في جوانَبَ عديدة من الديمقراطية. وعلى الرغم من ذلك، فإنه من المحتمل أن يستمرّ الخطاب العمومي في التركيز على التهديدات والتلاعب والتحّولّات المتوقّعة في السلطة. ولهذا الخطاب وهذه التوقّعات القدرة على تشكيل توجّهات الجمهور حيال الذكاء الاصطناعي وأثره في الديمقراطية، بغضّ النظر عن مدى واقعيتها. وقد تكون الآثار المتصوّرة أشد أهمية من الآثار الفعلية. وتقع على عاتق الباحثين مسؤولية تجنّب المبالغة بالتخمينات، بل التركيز على آليات عمل الذكاء الاصطناعي وآثاره الفعلية. إنّ التوظيف الواسع للذكاء الاصطناعي في المجتمع والسياسة ليس سوى بداية، فالتطوّرات المستقبلية لا تزال طبعًا غير معروفة؛ لذلك، يجب الاستمرار في رصد الشكل المحدّد الذي ستتّخذه تكنولوجيا الذكاء الاصطناعي، وتطبيقاتها في المجتمع، وآثارها اللاحقة في الديمقراطية. وتحدّد هذه الدراسة مجالات التقاطع بينه وبين الديمقراطية، التي تسمح بتتبّع هذا المسار ورصده. وعلى نحو أكثر تحديدًا، ثمّة سلسلة من الفرص للأبحاث المستقبلية. وعلى مستوى أساسي للغاية، ثمّة حاجة إلى أبحاث ممنهجة أكثر حول كيفية استخدام الذكاء الاصطناعي في السياسة، لا سيما من جانب الحكومات . فلدينا بعض الدراسات المبكرة، في مجالات من قبيل الّش ر طة التنبّئية والنظم القانونية، لكنها قليلة نسبيّا وأغلبها يركّز على الولايات المتحدة. وتتوافر فرص لدراسات حول بلدان أخرى، ولإجراء أبحاث مقارنة أيضًا. ومن ناحية أخرى، يستند الكثير مما نعتقد أننا نعرفه عن الذكاء الاصطناعي في المجتمع إلى تقارير صحافية. ومع أنّ هذه التقارير قد تكون مفيدة جًّدًا، فإن
100 David Freeman Engstrom & Amit Haim, "Regulating Government AI and the Challenge of Sociotechnical Design," Annual Review of Law and Social Science , vol. 19 (2023), pp. 277-298. 101 Sarah Brayne, Predict and Surveil: Data, Discretion, and the Future of Policing (New York: Oxford University Press, 2021); Ferguson.
الحاجة ملحّة إلى تصوّرات علمية عن هذه التطوّرات في قطاعات ومجتمعات مختلفة. ثمّة أيضًا تيّار جامح من الدراسات التي تشخّص تحيّزات أنظمة ذكاء اصطناعي معيّنة في سياقات خاصة، مثل عمليات التدقيق في تحليلات النصوص والصور المدعومة بالذكاء الاصطناعي، وتوظيفه في عمليات مجتمعية، مثل العمل الُّشر طي أو إصدار الأحكام القضائية أو قرارات الإقراض أو ممارسة الطّب . ومع ذلك، يمكن استخدامه أيضًا لدراسة التحيّزات التاريخية في المجتمع، وذلك بفحص مجموعات البيانات الكبيرة، المتكوّنة من النصوص والصور التاريخية، لتحديد توزيع مجموعات مجتمعية معيّنة، على أسس الجندر أو العرق اهليثت متلاوّحت ديدحت نع لاضًااف، لاثًاام ؛ أو على نحو أعمّ، تحديد الحالات الواعدة التي تتعارض فيها البيانات الإمبريقية مع التوقّعات المستندة إلى النماذج، وذلك من أجل تعزيز التحليل . بناءً على ذلك، ثمّة حاجة أيضًا إلى أبحاث ممنهجة عن تقنين الذكاء الاصطناعي في دول وسياقات مختلفة . ورغم أننا لا نزال في مرحلة مبكرة من وضع الأطر الرسمية للتقنين، فإنّ أنشطة مثيرة للانتباه قد بدأت، لا سيما الدعم الحكومي للبحث والتطوير الذي يركّز على الذكاء الاصطناعي. وقد حدّد الاتحاد الأوروبي والولايات المتحدة والصين الذكاء الاصطناعي بوصفه مج لًاللتنافس الجيوسياسي والاقتصادي والاستراتيجي. وُيُعدّ فحص المبادرات السياساتية المتنافسة، التي تسعى لتحفيز الابتكار، خطوة مبكرة واعدة في الطريق نحو فحص علاقات الحكومات بالذكاء الاصطناعي والسياسات واللوائح المرتبطة به. والدراسات المقارنة المبكرة عن تقنين الخصوصية، والنماذج
102 Bolukbasi et al.; Buolamwini & Gebru, pp. 77-91; Caliskan, Bryson & Narayanan, pp. 183-86; Mayson, pp. 2218-2300; Mehrabi et al., pp. 1-3; Mitchell Shira et al.; Ziad Obermeyer et al., "Dissecting Racial Bias in an Algorithm Used to Manage the Health of Populations," Science , vol. 366, no. 6464 (2019), pp. 447-453. 103 Pascal Jürgens, Christine E. Meltzer & Michael Scharkow, "Age and Gender Representation on German TV: A Longitudinal Computational Analysis," Computational Communication Science , vol. 4, no. 1 (2022), p. 5.
104 Anders Koed Munk, Asger Grønning Olesen & Mathieu Jacomy, "The Thick Machine: Anthropological AI between Explanation and Explication," Big Data & Society , vol. 9, no. 1 (2022), pp. 1-14; Jill Walker Rettberg, "Algorithmic Failure as a Humanities Methodology: Machine Learning's Mispredictions Identify Rich Cases for Qualitative Analysis," Big Data & Society , vol. 9, no. 2 (2022), pp. 1-6.
105 Michael Veale, Kenneth Matus & Robert Gorwa, "AI and Global Governance: Modalities, Rationales, Tensions ," Annual Review of Law and Social Science , vol. 19 (2023), pp. 255-275.
التجارية ذات الصلة بالمنصات، يمكنها أن تقدّم جذاذات Templates للأعمال التي تركّز على الذكاء الاصطناعي . أخيرًا، يُعدّ تطوير الذكاء الاصطناعي، بوصفه حقلًاعلميّا وتجاريّا، موضوعًا بحثيّا واعدًا في حدّ ذاته. إنّ الطبيعة البينتخصّصية، والتحّولّات في طلائع تطويره بين التخصصات العلمية والفضاء الجامعي وقطاع الأعمال، وكذا المناطق الجغرافية، تجعلها حالة مثيرة جًّدًا للانتباه بالنسبة إلى العلاقة المعاصرة بين العلم والتجارة والمجتمع . وإذا ذهبنا إلى أبعد من ذلك، فإن الذكاء الاصطناعي يُستخدم على نحو متزايد في العلوم الاجتماعية منهجيةً للاكتشاف. فالتحّولّات المرتبطة بسير الأعمال العلمية والأسئلة المطروحة وامقاربات التنظير تمثّل مج لًاخصبًا للتأمّل مستقبل . للبحث العلمي حول أثر الذكاء الاصطناعي في الديمقراطية مسارات واعدة عديدة. ومن المهمّ هنا الجمع بين رؤى من حقول متعددة؛ إذ إنّ التصوّرات التكنولوجية الصرفة ربما تبالغ في تقدير أثره في النظم الاجتماعية؛ نظرًا إلى محدوديتها وتجاهلها دور البنى الاجتماعية. وفي المقابل، قد تؤدي التصوّرات الصادرة حصريًا عن العلوم الاجتماعية إلى تشويه آليات العمل الفعلية للذكاء الاصطناعي الحالي، ما يجعل عواقبه تُنَسَب إلى أسباب غير دقيقة. ويوفّر الإطار المفهومي، المقدّم في هذه الدراسة، مقاربةً للجمع على نحو مثمر بين هذه الرؤى البينتخصّصية. لا شك في أنّ تأثير الذكاء الاصطناعي في الديمقراطية جاٍرٍ فعلًا. لذلك، فهو في حاجة إلى الاستمرار في دراسته بطرائق بينتخصّصية، ومناقشته على نحو ممنهج.
106 Anu Bradford, Digital Empires: The Global Battle to Regulate Technology (Oxford: Oxford University Press, 2023); Julie E. Cohen, Between Truth and Power: The Legal Constructions of Informational Capitalism (Oxford: Oxford University Press, 2019); Henry Farrell & Abraham L. Newman, Of Privacy and Power: The Transatlantic Struggle over Freedom and Security (Princeton, NJ: Princeton University Press, 2019); Kathleen Thelen, "Regulating Uber: The Politics of the Platform Economy in Europe and the United States," Perspectives on Politics , vol. 16, no. 4 (2018), pp. 938-953. 107 Lee; McCorduck; Metz. 108 Justin Grimmer, Margaret E. Roberts & Brandon M. Stewart, "Machine Learning for Social Science: An Agnostic Approach," Annual Review of Political Science , vol. 24, no. 1 (May 2021), pp. 395-419; Jakob Mökander & Ralph Schroeder, "AI and Social Theory," AI & Society , vol. 37 (2022), pp. 1337-1351.
شكر يشكر الباحث كّلًا من سكوت كوبر Cooper Scott، وفاليسكا Valeska Gerstung-Jungherr وباسكال، غيرستونغ - يونغير يورغنز Pascal Jürgens، وأوليفر بوسيجا Oliver Posegga، وأدريان راوتشفليش Rauchfleish Adrian، ورالف شرودر Ralph Schroeder، وألكسندر واتكر Alexdander Wuttker، والمحكّمين على تعليقاتهم القيّمة على هذه الدراسة.
المراجع
Acemoglu, Daron & Pascual Restrepo. "Demographics and Automation." The Review of Economic Studies. vol. 89, no. 1 (2022). ________. "Tasks, Automation, and the Rise in U.S. Wage Inequality." Econometrica. vol. 90, no. 5 (2022). Acemoglu, Daron & Simon Johnson. Power and Progress: Our Thousand-Year Struggle over Technology and Prosperity. New York: PublicAffairs, 2023. Achen, Christopher H. & Larry M. Bartels. Democracy for Realists: Why Elections Do Not Produce Responsive Government. Princeton, NJ: Princeton University Press, 2016. Agrawal, Ajay, Joshua Gans & Avi Goldfarb (eds.). The Economics of Artificial Intelligence: An Agenda. Chicago: University of Chicago Press, 2019. Agrawal, Ajay, Joshua Gans & Avi Goldfarb. Prediction Machines: The Simple Economics of Artificial Intelligence. Updated and Expanded. Boston: Harvard Business Review Press, 2022 [2018]. Ahmed, Nabeel, Mohamed Wahed & Neil C. Thompson. "The Growing Influence of Industry in AI Research." Science. vol. 379, no. 6635 (2023). Apter, David E. (ed.). Ideology and Discontent. New York: Free Press, 1964. Asenbaum, Hans. "Rethinking Democratic Innovations: A Look through the Kaleidoscope of Democratic Theory." Political Studies Review. vol. 20, no. 4
Aviram, Hadar, Alexander Bragg & Christopher Lewis. "Felon Disenfranchisement." Annual Review of Law and Social Science. no. 13 (2017). Bai, Hao et al. "Artificial Intelligence Can Persuade Humans on Political Issues." OSF Preprints. 2023. Bakhtin, Anton et al. "Human-Level Play in the Game of Diplomacy by Combining Language Models with Strategic Reasoning." Science. vol. 378, no. 6624 (2022). Bennett, W. Lance & Steven Livingston (eds.). The Disinformation Age: Politics, Technology, and Disruptive Communication in the United States. Cambridge: Cambridge University Press, 2021. Bessen, James. New Goliaths: How Corporations Use Software to Dominate Industries, Kill Innovation, and Undermine Regulation. New Haven, CT: Yale University Press, 2022. Bimber, Bruce. Information and American Democracy: Technology in the Evolution of Political Power. Cambridge: Cambridge University Press, 2003. Bisbee, James et al. "Artificially Precise Extremism: How Internet-Trained LLMs Exaggerate Our Differences." Socarxiv. 2023. Bostrom, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014. Bradford, Anu. Digital Empires: The Global Battle to Regulate Technology. Oxford: Oxford University Press, 2023. Brayne, Sarah. Predict and Surveil: Data, Discretion, and the Future of Policing. New York: Oxford University Press, 2021. Brynjolfsson, Erik & Andrew McAfee. The Second Machine Age: Work, Progress, and Prosperity in a Time of Brilliant Technologies. New York: W. W. Norton, 2016. Brynjolfsson, Erik, Wang Jin & Xiang Hui Wang. "Information Technology, Firm Size, and Industrial Concentration." NBER Working Paper. no. 31065. 2023. Buchanan, Ben & Andrew Imbrie. The New Fire: War, Peace, and Democracy in the Age of AI. Cambridge, MA: MIT Press, 2022.
Bullock, Justin B. et al. (eds.). The Oxford Handbook of AI Governance. Oxford: Oxford University Press, 2021. Caliskan, Aylin, Joanna J. Bryson & Arvind Narayanan. "Semantics Derived Automatically from Language Corpora Contain Human-Like Biases." Science. vol. 356, no. 6334 (2017). Castells, Manuel. Communication Power. 2 nd ed. Oxford: Oxford University Press, 2013 [2009]. Cho, Wendy K. Tam & Bruce E. Cain. "Human-Centered Redistricting Automation in the Age of AI." Science. vol. 369, no. 6508 (2020). Chouldechova, Alexandra. "Fair Prediction with Disparate Impact: A Study of Bias in Recidivism Prediction Instruments." Big Data. vol. 5, no. 2
Chow, Sophia, Simon Liver & Alan Nelson. "Streamlining Bioactive Molecular Discovery through Integration and Automation." Nature Reviews Chemistry. vol. 8, no. 2 (2018). Christian, Brian. The Alignment Problem: Machine Learning and Human Values. New York: W. W. Norton, 2020. Cohen, Julie E. Between Truth and Power: The Legal Constructions of Informational Capitalism. Oxford: Oxford University Press, 2019. Creemers, Rogier. "China's Social Credit System: An Evolving Practice of Control." Social Science Research Network (SSRN). 2018. Dahl, Robert A. On Democracy. New Haven, CT: Yale University Press, 1998. Diakopoulos, Nicholas. Automating the News: How Algorithms Are Rewriting the Media. Cambridge, MA: Harvard University Press, 2019. Diamandis, Peter H. & Steven Kotler. The Future Is Faster than You Think: How Converging Technologies Are Transforming Business, Industries, and Our Lives. New York: Simon & Schuster, 2020. Ding, Jeffrey et al., "The AI Powered State: China's Approach to Public Sector Innovation." Nesta. 2020. at: https://acr.ps/1L9BPeE Douek, Evelyn. "Governing Online Speech: From 'Posts- as-Trumps' to Proportionality and Probability." Columbia Law Review. vol. 121, no. 3 (2021). Dy, Jennifer & Andreas Krause (eds.). Proceedings of the 35 th International Conference on Machine Learning. Stockholm: Sweden PMLR 80, 2018. Eisenstein, Elizabeth L. The Printing Press as an Agent of Change. Cambridge: Cambridge University Press, 1979. Engstrom, David Freeman & August Haim. "Regulating Government AI and the Challenge of Sociotechnical Design." Annual Review of Law and Social Science. vol. 19 (2023). Eubanks, Virginia. Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor. New York: St. Martin's Press, 2018. Farrell, Henry & Abraham L. Newman. Of Privacy and Power: The Transatlantic Struggle over Freedom and Security. Princeton, NJ: Princeton University Press, 2019. Ferguson, Andrew Guthrie. The Rise of Big Data Policing: Surveillance, Race, and the Future of Law Enforcement. New York: New York University Press, 2017. Filgueiras, Fernando. "The Politics of AI: Democracy and Authoritarianism in Developing Countries." Journal of Information Technology & Politics. vol. 19, no. 4 (2022). Flaxman, Seth, Sharad Goel & Justin M. Rao. "Filter Bubbles, Echo Chambers, and Online News
Consumption." Public Opinion Quarterly. vol. 80, no. 1 (2016). Frey, Carl Benedikt. Technology Trap: Capital, Labor, and Power in the Age of Automation. Princeton, NJ: Princeton University Press, 2019. Friedler, Sorelle A. & Christo Wilson (eds.). Proceedings of the 1 st Conference on Fairness, Accountability and Transparency, 23-24 February 2018, New York. PMLR 81. New York: Association for Computing Machinery, 2018. Gallego, Aina & Thomas Kurer. "Automation, Digitalization, and Artificial Intelligence in the Workplace: Implications for Political Behavior." Annual Review of Political Science. vol. 25 (2022). Goldfarb, Avi & Jon R. Lindsay. "Prediction and Judgment: Why Artificial Intelligence Increases the Importance of Humans in War." International Security. vol. 46, no. 3 (2022). Goodfellow, Ian, Yoshua Bengio & Aaron Courville. Deep Learning. Cambridge, MA: MIT Press, 2016. Goodin, Robert E, Philip Pettit & Thomas Pogge (eds.). A Companion to Contemporary Political Philosophy. 2 nd ed. Malden, MA: Blackwell, 2007. Grimmer, Justin, Margaret E. Roberts & Brandon M. Stewart. "Machine Learning for Social Science: An Agnostic Approach. Annual Review of Political Science. vol. 24, no. 1 (May 2021). Guyon, Isabelle et al. (eds.). NIPS 2017: 31 st Conference on Neural Information Processing Systems. vol. 30. Red Hook, NY: Curran Associates, Inc., 2017. Hanson, Robin. The Age of Em: Work, Love, and Life When Robots Rule the Earth. Oxford: Oxford University Press, 2016. Healy, Kieran. "Fuck Nuance." Sociological Theory. vol. 35, no. 2 (2017). Hersh, Eitan D. Hacking the Electorate: How Campaigns Perceive Voters. Cambridge: Cambridge University Press, 2015. Horton, John J. "Large Language Models as Simulated Economic Agents: What Can We Learn from Homo Silicus?" NBER Working Paper 31122 (April 2023). at: https://acr.ps/1L9BPhY Issenberg, Sasha. The Victory Lab: The Secret Science of Winning Campaigns. New York: Crown Publishing Group, 2012. Jungherr, Andreas & Ralph Schroeder. "Artificial Intelligence and the Public Arena." Communication Theory. vol. 33, no. 3 (2023). Jungherr, Andreas & Ralph Schroeder. Digital Transformations of the Public Arena. Cambridge: Cambridge University Press, 2022. Jungherr, Andreas, Gonzalo Rivero & Daniel Gayo- Avello. Retooling Politics: How Digital Media Are Shaping Democracy. Cambridge: Cambridge University Press, 2020. Jungherr, Andreas, Ralph Schroeder & Sebastian Stier. "Digital Media and the Surge of Political Outsiders: Explaining the Success of Political Challengers in the United States, Germany, and China." Social Media + Society. vol. 5, no. 3 (2019). Jürgens, Pascal, Christine E. Meltzer & Michael Scharkow. "Age and Gender Representation on German TV: A Longitudinal Computational Analysis." Computational Communication Science. vol. 4, no. 1 (2022). Kaufmann, Thomas. Die Mitte der Reformation: Eine Studie zu Buchdruck und Publizistik im deutschen Sprachgebiet, zu ihren Akteuren und deren Strategien, Inszenierungs- und Ausdrucksformen [The Middle of the Reformation: A Study on Book Printing and Journalism in the German-Speaking
Area, on Their Actors and Their Strategies, Staging and Forms of Expression]. Tübingen: Mohr Siebeck, 2019. Kaye, David. Report on Artificial Intelligence Technologies and Implications for Freedom of Expression and the Information Environment. United Nations Human Rights Office of the High Commissioner. 2018. at: https://acr.ps/1L9BPbf Keane, John. Democracy and Media Decadence. Cambridge: Cambridge University Press, 2013. Kenski, Kate & Kathleen Hall Jamieson (eds). The Oxford Handbook of Political Communication. Oxford: Oxford University Press, 2017. Kim, Jihoo & Byoungkwan Lee. "AI-Augmented Surveys: Leveraging Large Language Models for Opinion Prediction in Nationally Representative Surveys." arXiv. 2023. King, Ross D. et al. "The Automation of Science." Science. vol. 324, no. 5923 (2009). Kitchens, Brian, Sean L. Johnson & Paul Gray. "Understanding Echo Chambers and Filter Bubbles: The Impact of Social Media on Diversification and Partisan Shifts in News Consumption." MIS Quarterly. vol. 44, no. 4 (2020). Kitchin, Rob. "Big Data, New Epistemologies and Paradigm Shifts." Big Data & Society. vol. 1, no. 1 (2014). Krebs, Samuel, Robert M. McCain & Miles Brundage. "All the News That's Fit to Fabricate: AI-Generated Text as a Tool of Media Misinformation." Journal of Experimental Political Science. vol. 9, no. 1 (2022). Kreiss, Daniel. Prototype Politics: Technology-Intensive Campaigning and the Data of Democracy. Oxford: Oxford University Press, 2016. Kuran, Timur. Private Truths, Public Lies: The Social Consequences of Preference Falsification. Cambridge, MA: Harvard University Press, 1995. Landemore, Hélène. Democratic Reason: Politics, Collective Intelligence, and the Rule of the Many. Princeton, NJ: Princeton University Press, 2012. ________. "Can AI Bring Deliberative Democracy to the Masses?" Working Paper. 2022. at: https://acr.ps/1L9BPOC Landemore, Hélène & Jon Elster (eds.). Collective Wisdom: Principles and Mechanisms. Cambridge: Cambridge University Press, 2012. Larochelle, Hugo et al. (eds.). Advances in Neural Information Processing Systems. vol. 33. Red Hook, NY: Curran Associates, Inc., 2020. Larson, Erik J. The Myth of Artificial Intelligence: Why Computers Can't Think the Way We Do. Cambridge, MA: Belknap Press of Harvard University Press, 2021. Lazer, David et al. "The Parable of Google Flu: Traps in Big Data Analysis." Science. vol. 343, no. 6176 (2014). LeCun, Yann, Yoshua Bengio & Geoffrey Hinton. "Deep Learning." Nature 521 (2015). Lee, Daniel D. et al. (eds.). NIPS'16: Proceedings of the 30 th International Conference on Neural Information Processing Systems. Red Hook, NY: Curran Associates, Inc., 2016. Lee, Kai-Fu. AI Superpowers: China, Silicon Valley, and the New World Order. Boston: Houghton Mifflin Harcourt, 2018. Lee, Kai-Fu & Chen Quifan. AI 2041: Ten Visions for Our Future. New York: Currency, 2021. Liang, Fan et al. "Constructing a Data-Driven Society: China's Social Credit System as a State Surveillance Infrastructure." Policy & Internet. vol. 10, no. 4 (2018).
Lindblom, Charles E. The Intelligence of Democracy: Decision Making through Mutual Adjustment. New York: Free Press, 1965. ________. The Market System: What It Is, How It Works, and What to Make of It. New Haven, CT: Yale University Press, 2001. Lodge, Milton & Charles S. Taber. The Rationalizing Voter. Cambridge: Cambridge University Press, 2013. Lupia, Arthur & Mathew D. McCubbins. The Democratic Dilemma: Can Citizens Learn What They Need to Know? Cambridge: Cambridge University Press, 1998. Lupia, Arthur, Mathew D. McCubbins & Samuel L. Popkin. Elements of Reason: Cognition, Choice, and the Bounds of Rationality. Cambridge: Cambridge University Press, 2000. Matovski, Mikhail. Popular Dictatorships: Crises, Mass Opinion, and the Rise of Electoral Authoritarianism. Cambridge: Cambridge University Press, 2021. Mayson, Sandra G. "Bias In, Bias Out." Yale Law Journal. vol. 128, no. 8 (2019). McCorduck, Pamela. Machines Who Think: A Personal Inquiry into the History and Prospects of Artificial Intelligence. Natick, MA: A K Peters, 2004. Mehrabi, Ninareh et al. "A Survey on Bias and Fairness in Machine Learning." ACM Computing Surveys. vol. 54, no. 6 (2022). Metz, Cade. Genius Makers: The Mavericks Who Brought AI to Google, Facebook, and the World. New York: Dutton, 2021. Mitchell, Melanie. Artificial Intelligence: A Guide for Thinking Humans. New York: Farrar, Straus and Giroux, 2019. Mitchell, Shira et al. "Algorithmic Fairness: Choices, Assumptions, and Definitions." Annual Review of Statistics and Its Application. vol. 8 (2021). Mökander, Jakob & Ralph Schroeder. "AI and Social Theory." AI & Society. vol. 37 (2022). Müller, Jan-Werner. Democracy Rules. London: Allen Lane, 2021. Munk, Anders Koed, Asger Grønning Olesen & Mathieu Jacomy. "The Thick Machine: Anthropological AI between Explanation and Explication." Big Data & Society. vol. 9, no. 1 (2022). Narayanan, Arvind. "Understanding Social Media Recommendation Algorithms." Knight First Amendment Institute at Columbia University. 2023. at: https://acr.ps/1L9BPGK Neuman, W. Russell. The Future of the Mass Audience. Cambridge: Cambridge University Press, 1991. Nickerson, David W. & Todd Rogers. "Political Campaigns and Big Data." Journal of Economic Perspectives. vol. 28, no. 2 (2014). Nilsson, Nils J. The Quest for Artificial Intelligence: A History of Ideas and Achievements. Cambridge: Cambridge University Press, 2010. Ober, Josiah. Democracy and Knowledge: Innovation and Learning in Classical Athens. Princeton, NJ: Princeton University Press, 2008. Obermeyer, Ziad et al. "Dissecting Racial Bias in an Algorithm Used to Manage the Health of Populations." Science. vol. 366, no. 6464 (2019). Pan, Jennifer. Welfare for Autocrats: How Social Assistance in China Cares for Its Rulers. Oxford: Oxford University Press, 2020. Papacharissi, Zizi. After Democracy: Imagining Our Political Future. New Haven: Yale University Press, 2021.
Pearl, Judea. "The Seven Tools of Causal Inference, with Reflections on Machine Learning." Communications of the ACM. vol. 62, no. 3 (2019). Phillips, Anne. Unconditional Equals. Princeton: Princeton University Press, 2021. Popkin, Samuel L. The Reasoning Voter: Communication and Persuasion in Presidential Campaigns. Chicago: University of Chicago Press, 1991. Prior, Markus. Post-Broadcast Democracy: How Media Choice Increases Inequality in Political Involvement and Polarizes Elections. Cambridge: Cambridge University Press, 2007. ________. Hooked: How Politics Captures People's Interest. Cambridge: Cambridge University Press, 2018. Przeworski, Adam. Democracy and the Market: Political and Economic Reforms in Eastern Europe and Latin America. Cambridge: Cambridge University Press, 1991. ________. Why Bother with Elections? Cambridge: Polity Press, 2018. Ramesh, Aditya et al. "Hierarchical Text-Conditional Image Generation with CLIP Latents." arXiv. 2022. Rettberg, Jill Walker. "Algorithmic Failure as a Humanities Methodology: Machine Learning's Mispredictions Identify Rich Cases for Qualitative Analysis." Big Data & Society. vol. 9, no. 2 (2022). Risse, Mathias. Political Theory of the Digital Age: Where Artificial Intelligence Might Take Us. Cambridge: Cambridge University Press, 2023. Russell, Stuart & Peter Norvig. Artificial Intelligence: A Modern Approach. 4 th ed. Hoboken, NJ: Pearson Education, 2021 [1995]. Sanders, Nathan E. & Bruce Schneier. "Machine Learning Featurizations for AI Hacking of Political Systems." arXiv. 2021. at: https:// acr.ps/1L9BP6X Scharkow, Michael et al. "How Social Network Sites and Other Online Intermediaries Increase Exposure to News." Proceedings of the National Academy of Sciences of the United States of America. vol. 117, no. 6 (2020). Schlozman, Kay Lehman, Henry E. Brady & Sidney Verba. Unequal and Unrepresented: Political Inequality and the People's Voice in the New Gilded Age. Princeton, NJ: Princeton University Press, 2018. Schneider, Gisbert. "Automating Drug Discovery." Nature Reviews Drug Discovery. vol. 17, no. 2
Schölkopf, Bernhard et al. "Toward Causal Representation Learning." Proceedings of the IEEE. vol. 109, no. 5
Schudson, Michael. Discovering the News: A Social History of American Newspapers. New York: Basic Books, 1978. Schwartzberg, Melissa. "Epistemic Democracy and Its Challenges." Annual Review of Political Science. vol. 18 (2015). Settle, Jaime E. Frenemies: How Social Media Polarizes America. Cambridge: Cambridge University Press,
Silver, David et al. "Mastering the Game of Go with Deep Neural Networks and Tree Search." Nature. vol. 529 (2016). ________. "Mastering the Game of Go without Human Knowledge." Nature. vol. 550 (2017). ________. "A General Reinforcement Learning Algorithm That Masters Chess, Shogi, and Go through Self- Play." Science. vol. 362, no. 6419 (2018). S ı thigh, Daithi Mac & Mathias Siems. "The Chinese Social Credit System: A Model for Other Countries?" Modern Law Review. vol. 82, no. 6 (2019).
Smith, Brian Cantwell. The Promise of Artificial Intelligence: Reckoning and Judgment. Cambridge, MA: MIT Press, 2019. Stasavage, David. The Decline and Rise of Democracy: A Global History from Antiquity to Today. Princeton, NJ: Princeton University Press, 2020. Sutton, Richard S. & Andrew G. Barto. Reinforcement Learning: An Introduction. 2 nd ed. Cambridge, MA: MIT Press, 2018. Thelen, Kathleen. "Regulating Uber: The Politics of the Platform Economy in Europe and the United States." Perspectives on Politics. vol. 16, no. 4 (2018). Tilly, Charles. Democracy. Cambridge: Cambridge University Press, 2007. Veale, Michael, Kenneth Matus & Robert Gorwa. "AI and Global Governance: Modalities, Rationales, Tensions." Annual Review of Law and Social Science. vol. 19 (2023). Wahl-Jorgensen, Karin & Thomas Hanitzsch. The Handbook of Journalism Studies. 2 nd ed. New York: Routledge, 2020. Williams, Bruce A. & Michael X. Delli Carpini. After Broadcast News: Media Regimes, Democracy, and the New Information Environment. Cambridge: Cambridge University Press, 2011. Winner, Langdon. "Do Artifacts Have Politics?" Dædalus. vol. 109, no. 1 (1980). Wintrobe, Ronald. The Political Economy of Dictatorship. Cambridge: Cambridge University Press, 1998. Young, Iris Marion. Inclusion and Democracy. Oxford: Oxford University Press, 2002. Zaller, John R. The Nature and Origins of Mass Opinion. Cambridge: Cambridge University Press, 1992. Zeng, Jinghan. Artificial Intelligence with Chinese Characteristics: National Strategy, Security and Authoritarian Governance. Singapore: Palgrave Macmillan, 2022. Zwitter, Andrej & Oskar J. Gstrein (eds.). Handbook on the Politics and Governance of Big Data and Artificial Intelligence. Cheltenham: Edward Elgar Publishing, 2023.