إعادة تعريف الإنسان
وهكذا يثير الذكاء الاصطناعي بالطبع عددا لا يحصى من المسائل الأخلاقية.
والأمر اللافت للنظر في أحدث موجة من تكنولوجيا الذكاء الاصطناعي التوليدي هو قدرتها على استخلاص قدر هائل من المعرفة وتحويله إلى مجموعة من الرسائل المقنعة. فالذكاء الاصطناعي لا يفكر ويتعلم بسرعة فحسب – بل يتحدث الآن مثلنا أيضاً.
وقد أزعج هذا الأمر العلماء بشدة، ومنهم العالم يوفال هراري. ويرى هراري أنه من خلال إتقان الذكاء الاصطناعي للغة، قد يتمكن من إقامة علاقات وثيقة مع الأشخاص عن طريق "الحميمية الزائفة" للتأثير على آرائنا ونظراتنا للعالم. وقد يؤدي ذلك إلى زعزعة استقرار المجتمعات. بل وربما يقوض فهمنا الأساسي للحضارة الإنسانية، وذلك نظراً لأن معاييرنا الثقافية، من الدين إلى القومية، تقوم على روايات اجتماعية مقبولة.
وتجدُر الإشارة إلى أنه حتى رواد تكنولوجيا الذكاء الاصطناعي حذرون إزاء المخاطر الوجودية التي تشكلها هذه التكنولوجيا. ففي وقت سابق من هذا العام، وقعت أكثر من 350 شركة رائدة في قطاع الذكاء الاصطناعي على بيان يدعو إلى الحد من مخاطر "الاندثار" الناجم عن الذكاء الاصطناعي باعتباره أولوية عالمية، لتضع بذلك هذه المخاطر في مصاف الجوائح والحروب النووية.
وبالفعل، يتم استخدام الذكاء الاصطناعي كأداة مكملة للأحكام التي عادة ما يصدرها البشر. فعلى سبيل المثال، سارع قطاع الخدمات المالية في تطويع هذه التكنولوجيا لتتلاءم مع مجموعة واسعة من التطبيقات، بما في ذلك استخدامها للمساعدة في إجراء تقييمات المخاطر ومراجعة إجراءات القروض والتوصية بالاستثمارات. ولكن كما تشير دراسة أخرى أصدرها الصندوق مؤخراً، هناك مخاطر ترتبط بذلك. فكما نعلم، قد تؤدى عقلية القطيع في القطاع المالي إلى مخاطر على الاستقرار، كما أن أي نظام مالي لا يعتمد سوى على عدد قليل من نماذج الذكاء الاصطناعي قد يحفز هذه العقلية. وبسبب افتقار هذه التكنولوجيا بالغة التعقيد إلى الشفافية، سيصعب تحليل القرارات عندما تسوء الأمور.
وتمثل مسألة خصوصية البيانات مصدرا آخر للقلق، إذ قد تقوم الشركات بإتاحة البيانات السرية لعامة الجمهور دون قصد. وفي ظل ما نعلمه من مخاوف بالغة إزاء التحيز المتضمن في الذكاء الاصطناعي، فإن الاعتماد على برامج الروبوت الآلية عبر الإنترنت في الموافقة على طلبات القروض قد يؤدي إلى تفاقم أوجه عدم المساواة. ويكفي القول إنه في ظل غياب الإشراف السليم، يمكن لأدوات الذكاء الاصطناعي بالفعل أن تزيد من المخاطر المحيطة بالنظام المالي وأن تقوض الاستقرار المالي.
الاستجابات على مستوى السياسات العامة
نظراً لأن الذكاء الاصطناعي يعمل عبر الحدود، فنحن بحاجة ماسة إلى وضع إطار عالمي منسق على نحو يسمح بتعظيم الفرص الهائلة التي تتيحها هذه التكنولوجيا، والحد في الوقت نفسه من أضرارها الواضحة على المجتمع. ويتطلب هذا الأمر وضع سياسات سليمة وذكية – تحقق التوازن بين الابتكار والتنظيم – وتساعد على ضمان استخدام الذكاء الاصطناعي من أجل المصلحة العامة.
ويُعد التشريع الذي اقترحه الاتحاد الأوروبي، والذي يصنف الذكاء الاصطناعي حسب مستويات المخاطر، خطوة مشجعة إلى الأمام. ولكننا مختلفون على مستوى العالم. فمنهج الذكاء الاصطناعي المتبع في الاتحاد الأوربي يختلف عن ذلك المتبع في الولايات المتحدة الأمريكية، كما يختلف الأخير بدوره عن المنهج المتبع في المملكة المتحدة والصين. وإذا اتبعت البلدان، أو تكتلات البلدان، مناهجها التنظيمية أو معاييرها التكنولوجية المتعلقة بالذكاء الاصطناعي، فقد يؤدي ذلك إلى إبطاء معدل انتشار منافع هذه التكنولوجيا مع إذكاء المنافسات الخطرة بين البلدان. وتعميق التشرذم بفعل الذكاء الاصطناعي في عالم منقسم بالفعل هو أبعد ما يكون عما نرجوه.
ولحسن الحظ أننا نرى بالفعل التقدم المحرز في هذا الشأن. فمن خلال عملية هيروشيما للذكاء الاصطناعي التي أطلقتها مجموعة السبع والأمر التنفيذي الأمريكي بشأن الذكاء الاصطناعي وقمة المملكة المتحدة لسلامة الذكاء الاصطناعي، أثبتت البلدان التزامها بتحرك عالمي منسق إزاء الذكاء الاصطناعي، بما في ذلك وضع معايير دولية واعتمادها إذا لزم الأمر.
وفي نهاية الأمر، نحن بحاجة إلى وضع مجموعة من المبادئ العالمية بشأن الاستخدام المسؤول للذكاء الاصطناعي والتي يمكن أن تساعد على التنسيق بين التشريعات والقواعد التنظيمية على المستوى المحلي.
ومن هذا المنطلق، هناك مسار موازٍ للتعاون بشأن تغير المناخ الذي يمثل قضية عالمية مشتركة. ورغم القيود التي وضعتها اتفاقية باريس، فقد رسخت إطارا مشتركا لمعالجة تغير المناخ، وهو أمر ممكن أيضاً بالنسبة للذكاء الاصطناعي. فكما اقترح البعض، يمكن الاقتضاء بالهيئة الحكومية الدولية المعنية بتغير المناخ – وهي مجموعة من الخبراء التي تقوم بمتابعة وتبادل المعلومات حول كيفية التعامل مع تغير المناخ – في تشكيل مجموعة معنية بالذكاء الاصطناعي. ومن المشجع أيضا في هذا الصدد دعوة الأمم المتحدة لإنشاء هيئة استشارية رفيعة المستوى معنية بالذكاء الاصطناعي كجزء من الاتفاق الرقمي العالمي، وهي خطوة أخرى في الاتجاه الصحيح.
وفي ظل خطر فقدان المزيد من الوظائف، من الضروري أيضاً أن تعمل الحكومات على إنشاء شبكات أمان اجتماعي تتسم بالمرونة وسرعة الاستجابة لمساعدة أولئك الذين فقدوا وظائفهم، وتعزيز سياسات سوق العمل لمساعدة العاملين على البقاء في سوق العمل. وينبغي أيضاً توخي الدقة في تقييم السياسات الضريبية للتأكد من أن النظم الضريبية لا تميل إلى الإحلال العشوائي للعمالة.
وسيكون إدخال التعديلات الصحيحة على النظام التعليمي أمراً بالغ الأهمية. فنحن بحاجة إلى إعداد الجيل القادم من العاملين لاستخدام هذه التكنولوجيات الجديدة وتوفير فرص التدريب المستمر للموظفين الحاليين. ومن المرجح أن ينمو الطلب على المتخصصين في تعليم العلوم والتكنولوجيا والهندسة والرياضيات (STEM). ولكن قد تزداد أيضا قيمة تدريس العلوم الإنسانية – التي تغرس في الطلاب كيفية التفكير في القضايا الكبيرة التي تواجه الإنسانية استنادا إلى أطر عديدة.
وبخلاف تلك التعديلات، يجب أن يكون نظام التعليم في صدارة قطاع تطوير الذكاء الاصطناعي. وحتى عام 2014، كانت معظم نماذج تعلُّم الآلة تأتي من الدوائر الأكاديمية، ولكن قطاع الصناعة استحوذ على هذا الدور منذ ذلك الحين: ففي عام 2022، أصدر قطاع الصناعة 32 نموذجاً مهماً للتعلم الآلي مقابل ثلاثة نماذج فقط أطلقتها الدوائر الأكاديمية. وبما أن بناء أحدث أنظمة الذكاء الاصطناعي يتطلب قدرا متزايدا من البيانات وقدرات المعالجة الحاسوبية فضلاً عن المال، فسيكون من الخطأ عدم الإفصاح عن تمويل أبحاث الذكاء الاصطناعي، وهو الأمر الذي يمكن أن يسلط الضوء على تكاليف الذكاء الاصطناعي التي تتحملها المجتمعات.
وفي الوقت الذي يواجه فيه صناع السياسات هذه التحديات، فبإمكان المؤسسات المالية الدولية، ومنها صندوق النقد الدولي، تقديم المساعدة في ثلاثة مجالات مهمة.
أولاً، لوضع السياسات الصحيحة، يجب علينا أن نكون مستعدين لمعالجة التأثيرات الأوسع نطاقاً التي يخلفها الذكاء الاصطناعي على اقتصاداتنا ومجتمعاتنا. ويمكن للمؤسسات المالية الدولية أن تساعدنا على فهم تلك التأثيرات بشكل أفضل من خلال جمع المعلومات على نطاق عالمي. وصندوق النقد الدولي بالتحديد قادر على تقديم المساعدة من خلال أنشطتنا الرقابية. ونحن بالفعل نقوم بدورنا من خلال تضافر جهود الخبراء من مختلف إدارات الصندوق لبحث التحديات التي يفرضها الذكاء الاصطناعي وكذلك الفرص التي يتيحها للصندوق وبلداننا الأعضاء.
وثانياً، بإمكان المؤسسات المالية الدولية استخدام قوتها الجامعة لإتاحة منبر لتبادل الاستجابات الناجحة على مستوى السياسات. فمن الممكن أن يساعد تبادل المعلومات حول أفضل الممارسات في بناء توافق دولي، وهو خطوة مهمة نحو تنسيق القواعد التنظيمية.
ثالثاً، يمكن للمؤسسات المالية الدولية تعزيز التعاون العالمي بشأن الذكاء الاصطناعي من خلال مشورتنا بشأن السياسات. ولضمان جني جميع البلدان لثمار الذكاء الاصطناعي، يمكن للمؤسسات المالية الدولية تشجيع التدفق الحر للموارد الأساسية – مثل وحدات المعالجة والبيانات – ودعم تطوير البنية التحتية البشرية والرقمية اللازمة. وسيتعين على صناع السياسات توخي الدقة في ضبط استخدام الأدوات العامة؛ كما ينبغي لهم دعم التكنولوجيات في المراحل المبكرة دون أن يؤدي ذلك إلى التشرذم وفرض قيود على البلدان. وسوف يظل الاستثمار العام في الذكاء الاصطناعي والموارد المرتبطة به ضرورياً، ولكن يجب علينا تجنب التحول إلى الحمائية.
مستقبل الذكاء الاصطناعي
نظراً لقدرة الذكاء الاصطناعي الفريدة على محاكاة التفكير البشري، فسوف نكون بحاجة إلى وضع مجموعة فريدة من القواعد والسياسات للتأكد من أنه يعود بالنفع على المجتمع. ويجب أن تكون هذه القواعد عالمية. وبذلك يتضح من ابتكار الذكاء الاصطناعي أن التعاون متعدد الأطراف بات أكثر أهمية من أي وقت مضى.
وفي مواجهة هذا التحدي، يتحتم علينا الخروج من غرف الصدى والنظر في مصلحة الإنسانية ككل. وقد يكون ذلك من أصعب التحديات التي واجهت السياسات العامة على الإطلاق.
وإذا كنا بالفعل على مشارف عصر تكنولوجي تحولي يضاهي الثورة الصناعية، فعلينا أن نتعلم من دروس الماضي. وقد يكون التقدم العلمي والتكنولوجي أمراً لا مفر منه، ولكنه يجب ألا يكون بلا هدف. فالتقدم من أجل التقدم ليس كافياً، بل يتعين علينا العمل معاً لضمان التقدم المسؤول نحو حياة أفضل لعدد أكبر من الناس.