نيويورك (الأمم المتحدة)- “القدس العربي”: لأول مرة في تاريخه، عقد مجلس الأمن الدولي جلسة رفيعة على مستوى وزاري، الثلاثاء، خصصها لبحث مسألة “حوكمة الذكاء الاصطناعي” تحت رئاسة وزير خارجية المملكة المتحدة، جيمس كليفرلي، الرئيس الدوري للمجلس خلال شهر تموز/يوليو الحالي. كما شارك في الجلسة عدد من خبراء الذكاء الاصطناعي بالإضافة إلى الأمين العام، الذي كان أول المتحدثين ثم أعطيت الكلمات لأعضاء مجلس الأمن الآخرين.
في كلمته الافتتاحية أمام المجلس، قال الأمين العام للأمم المتحدة، أنطونيو غوتيريش، إنه من الواضح أن الذكاء الاصطناعي سيكون له تأثير على جميع مناحي الحياة لأن هذه التقنية قادرة على تسريع التنمية العالمية بما في ذلك مراقبة أزمة المناخ وتحقيق طفرات في مجال الأبحاث الطبية.
وقال غوتيريش إن الذكاء الاصطناعي يوفر قدرات جديدة لإعمال حقوق الإنسان لاسيما في مجالي الصحة والتعليم، والتعرف على أنماط العنف ومراقبة وقف إطلاق النار وتعزيز جهود حفظ السلام والوساطة والجهود الإنسانية. لكن الأمين العام حذر أيضا من أن أدوات الذكاء الاصطناعي التي يمكن استخدامها من قبل أصحاب النوايا الخبيثة. وقال “إن الاستخدامات الضارة لأنظمة الذكاء الاصطناعي لأغراض إرهابية أو إجرامية أو لصالح دولة، يمكن أن تتسبب في مستويات مرعبة من الموت والدمار وتفشي الصدمات والضرر النفسي العميق على نطاق يفوق التصور”. وأشار إلى أن الهجمات الإلكترونية المدعومة بالذكاء الاصطناعي قد تستهدف البنى التحتية الحيوية والعمليات الإنسانية وعمليات حفظ السلام وقد تسبب معاناة إنسانية كبرى.
وحذر الأمين العام أيضا من أن التقدم في مجال الذكاء الاصطناعي يعد لحظة فارقة على صعيد نشر المعلومات المضللة وخطاب الكراهية، لأن الذكاء الاصطناعي قادر على تقويض الحقائق والأمن، ويضيف بعدا جديدا للتلاعب بالسلوك البشري، ويساهم في الاستقطاب وعدم الاستقرار على نطاق هائل. وحذر الأمين العام من التفاعل بين الذكاء الاصطناعي والأسلحة النووية والتكنولوجيا البيولوجية والتكنولوجيا العصبية وتكنولوجيا الروبوتات.
وأشار غوتيريش إلى أن هناك قواعد يمكن الانطلاق منها بما فيها المبادئ الإرشادية لعامي 2018-2019 بشأن أنظمة الأسلحة ذاتية التشغيل المميتة، والتي تم تبنيها عبر اتفاقية حظر أو تقييد استخدام أسلحة تقليدية معينة، فضلا عن التوصيات بشأن أخلاقيات الذكاء الاصطناعي التي تم تبنيها عام 2021 عبر منظمة اليونسكو. وأشار إلى أن مكتب مكافحة الإرهاب بالتعاون مع معهد الأمم المتحدة الإقليمي لبحوث الجريمة والعدالة قدم توصيات بشأن كيفية تعامل الدول الأعضاء مع الاستخدام المحتمل للذكاء الاصطناعي لأغراض إرهابية. وأوضح غوتيريش أن الحاجة لمعايير وتوجهات دولية للتعامل مع الذكاء الاصطناعي يجعل الأمم المتحدة “المكان المثالي”. وكي يتحقق هذا، أضاف الأمين العام، “أرحب بدعوات بعض الدول الأعضاء لإنشاء كيان أممي جديد لدعم الجهود الجمعية لإدارة هذه التقنية غير الاعتيادية. وختم كلمته قائلا: “نحن بحاجة إلى سباق لتطوير ذكاء اصطناعي من أجل المنفعة العامة. من أجل تطوير ذكاء اصطناعي موثوق وآمن”.
من جهته، أشار جاك كلارك، الشريك المؤسس لـ شركة “أنثروبيك” المتخصصة، إلى أنه على الرغم من أن الذكاء الاصطناعي يمكن أن يجلب فوائد ضخمة، إلا أنه يشكل أيضًا تهديدا للسلام والأمن والاستقرار العالمي نظرًا لإمكانية إساءة استخدامه وعدم القدرة على التنبؤ به – وهما صفتان أساسيتان لأنظمة الذكاء الاصطناعي. على سبيل المثال ، بينما يمكن لنظام الذكاء الاصطناعي تحسين فهم علم الأحياء، يمكن استخدامه أيضًا لبناء أسلحة بيولوجية.
جاك كلارك: على الرغم من أن الذكاء الاصطناعي يمكن أن يجلب فوائد ضخمة، إلا أنه يشكل أيضًا تهديدا للسلام والأمن والاستقرار العالمي نظرًا لإمكانية إساءة استخدامه وعدم القدرة على التنبؤ به
وشدد على أنه “لا يمكننا ترك تطوير الذكاء الاصطناعي للجهات الفاعلة في القطاع الخاص فقط”، مشيرًا إلى أنه يمكن للحكومات أن تُخضع الشركات للمساءلة – ويمكن للشركات أن تكسب ثقة العالم – من خلال تطوير أنظمة تقييم قوية وموثوقة. وحذر من أنه بدون مثل هذا الاستثمار، فإن المجتمع الدولي يخاطر بتسليم المستقبل لمجموعة ضيقة من الجهات الفاعلة في القطاع الخاص.
وفي إحاطة للمجلس للسيد يي تسنغ، من معهد الأتمتة في الأكاديمية الصينية للعلوم، قال إن الذكاء الاصطناعي الحالي هو أدوات لمعالجة المعلومات، على الرغم من أنها تبدو ذكية، إلا أنها تفتقر إلى فهم حقيقي. وشدد على ذلك بقوله: “هذا هو السبب في أنه لا يمكن الوثوق بها، بالطبع بوصفها وكلاء مسؤولين يمكن أن يساعدوا البشر على اتخاذ القرارات”. وقال إن الذكاء الاصطناعي على المدى القريب والبعيد سيحمل خطر الانقراض البشري لمجرد “أننا لم نجد طريقة لحماية أنفسنا من استخدام الذكاء الاصطناعي للضعف البشري”.
وزير الخارجية البريطاني، جيمس كليفرلي، قال في بيانه إن من بين أخطار الذكاء الاصطناعي قدرته على نشر المعلومات المضللة بسرعة – مع عواقب وخيمة على الديمقراطية والاستقرار – ويمكن أن يساعد في البحث المتهور عن أسلحة الدمار الشامل من قبل الجهات الحكومية وغير الحكومية. وأكد: “لهذا السبب نحن بحاجة ماسة إلى تشكيل الحوكمة العالمية للتقنيات التحويلية”.
وأكد أن بلاده ترى أنه ينبغي للذكاء الاصطناعي دعم الحرية والديمقراطية؛ أن يكون متسقا مع سيادة القانون وحقوق الإنسان؛ أن يكون آمنا ويمكن التنبؤ به حسب التصميم؛ وأن يثق به الجمهور. وأشار إلى أن بلاده هي موطن العديد من مطوري الذكاء الاصطناعي الرائدين في العالم وأهم الباحثين في مجال السلامة في الذكاء الاصطناعي، وقال إن المملكة المتحدة ستجمع قادة العالم معًا في أول قمة عالمية كبرى حول سلامة الذكاء الاصطناعي في الخريف. وأضاف أن هناك فرصا هائلة أمام المجتمع الدولي للاتفاق على حوكمة الذكاء الاصطناعي.
تحدث ممثل الاتحاد الروسي، ديمتري بوليانيسكي، قائلا إن تطوير أنظمة الأسلحة المستقلة يمكن أن يشكل مخاطر على الأمن لأن مثل هذه الأنظمة يمكن أن تتخذ قرارات بشأن استخدام القوة. ويمكن أيضًا استخدام الذكاء الاصطناعي في إنشاء ونشر معلومات مضللة و”أخبار كاذبة”، مما يقوض الثقة ويسبب التوترات. وفيما يتعلق بالأنظمة الفتاكة ذاتية التشغيل، قال إن المسألة تناقش في الجمعية العامة وأن ازدواجية هذه الجهود تأتي بنتائج عكسية. وتابع: “الغرب ليس لديه أي مخاوف أخلاقية بشأن السماح للذكاء الاصطناعي بإصدار بيانات كراهية للبشر في الشبكات الاجتماعية”. وانتقل إلى عدم المساواة الرقمية، فقال إن الوصول إلى الإنترنت في أوروبا يتمتع به ما يقرب من 89 في المئة من السكان. في البلدان منخفضة الدخل، يتمتع ربع السكان فقط بمثل هذه المزايا. تاريخيا، تم تطوير التقنيات الرقمية على مستوى القطاع الخاص، وتأخرت الحكومات في تنظيمها. وشدد على أن “هذا الاتجاه يحتاج إلى عكسه”.
في المناقشة التي تلت ذلك، سلط أعضاء المجلس الضوء بالتناوب على الفرص التحويلية التي يوفرها الذكاء الاصطناعي لمواجهة التحديات العالمية والمخاطر التي يشكلها – بما في ذلك قدرته على تكثيف الصراع من خلال نشر المعلومات المضللة والعمليات الإلكترونية الخبيثة. وأكد الكثيرون، أنهم، مع إدراكهم للتطبيقات العسكرية للتكنولوجيا، إلا أن هناك ضرورة الاحتفاظ بعنصر صنع القرار البشري في أنظمة الأسلحة المستقلة. وشدد الأعضاء أيضًا على الحاجة إلى إنشاء إطار أخلاقي ومسؤول لحوكمة الذكاء الاصطناعي الدولية.