في عصر أصبح فيه المجال الرقمي مؤثرا مثل المجال المادي، فتح اقتحام الذكاء الاصطناعي وسائل التواصل الاجتماعي آفاقا جديدة ليس فقط للابتكار، ولكن أيضا للتلاعب. وسلطت الدراسات والوقائع الأخيرة الضوء على كيفية استخدام الذكاء الاصطناعي بشكل متزايد لصياغة ونشر الدعاية، مما يتحدى تصوراتنا للواقع والحقيقة في العالم الرقمي. تقوم أنظمة «الذكاء الاصطناعي الخلاقة» بإنشاء نصوص وصور ومقاطع فيديو مُقنِعة، ولكنها مضللة، ومصممة خصيصا لجذب فئات سكانية معينة. أيضا تتيح قدرة الذكاء الاصطناعي على تحليل كميات هائلة من البيانات، إنشاء ملفات تعريف مفصلة للمستخدمين، وتعمل هذه الملفات بدورها على تخصيص الدعاية، ما يضمن أن يتردد صداها بشكل أعمق لدى أفراد أو مجموعات محددة، وبالتالي تضخيم قوتها الإقناعية.
كما أن التلاعب بخوارزميات وسائل التواصل الاجتماعي، يلعب دورا خطيرا حيث تُستخدم الروبوتات و»الحسابات المزيفة»AI Bots التي تعتمد على الذكاء الاصطناعي لتضخيم المحتوى بشكل مصطنع، مما يخلق وهما بالشعبية والمصداقية. ويعتبر هذا التكتيك فعالا بشكل خاص في التأثير في الرأي العام، حيث غالبا ما يساوي المستقبلون بين شعبية المنشور وأصالته. وتساهم هذه الروبوتات أيضا في إنشاء «غرف الصدى»، حيث يتعرض المستقبلون باستمرار لوجهات نظر مشابهة لوجهات نظرهم، ما يعزز معتقداتهم ويعزلهم عن وجهات النظر المتناقضة أو المختلفة. ومن الأمثلة الصارخة على ذلك ما نجم عن الحرب بين روسيا وأوكرانيا، حيث تضاعف عدد مستخدمي تويتر ثلاث مرات خلال الصراع، وتم نشر الروبوتات والأنظمة الآلية، التي تعتمد على الذكاء الاصطناعي على نطاق غير مسبوق لنشر الأخبار المزيفة والمعلومات المضللة.
مع استمرار تطور تكنولوجيا الذكاء الاصطناعي، يجب أن تتطور أيضا استراتيجيات مواجهة احتمالات إساءة استخدامها
ووفقا لدراسة أجرتها جامعة أديليد الأسترالية، فإن 60% إلى 80% من حسابات تويتر التي تبث أخبارا وصورا عن الحرب الروسية الأوكرانية كانت عبارة عن حسابات آلية 90% منها مؤيدة لأوكرانيا. وتؤكد هذه الدراسة، التي فحصت 5.2 مليون تغريدة في الفترة ما بين 23 فبراير/شباط و8 مارس/آذار عام 2022، على تأثير الروبوتات في تشكيل الروايات. ويشكل ظهور «التزييف العميق» باستخدام الذكاء الاصطناعي تهديدا أكثر مباشرة لسلامة المعلومات عبر الإنترنت، حيث يمكن استخدام هذه التزييفات العميقة لنشر معلومات كاذبة، أو انتحال شخصيات عامة، ما يجعل من الصعب التمييز بين ما هو حقيقي وما هو ملفق، حيث يمكن استخدامها لتضليل الجمهور، والإضرار بالسمعة، بل حتى التحريض على الاضطرابات.. ومثال على ذلك قيام حساب موثق (ذو علامة زرقاء) تحت اسم «بلومبرغ فييد» على تويتر بنشر صورة مزيفة تظهر تفجير مبنى وزارة الدفاع الأمريكية، وهو أمر لم يحدث حقا. ومن خلال تحليل المشاعر العامة وتحديد القضايا المثيرة للخلاف، يمكن لخوارزميات الذكاء الاصطناعي بث دعاية تبدو مُقنِعة للغاية تؤدي إلى تفاقم الانقسامات الاجتماعية. كما تؤدي أتمتة توزيع المعلومات الكاذبة التي تبدو حقيقية جدا إلى زيادة تعقيد المشهد، مما يزيد من صعوبة تمييز المستقبلين بين الحقيقة والخيال. الأخطر من ذلك أن روبوتات الذكاء الاصطناعي تشكل تحديا آخر، حيث يمكنها محاكاة السلوك البشري إلى درجة تجعلها مشابهة للبشر الحقيقيين في أعين وعقول المستقبلين. أضف إلى ذلك أن هذه الروبوتات تتطور باستمرار، مما يجعل اكتشافها تحديا هائلا لكل من المستقبلين ومنصات التواصل الاجتماعي.
إن الآثار المترتبة على الدعاية المضللة المعتمدة على الذكاء الاصطناعي بعيدة المدى، وإلى جانب التأثير في الرأي العام، فإن هذه التكتيكات لديها القدرة على التلاعب بالانتخابات، وزعزعة استقرار المجتمعات، وتقويض الثقة في المؤسسات الديمقراطية. وتسلط فضيحة استغلال بيانات «كامبريدج أناليتيكا»، وهي مؤسسة دراسات، خلال الانتخابات الأمريكية الضوء على الإمكانات الشائنة للذكاء الاصطناعي في الدعاية، فقد تم جمع بيانات حوالي 50 مليون مستخدم، معظمهم في الولايات المتحدة، من دون موافقتهم الصريحة من خلال اختبار نفسي رقمي شمل 270 ألف شخص، لإنشاء ملفات تعريف نفسية للمستقبلين واستهدافهم وتسليمهم مواد مؤيدة لترامب بشكل انتقائي. يذكر أن الاختبار النفسي المشار إليه طوره ألكسندر كوجان، أستاذ علم النفس في جامعة كامبريدج، ولكن نتائجه تم استخدامها على مستقبلين آخرين. يذكر أن «كامبريدج أناليتيكا» متهمة أيضا بالتلاعب في نتائج استفتاء الخروج من الاتحاد الأوروبي «بريكسيت» الذي حدث في المملكة المتحدة.
ما العمل؟
إن التصدي لهذه التحديات يتطلب ردا متعدد الأوجه، فمن جهة يجب أن تستمر منصات وسائل التواصل الاجتماعي في تطوير خوارزميات كشف أكثر تطورا لتحديد ومواجهة الدعاية التي يقودها الذكاء الاصطناعي. ومن جهة أخرى، يجب محو الأمية الرقمية بين المستخدمين، الذين يجب تثقيفهم حول كيفية تحديد المحتوى الناتج عن الذكاء الاصطناعي وتقييمه بشكل نقدي. وتلعب الهيئات التنظيمية أيضا دورا حاسما من ناحية تطوير السياسات والأطر التي تنظم وتراقب الاستخدام الأخلاقي للذكاء الاصطناعي في وسائل التواصل الاجتماعي لحماية المستخدمين من التلاعب. ويجب أن تهدف هذه السياسات إلى تحقيق التوازن بين فوائد الذكاء الاصطناعي في تعزيز تجربة المستخدم والحاجة إلى الحماية ضد إساءة استخدامه.
وفي الختام، فإن استخدام الذكاء الاصطناعي في الدعاية عبر وسائل التواصل الاجتماعي يمثل تحديا كبيرا لسلامة المعلومات والعملية الديمقراطية. ومع استمرار تطور تكنولوجيا الذكاء الاصطناعي، يجب أن تتطور أيضا استراتيجيات مواجهة احتمالات إساءة استخدامها. فقط من خلال الجهود المتضافرة التي تشمل مطوري التكنولوجيا، ومنصات وسائل التواصل الاجتماعي، وصناع السياسات، والمستخدمين، يمكننا أن نبحر عبر السراب الرقمي ونحمي الحقيقة في عالمنا الذي أصبح متصلا بالإنترنت على نحو متزايد.
باحث فلسطيني متخصص في الذكاء الاصطناعي