في الأسبوع الماضي، أعلنت شركة مايكروسوفت أن بحثها كشف أن الفيديو المنتشر على شبكات التواصل الاجتماعي (مفبرك) باستخدام الذكاء الاصطناعي كجزء من حملة تضليل سرية تديرها روسيا.
كان مقطع فيديو قد انتشر على نطاق واسع، في أغسطس الماضي، تظهر فيه امرأة تدعي أنها تعرضت لحادث سير تورطت فيه المرشحة الديمقراطية للرئاسة الأميركية، كامالا هاريس!
ورغم أن الفيديو المفبرك تم باستخدام أساليب تقليدية، فإن مثل هذه الحالات تعكس كيفية استغلال التقنيات للتلاعب بالحقائق، حيث يتمكن الذكاء الاصطناعي من إنشاء محتوى جديد يشبه ما قد ينتجه البشر بناءً على تحليل بيانات سابقة، ويشمل ذلك نصوصاً وصوراً ومقاطع فيديو.
محتوى مضلل
وأوضحت ليندسي غورمان – خبيرة في التكنولوجيا الناشئة وعملت سابقاً في البيت الأبيض، أن روسيا تعد الرائدة في استخدام التكنولوجيا والذكاء الاصطناعي لخلق المحتوى المضلل والتأثير على الانتخابات الأميركية وغيرها من الديمقراطيات.
وأشارت غورمان إلى أن حملات التأثير الروسية كانت في الماضي تقتصر على نشر الأكاذيب عبر حسابات وهمية على وسائل التواصل الاجتماعي، ولكن الذكاء الاصطناعي قد زاد من فعالية هذه الجهود، مما يسمح بإنتاج محتوى زائف بشكل أكثر دقة.
كما أضافت أن هذا الوضع يتطلب استجابة فورية من منصات التواصل الاجتماعي والمجتمع لمواجهة هذه التهديدات، وتم التأكيد على أن روسيا أنتجت نسبة كبيرة من المحتوى المزيف باستخدام الذكاء الاصطناعي لدعم المرشح الجمهوري دونالد ترامب ضد منافسته كامالا هاريس.
وفقًا لغورمان، فإن الهدف الأساسي للحملات الروسية لا يقتصر على دعم مرشح معين، بل يشمل إثارة الانقسامات بين الأميركيين وتعميق الخلافات بينهم عبر منصات التواصل الاجتماعي.
وفيما يتعلق بالتعرف على المحتوى المولّد بالذكاء الاصطناعي، ترى غورمان أن كشفه يكون أسهل مقارنة بالمحتوى المفبرك بطرق تقليدية، مشيرة إلى أن التكنولوجيا تسهل عمليات الفبركة، لكنها حتى الآن قابلة للكشف.
أخيراً، أكدت غورمان على ضرورة تكاتف المجتمع الدولي والجهات الحكومية والشركات لوضع معايير تحمي الديمقراطية وتضمن نزاهة الانتخابات، مشيرة إلى أن بعض شركات التواصل الاجتماعي والذكاء الاصطناعي قد بدأت في اتخاذ خطوات لتقييد استغلال منصاتها في حملات التأثير السياسي.
مدى تأثير الذكاء الاصطناعي في الانتخابات الأمريكية
يعد الذكاء الاصطناعي قوة محورية تحمل تأثيرًا عميقًا على مختلف القطاعات، وقد بدأ هذا التأثير يظهر بشكل واضح في حياة المجتمعات. ومع التوسع في استخدامه، أصبح من الواضح أن حدوده ما زالت غير معروفة، خاصة بعدما دخل ميدان السياسة، بما في ذلك الانتخابات الرئاسية والبرلمانية، مثل الانتخابات الأمريكية القادمة. يُعتبر الذكاء الاصطناعي مصدر قلق بشأن نزاهة الانتخابات، حيث يُتوقع أن يكون عام 2024 عامًا استثنائيًا من حيث عدد الأشخاص المشاركين في الانتخابات عبر أكثر من 40 دولة، حيث سيختار نحو 4 مليارات شخص قادتهم من خلال التصويت.
الجميع خاسر
تقرير مؤتمر ميونخ للأمن الصادر مؤخرًا أكد تصاعد مخاوف الشعوب بشأن الهجمات السيبرانية وتبعات الذكاء الاصطناعي، موضحًا في تقريره المعنون “الجميع خاسر” أن هناك حالة متزايدة من انعدام الثقة عالمياً نابعة من تأثيرات هذه التقنيات. وأشار التقرير إلى أن التكنولوجيا، التي كانت تُعتبر ذات يوم دافعًا للعولمة المفيدة للجميع، أصبحت الآن ساحة للتنافس الجيوسياسي.
هذا السياق يسلط الضوء على أهمية دراسة تأثير الذكاء الاصطناعي في الانتخابات الأمريكية لعام 2024، في ظل تكهنات بأنه قد يلعب دورًا مؤثرًا في تحديد نتائجها.
من هنا تبرز تساؤلات مهمة:
• هل سيكون الذكاء الاصطناعي عنصرًا حاسمًا في الانتخابات الأمريكية؟
• كيف سيستخدمه المرشحون؟
• ما تأثيره المحتمل على سلوك الناخبين؟
• هل يمكن للدول الأخرى أن تستغله للتدخل في هذه الانتخابات؟
تأثيرات الذكاء الاصطناعي المتوقعة
من المتوقع أن يكون للذكاء الاصطناعي تأثير كبير على سلوك كل من الناخبين والمرشحين في الانتخابات المقبلة:
على سلوك الناخبين: تشير استطلاعات الرأي إلى أن العديد من الأمريكيين فقدوا الثقة في السياسيين، مما قد يدفعهم إلى الاعتماد على تطبيقات الذكاء الاصطناعي لاختيار مرشحيهم. في هذا الإطار، اتخذت شركة جوجل قرارًا بتقييد بعض الاستفسارات المتعلقة بالانتخابات على برنامجها الذكي “BARD” حرصًا على الحد من التأثيرات السلبية المحتملة.
على سلوك المرشحين: بدأ بعض المرشحين بالفعل في استخدام الذكاء الاصطناعي في حملاتهم الانتخابية، كما حدث مع الروبوت “آشلي” الذي استخدمته المرشحة شامين دانيلز للرد على استفسارات الناخبين. كما يُتوقع أن يلجأ بعض المرشحين إلى استخدام برامج مثل “ChatGPT” في إعداد خطاباتهم ورسائلهم الانتخابية، إلا أن هذه الأدوات قد تُستغل أيضًا في إنتاج محتوى مضلل.
تدخلات خارجية باستخدام الذكاء الاصطناعي
أظهر تقييم استخباراتي أمريكي أن دولًا مثل الصين وروسيا وإيران وكوبا حاولت التدخل في انتخابات الكونجرس لعام 2022 باستخدام الذكاء الاصطناعي. وقد أظهرت التقييمات أن الصين، على وجه الخصوص، كانت نشطة في هذا المجال، حيث استخدم عملاؤها صورًا مولدة بالذكاء الاصطناعي لمحاكاة النقاشات بين الناخبين الأمريكيين.
كما استهدف الكرملين الناخبين الأمريكيين في محاولة لتقويض ثقتهم في الانتخابات، وخاصة لزيادة الشكوك حول دعم الولايات المتحدة لأوكرانيا.
إجراءات استباقية
تهدف هذه الإجراءات إلى جعل الذكاء الاصطناعي وسيلة لتعزيز التعاون الدولي والشراكات متعددة القطاعات، لدفع التطور المسؤول في تطبيق تقنيات الذكاء الاصطناعي لصالح المجتمعات. ويتطلب هذا النوع من الذكاء وضع وتطوير مبادئ سلوك مسؤولة من خلال تنظيم حوارات عالمية تجمع ممثلين عن القطاعين الحكومي والخاص. كما تسعى هذه الجهود إلى تعزيز قدرات الدول في مجال الذكاء الاصطناعي للحد من استخداماته الضارة، وتعظيم الفوائد منه، خاصة في الانتخابات المقبلة، مثل الانتخابات الرئاسية الأمريكية 2024 التي لها تأثيرات كبيرة ليس فقط على الداخل الأمريكي، ولكن على العالم ككل.
أبرز الإجراءات لتفعيل الذكاء الاصطناعي المسؤول
1. اتفاقية لمنع استخدام الذكاء الاصطناعي في تعطيل الانتخابات الديمقراطية عالميًا: مع اقتراب الانتخابات الأمريكية، اجتمع كبار التنفيذيين من شركات مثل “أدوبي” و”أمازون” و”جوجل” و”ميتا” وغيرهم في مؤتمر ميونخ للأمن لإعلان اتفاقية إطار عمل طوعي. تهدف الاتفاقية إلى التصدي للتلاعب بالمحتوى الناتج عن الذكاء الاصطناعي، مثل الصور والمقاطع المزيفة التي قد تخدع الناخبين.
وتهدف الاتفاقية، التي وُقعت لمكافحة التزييف العميق في انتخابات 2024 التي تُجرى في أكثر من 40 دولة، إلى إلزام الشركات المشاركة بمواجهة المحتوى الضار الذي يسعى لخداع الناخبين، عبر تكنولوجيا الذكاء الاصطناعي. وتشمل هذه الاتفاقية التزامات للتعامل مع الصوت والفيديو والصور المولدة بالذكاء الاصطناعي، التي تزيّف أو تعدل مظهر أو صوت المرشحين بشكل مضلل.
2. ميثاق الذكاء الاصطناعي الأخلاقي: في فبراير 2024، وقعت ثماني شركات تقنية ميثاقًا لتعزيز “الذكاء الاصطناعي الأخلاقي” خلال منتدى عالمي نظمته اليونسكو في سلوفينيا. وضم الميثاق شركات مثل “مايكروسوفت”، “إل جي”، و”ماستر كارد”. وقد التزمت هذه الشركات بتطبيق إجراءات تحمي حقوق الإنسان في جميع مراحل تصميم وتطوير واستخدام الذكاء الاصطناعي، مع تعهد بتصحيح أي آثار سلبية للذكاء الاصطناعي خلال فترة زمنية معقولة.
3. تشريع أوروبي جديد لتنظيم الذكاء الاصطناعي: وافقت دول الاتحاد الأوروبي، في فبراير 2024، على تشريع رائد عالميًا لتنظيم استخدامات الذكاء الاصطناعي. ويهدف هذا التشريع إلى تحقيق توازن بين حرية الابتكار وضمان الأمن، في محاولة لضمان تطوير الذكاء الاصطناعي ضمن إطار أخلاقي وقانوني صارم.
ختاماً؛ استخدامات الذكاء الاصطناعي في الانتخابات الأمريكية لعام 2024 تتنوع بين أدوات مفيدة وأخرى ضارة، وتشبه هذه التكنولوجيا المفاعلات النووية من حيث قدرتها على إفادة البشرية أو الإضرار بها. ورغم أهمية هذه التطورات، إلا أن القوانين التي تنظم استخدام الذكاء الاصطناعي في الانتخابات ما تزال محدودة في الولايات المتحدة، مما يثير القلق بشأن تأثير المحتوى المزيف على نتائج الانتخابات.