عام الانتخابات الكبير.. كيف يمكن حماية الديمقراطية في عصر الذكاء الاصطناعي؟

* 4.2 مليارات شخص يتوجهون إلى صناديق الاقتراع حيث تجري أكثر من 60 دولة انتخابات

* تم استعمال مكالمات آلية بواسطة الذكاء الاصطناعي تحاكي صوت بايدن لثني الناس عن التصويت

*والد ترامب المتوفي يحبط ولده ويوجه اليه كلمة غير مشجعة

هذا العام، يتوجه 4.2 مليارات شخص إلى صناديق الاقتراع حيث تجري أكثر من 60 دولة انتخابات – بما في ذلك سبع من الدول العشر الأكثر اكتظاظًا بالسكان في العالم – بنغلادش والهند والولايات المتحدة وإندونيسيا وباكستان وروسيا والمكسيك – والمملكة المتحدة وتسع دول أعضاء في الاتحاد الأوروبي. ومثل الانتخابات السابقة، سيلعب النظام البيئي عبر الإنترنت دوراً في تشكيل ملامح هذه الحملات، لكن التطورات الجديدة أدت إلى توتر مساحة المعلومات المتنازع عليها. أحد هذه التطورات هو التقدم السريع للذكاء الاصطناعي التوليدي، والذي يسمح لأي شخص باستحضار صور واقعية أو فيديو أو صوت أو نص بناء على مطالبات أو أسئلة يقدمها المستخدم.

وهو ما حصل فعلاً في الولايات المتحدة بعدما تحوّل الذكاء الاصطناعي إلى لاعب ناشط في السباق إلى البيت الأبيض. فقد تم استعمال مكالمات

تحوّل الذكاء الاصطناعي إلى لاعب ناشط في السباق إلى البيت الأبيض

آلية أنشئت بواسطة الذكاء الاصطناعي تحاكي صوت الرئيس جو بايدن لثني الناس عن التصويت في الانتخابات التمهيدية الأولى في ولاية نيو هامبشاير. وتم إنتاج فيديو باستخدام الذكاء الاصطناعي يظهر فريد ترامب الوالد الراحل للمرشح دونالد ترامب يقول بعض الكلمات غير المشجعة لابنه. قال فريد أمام الكاميرا: “دوني، كنت أعلم دائماً أنك ستفسد الأمر. لقد كنت دائماً أحمقاً – مزحة”. وواصل الفيديو إهانة الصفقات التجارية للرئيس الجمهوري السابق ووصفها بأنها “كلها قمامة”، واتهمه بضعف الأداء في حياته الشخصية، وأخبره أن “أطفاله يكرهونه، وخاصة الفتاة [إيفانكا ترامب]”.

في اجراء فوري، حظرت الحكومة الأميركية المكالمات الآلية، في قرار يرسل رسالة واضحة مفادها أن استغلال التكنولوجيا لخداع الناس وتضليل الناخبين لن يتم التسامح معه. كما بدأت في تنفيذ مطلب يلزم مطوري البرمجيات الرئيسيين بالكشف عن نتائج اختبارات سلامة نظام الذكاء الاصطناعي، في أعقاب أمر تنفيذي وقعه الرئيس جو بايدن 2023، والذي سعى إلى تنظيم الذكاء الاصطناعي بشكل مباشر على مستوى الولاية. ويتطلب الأمر من شركات التكنولوجيا الإبلاغ عن نتائج اختبارات السلامة لأقوى أنظمة الذكاء الاصطناعي لديها إلى وزارة التجارة الأميركية قبل إصدار تلك الأنظمة.

لقد كان تزييف صوت بايدن والفيديو الخاص بترامب، الاختبار الأول الرئيسي للحكومات وشركات التكنولوجيا ومجموعات المجتمع المدني، الذين يخوضون جميعا جدلاً ساخناً حول أفضل السبل لمراقبة نظام بيئي للمعلومات يمكن لأي شخص من خلاله إنشاء صور واقعية للمرشحين، أو تكرار أصواتهم بدقة مخيفة.

وتحذر هيئات الرقابة من أنه مع تسريح أكثر من 40 ألف عامل في شركات التكنولوجيا التي تستضيف وتدير الكثير من هذا المحتوى، فإن الوسائط الرقمية معرضة بشكل فريد للاستغلال.

والولايات المتحدة ليست وحدها في اتخاذ الإجراءات اللازمة… إذ يقترب الاتحاد الأوروبي من إقرار واحد من أكثر القوانين شمولاً لتنظيم الذكاء الاصطناعي ــ ولكنه لن يدخل حيز التنفيذ قبل عام 2026. وقد تعرض التنظيم المقترح في المملكة المتحدة لانتقادات بسبب تحركه ببطء شديد.

كما أعلن حزب العمال في المملكة المتحدة عن خطط لاستبدال اتفاقية اختبار الذكاء الاصطناعي الطوعية بنظام قانوني، حيث يُجبر مطورو الذكاء الاصطناعي على تبادل بيانات الاختبار مع المسؤولين.

وأعلنت حكومة المملكة المتحدة أنها خصصت أكثر من 100 مليون جنيه إسترليني (125.5 مليون دولار) لتمويل تحسين التنظيم والبحث والابتكار

* شركات التكنولوجيا الكبرى توقع على اتفاق لتبني “احتياطات معقولة” في محاولة لمنع أي تلاعب

في مجال الذكاء الاصطناعي، وإقامة شراكة مع الولايات المتحدة بشأن الذكاء الاصطناعي المسؤول.

ومع ذلك، فإن الولايات المتحدة هي المكان الذي تتمركز فيه العديد من شركات التكنولوجيا الأكثر تحويلاً، وبالتالي فإن تصرفات البيت الأبيض سيكون لها تأثير عميق على كيفية تطوير منتجات الذكاء الاصطناعي الأكثر اضطراباً، وفق صحيفة “الغارديان”.

“احتياطات معقولة”

من جهتها، اتخذت شركات التكنولوجيا الكبرى خطوة كبيرة نحو تنسيق جهودها من خلال التوقيع على اتفاق لتبني “احتياطات معقولة” طوعاً لمنع استخدام الذكاء الاصطناعي لتعطيل الانتخابات الديمقراطية في جميع أنحاء العالم.

وبلغ عدد الموقعين 20 شركة  من شركات التكنولوجيا الرائدة في العالم، من بينها منشئ “أوبن أي آي” ، و”غوغب” و”أدوبي” و”مايكروسوفت”. وجميعهم أطلق أدوات لإنشاء محتوى تم إنشاؤه بواسطة الذكاء الاصطناعي. كما قامت العديد من الشركات بتحديث قواعدها الخاصة وحظرت استخدام منتجاتها في الحملات السياسية.

ونص الاتفاق الذي وقع خلال مؤتمر ميونيخ الأمني:  إن التوليد والتوزيع المتعمد وغير المعلن لمحتوى انتخابات الذكاء الاصطناعي الخادع يمكن أن يخدع الجمهور بطرق تعرض للخطر نزاهة العمليات الانتخابية. نؤكد أن حماية النزاهة الانتخابية والثقة العامة هي مسؤولية مشتركة وصالح مشترك يتجاوز المصالح الحزبية والحدود الوطنية”.

وقال الدكتور كريستوف هيوسغن، رئيس مؤتمر ميونيخ للأمن: “الانتخابات هي القلب النابض للديمقراطيات. وتعد الاتفاقية التقنية لمكافحة الاستخدام الخادع للذكاء الاصطناعي في انتخابات 2024 خطوة حاسمة في تعزيز نزاهة الانتخابات، وزيادة المرونة المجتمعية، وخلق ممارسات تكنولوجية جديرة بالثقة”.

من جهتها، قالت كريستينا مونتغمري، نائبة الرئيس وكبيرة مسؤولي الخصوصية والثقة في شركة “آي بي أم” “إن حملات التضليل ليست جديدة، ولكن في هذا العام الاستثنائي من الانتخابات – مع توجه أكثر من أربعة مليارات شخص إلى صناديق الاقتراع في جميع أنحاء العالم – هناك حاجة إلى تدابير ملموسة وتعاونية حماية الأشخاص والمجتمعات من المخاطر المتزايدة للمحتوى المخادع الناتج عن الذكاء الاصطناعي”.

بحسب “غوغل”، فإن الاتفاق “يعكس التزام جانب الصناعة ضد المعلومات المضللة المتعلقة بالانتخابات التي يولدها الذكاء الاصطناعي والتي تؤدي إلى تآكل الثقة”.

فيما قالت شركة “ميتا”: مع إجراء عديد من الانتخابات الكبرى هذا العام، من المهم أن نفعل ما في وسعنا لمنع خداع الناس بالمحتوى الناتج عن الذكاء الاصطناعي.. هذا العمل أكبر من أية شركة واحدة وسيتطلب جهدًا كبيرًا عبر الصناعة والحكومة والمجتمع المدني”.

“مايكروسوفت” من جهتها، شددت على أن الشركات لديها “مسؤولية المساعدة في ضمان عدم استخدام هذه الأدوات كسلاح في الانتخابات”.

الصين أحد مراكز تطوير الذكاء الاصطناعي

من الصين إلى أوروبا، راهن كبار المسؤولين على مواقفهم بشأن الذكاء الاصطناعي في وقت يناضل العالم لتنظيم التكنولوجيا. فالصين أصدرت لوائح مؤقتة لإدارة الذكاء الاصطناعي التوليدي، فيما بدأ الاتحاد الأوروبي العمل بقانون الذكاء الاصطناعي.

ووصف رئيس مجلس الدولة الصيني لي تشيانغ الذكاء الاصطناعي بأنه “سيف ذو حدين”، مضيفاً “يجب على البشر أن يتحكموا في الآلات بدلاً من أن تتحكم الآلات فينا… يجب توجيه الذكاء الاصطناعي في اتجاه يفضي إلى تقدم البشرية، لذلك يجب أن يكون هناك خط أحمر في تطوير الذكاء الاصطناعي – خط أحمر لا يجب تجاوزه”.

وقال لي إن الصين، أحد مراكز تطوير الذكاء الاصطناعي في العالم، ترغب في “تعزيز التواصل والتعاون مع جميع الأطراف” لتحسين حوكمة الذكاء الاصطناعي العالمية.

وكان منتدى الاقتصاد العالمي وصف في تقرير المخاطر العالمية 2024، المعلومات الخاطئة والمعلومات المضللة بأنها من أهم المخاطر التي يمكن أن تزعزع استقرار المجتمع حيث قد يتم التشكيك في شرعية نتائج الانتخابات.

وقال الرئيس التنفيذي لشركة “أوبن إي أي” سام ألتمان، في حدث للمنتدى في يناير (كاون الثاني) الماضي، إنه بينما تقوم “أوبن إي أي” بإعداد الضمانات، فإنه لا يزال قلقاً بشأن كيفية استخدام تكنولوجيا شركته في الانتخابات.

“كابوس معلومات مضللة”

يقول موقع “بروكيغز” المتخصص إن مخرجات الذكاء الاصطناعي التوليدية تحسنت بشكل مطرد منذ ما يقرب من عقد من الزمان. ومع ذلك، بعد الإطلاق الفيروسي لـما يعرف بـ”تشات جي بي تي” في نوفمبر (تشرين الثاني) 2022 ، ركز قدر كبير من التعليقات على احتمال أن يؤدي هذا النوع من المحتوى إلى خلق “كابوس معلومات مضللة” في عام 2024 من خلال تسريع إنتاج معلومات خاطئة. إذ يمكن استخدام المحتوى الذي تم إنشاؤه بالكامل أو تغييره بشكل كبير لتقويض الخطاب الديمقراطي والنزاهة الانتخابية بطرق متنوعة. على وجه التحديد، يمكن للمحتوى الذي تم إنشاؤه المرتبط بالانتخابات: تشكيل محاولات اللحظة الأخيرة لردع الناخبين عن ممارسة حقهم في التصويت أو تصنيع حدث يعرض تصويراً تم إنشاؤه لمرشح يصعب فضحه؛ وتقديم معلومات صحيحة على أنها كاذبة أو يتم إنشاؤها لتجنب الأسئلة غير المريحة حول المساءلة، لا سيما في مواجهة الفضائح الحقيقية التي يمكن أن تؤثر على الحملات السياسية؛ وتسريع وتحسين وخفض تكلفة العمليات المعلوماتية القائمة المصممة لتصنيع تصور الإجماع حول القضايا السياسية، وتقويض استجابة الحكومة، والتأثير على الرأي العام، وتأجيج الانقسامات، وتسريح الناخبين أو خداعهم، وتقويض الثقة في العمليات الانتخابية.