أخبار العالم

“انعدام الثقة”: كيف يمكن للتزييف العميق والذكاء الاصطناعي أن يهزا الانتخابات الأمريكية | أخبار الانتخابات الأمريكية 2024


في 21 يناير، كانت باتريشيا جينجريتش على وشك الجلوس لتناول العشاء عندما رن هاتفها الأرضي. التقطت الناخبة في نيو هامبشاير وسمعت صوتًا يطلب منها عدم التصويت في الانتخابات التمهيدية الرئاسية المقبلة.

وقال غينغريتش لقناة الجزيرة: “عندما استمعت إليه، فكرت، يا إلهي، أن هذا يبدو مثل جو بايدن”. “لكن حقيقة أنه كان يقول احفظ صوتك، لا تستخدمه في هذه الانتخابات المقبلة – كنت أعلم أن جو بايدن لن يقول ذلك أبدًا”.

ربما بدا الصوت وكأنه رئيس الولايات المتحدة، لكنه لم يكن هو: لقد كان صوتًا مزيفًا للغاية، تم إنشاؤه بواسطة الذكاء الاصطناعي (AI).

يحذر الخبراء من أن التزييف العميق – الصوت أو الفيديو أو الصور التي تم إنشاؤها باستخدام أدوات الذكاء الاصطناعي، بقصد التضليل – يشكل خطرا كبيرا على الناخبين الأمريكيين قبل الانتخابات العامة في تشرين الثاني (نوفمبر)، ليس فقط عن طريق ضخ محتوى كاذب في السباق ولكن عن طريق تآكل ثقة الجمهور.

وقالت جينجريتش إنها لم تقع في حب التزييف العميق لبايدن، لكنها تخشى أن يكون ذلك قد أدى إلى قمع إقبال الناخبين. وصلت الرسالة إلى ما يقرب من 5000 ناخب في نيو هامبشاير قبل أيام قليلة من الانتخابات التمهيدية في الولاية.

وقال جينجريتش، وهو رئيس لجنة بارينجتون الديمقراطية في بيرلينجتون، نيو هامبشاير: “قد يكون هذا سيئًا بالنسبة للأشخاص الذين ليسوا على علم بما يجري مع الديمقراطيين”.

“إذا كانوا يعتقدون حقًا أنه لا ينبغي عليهم التصويت لصالح شيء ما وكان جو بايدن يطلب منهم عدم القيام بذلك، فربما لن يحضروا هذا التصويت”.

تم خداع صوت الرئيس الأمريكي جو بايدن في مكالمة آلية تم إرسالها إلى الناخبين الأساسيين في نيو هامبشاير [Leah Millis/Reuters]

المجموعات عبر الإنترنت معرضة للخطر

لم تكن مكالمة بايدن هي التزييف العميق الوحيد حتى الآن في هذه الدورة الانتخابية. قبل إلغاء محاولته الرئاسية، شاركت حملة حاكم ولاية فلوريدا رون ديسانتيس مقطع فيديو يحتوي على صور تم إنشاؤها بواسطة الذكاء الاصطناعي لدونالد ترامب وهو يعانق عالم المناعة أنتوني فوسي – وهما شخصيتان اشتبكتا علنًا خلال جائحة كوفيد-19.

وفي سبتمبر/أيلول، تم إجراء مكالمة آلية مختلفة مع 300 ناخب من المتوقع أن يشاركوا في الانتخابات التمهيدية للحزب الجمهوري في ولاية كارولينا الجنوبية. هذه المرة، سمع المتلقون صوتًا صادرًا عن الذكاء الاصطناعي يقلد السيناتور ليندسي جراهام، ويسألهم لمن سيصوتون.

إن ممارسة تغيير المحتوى أو تزييفه – وخاصة لتحقيق مكاسب سياسية – موجودة منذ فجر السياسة الأمريكية. وحتى أول رئيس للبلاد، جورج واشنطن، كان عليه أن يتعامل مع سلسلة من “الرسائل الزائفة” التي بدت وكأنها تظهر له وهو يشكك في قضية استقلال الولايات المتحدة.

لكن أدوات الذكاء الاصطناعي أصبحت الآن متقدمة بالقدر الكافي لتقليد الأشخاص بشكل مقنع بسرعة وبتكلفة زهيدة، مما يزيد من خطر المعلومات المضللة.

وتوقعت دراسة نشرها باحثون في جامعة جورج واشنطن في وقت سابق من هذا العام أنه بحلول منتصف عام 2024، ستتصاعد “هجمات الذكاء الاصطناعي” اليومية، مما يشكل تهديدا للانتخابات العامة في نوفمبر/تشرين الثاني.

قال المؤلف الرئيسي للدراسة نيل جونسون لقناة الجزيرة إن الخطر الأكبر لا يأتي من المكالمات الآلية المزيفة الأخيرة بشكل واضح – والتي تحتوي على رسائل مثيرة للدهشة – بل من التزييف العميق الأكثر إقناعًا.

وقال جونسون: “ستكون صورًا دقيقة، وصورًا متغيرة، وليست معلومات مزيفة تمامًا لأن المعلومات المزيفة تجذب انتباه مدققي المعلومات المضللة”.

وجدت الدراسة أن مجتمعات الإنترنت مرتبطة بطريقة تسمح للجهات الفاعلة السيئة بإرسال كميات كبيرة من الوسائط التي تم التلاعب بها مباشرة إلى التيار الرئيسي.

يمكن أن تكون المجتمعات في الولايات المتأرجحة معرضة للخطر بشكل خاص، كما هو الحال مع مجموعات الأبوة والأمومة على منصات مثل فيسبوك.

وقال جونسون: “سيكون دور مجتمعات الأبوة والأمومة كبيراً”، مشيراً إلى الانتشار السريع للمعلومات الخاطئة حول اللقاحات أثناء الوباء كمثال.

“أعتقد أننا سنواجه فجأة موجة من [disinformation] – هناك الكثير من الأشياء التي ليست مزيفة، وليست غير صحيحة، ولكنها تمد الحقيقة.

يقف دونالد ترامب بجوار منصة البيت الأبيض حيث يتحدث أنتوني فوسي.
يبدو أن الصورة التي تم إنشاؤها بواسطة الذكاء الاصطناعي والتي نشرتها حملة رون ديسانتيس تظهر دونالد ترامب، على اليمين، وهو يحتضن أنتوني فوسي، على اليسار [Leah Millis/Reuters]

تآكل ثقة الجمهور

ومع ذلك، فإن الناخبين أنفسهم ليسوا الأهداف الوحيدة للتزييف العميق. يعمل لاري نوردن، المدير الأول لبرنامج الانتخابات والحكومة في مركز برينان للعدالة، مع مسؤولي الانتخابات لمساعدتهم على اكتشاف المحتوى المزيف.

على سبيل المثال، قال نوردن إن الجهات الفاعلة السيئة يمكن أن تستخدم أدوات الذكاء الاصطناعي لتوجيه موظفي الانتخابات لإغلاق موقع الاقتراع قبل الأوان، عن طريق التلاعب بصوت رئيسهم أو عن طريق إرسال رسالة على ما يبدو من خلال حساب المشرف.

يقوم بتعليم العاملين في الاقتراع كيفية حماية أنفسهم من خلال التحقق من الرسائل التي يتلقونها.

وشدد نوردن على أن الجهات الفاعلة السيئة يمكنها إنشاء محتوى مضلل بدون الذكاء الاصطناعي. وقال: “إن الشيء المتعلق بالذكاء الاصطناعي هو أنه يجعل من السهل القيام بذلك على نطاق واسع”.

في العام الماضي فقط، أوضح نوردن قدرات الذكاء الاصطناعي من خلال إنشاء مقطع فيديو مزيف لنفسه لتقديم عرض تقديمي حول المخاطر التي تشكلها التكنولوجيا.

قال نوردن: “لم يستغرق الأمر وقتًا طويلاً على الإطلاق”، موضحًا أن كل ما كان عليه فعله هو إدخال مقابلاته التلفزيونية السابقة في أحد التطبيقات.

لم تكن صورته الرمزية مثالية، إذ كان وجهه ضبابيًا بعض الشيء، وصوته متقطعًا بعض الشيء، لكن نوردن أشار إلى أن أدوات الذكاء الاصطناعي تتحسن بسرعة. “منذ أن سجلنا ذلك، أصبحت التكنولوجيا أكثر تعقيدًا، وأعتقد أنه أصبح من الصعب معرفة ذلك أكثر فأكثر.”

التكنولوجيا وحدها ليست هي المشكلة. مع تزايد شيوع تقنية التزييف العميق، سيصبح الجمهور أكثر وعيًا بها وأكثر تشككًا في المحتوى الذي يستهلكونه.

وقد يؤدي ذلك إلى تآكل ثقة الجمهور، حيث من المرجح أن يرفض الناخبون المعلومات الحقيقية. ومن الممكن أيضاً أن تستغل الشخصيات السياسية هذه الشكوك لتحقيق أهدافها الخاصة.

وقد أطلق الباحثون القانونيون على هذه الظاهرة اسم “عائد الكاذب”: فالقلق بشأن التزييف العميق يمكن أن يسهل على الأشخاص الذين لديهم لقطات صوتية أو فيديو مشروعة الادعاء بأن التسجيلات مزيفة.

وأشار نوردن إلى صوت Access Hollywood الذي ظهر قبل انتخابات 2016 كمثال. وفي المقطع، يُسمع ترامب المرشح آنذاك وهو يتحدث عن تفاعلاته مع النساء: “يمكنك فعل أي شيء. أمسكهم من كسهم.”

واعتبر الشريط – الذي كان حقيقياً للغاية – مضراً بآفاق ترامب بين الناخبات. ولكن إذا تسرب صوت مماثل اليوم، قال نوردن إن المرشح يمكن أن يصفه بسهولة بأنه مزيف. “سيكون من الأسهل على الجمهور رفض هذا النوع من الأشياء عما كان عليه قبل بضع سنوات مضت.”

وأضاف نوردن: “إن إحدى المشاكل التي نواجهها الآن في الولايات المتحدة هي الافتقار إلى الثقة، وهذا قد يؤدي إلى تفاقم الأمور”.

يقف ستيف كرامر في قاعة المحكمة، محاطًا بمحامي وضابط إنفاذ القانون.
تم اتهام ستيف كرامر، يسار الوسط، بـ 13 تهمة جنائية تتعلق بقمع الناخبين، بالإضافة إلى جنح لتورطه في المكالمة الآلية في نيو هامبشاير. [Steven Senne/AP Photo, pool]

ما الذي يمكن فعله بشأن التزييف العميق؟

في حين أن التزييف العميق يشكل مصدر قلق متزايد في الانتخابات الأمريكية، إلا أن عددًا قليلًا نسبيًا من القوانين الفيدرالية يقيد استخدامه. لم تقم لجنة الانتخابات الفيدرالية (FEC) بعد بتقييد التزييف العميق في الانتخابات، ولا تزال مشاريع القوانين في الكونجرس متوقفة.

وتتدافع الدول الفردية لملء الفراغ. وفقًا لتتبع التشريعات الذي نشرته منظمة الدفاع عن المستهلك Public Citizen، تم سن 20 قانونًا في الولاية حتى الآن لتنظيم التزييف العميق في الانتخابات.

تمت الموافقة على العديد من مشاريع القوانين الأخرى – في هاواي ولويزيانا ونيو هامبشاير – وتنتظر توقيع الحاكم.

وقال نوردن إنه لم يتفاجأ برؤية الولايات الفردية تتصرف أمام الكونجرس. “من المفترض أن تكون الدول بمثابة مختبرات للديمقراطية، لذا فقد ثبتت صحة ذلك مرة أخرى: فالدول تتصرف أولاً. وقال: “نعلم جميعًا أنه من الصعب جدًا إقرار أي شيء في الكونجرس”.

ويتخذ الناخبون والمنظمات السياسية إجراءات أيضًا. بعد أن تلقت جينجريتش مكالمة بايدن المزيفة في نيو هامبشاير، انضمت إلى دعوى قضائية – بقيادة رابطة الناخبات – تسعى إلى المساءلة عن الخداع المزعوم.

وتبين أن مصدر المكالمة هو ستيف كرامر، وهو مستشار سياسي ادعى أن نيته كانت لفت الانتباه إلى الحاجة إلى تنظيم الذكاء الاصطناعي في السياسة. واعترف كرامر أيضًا بأنه كان وراء المكالمة الآلية في ولاية كارولينا الجنوبية، مقلدًا السيناتور جراهام.

تقدم كرامر بعد أن كشفت شبكة إن بي سي نيوز أنه كلف ساحرًا باستخدام البرامج المتاحة للجمهور لإنشاء التزييف العميق لصوت بايدن.

وفقًا للدعوى القضائية، استغرق إنشاء التزييف العميق أقل من 20 دقيقة وتكلف دولارًا واحدًا فقط.

ومع ذلك، قال كرامر لشبكة سي بي إس نيوز إنه حصل على “عرض بقيمة 5 ملايين دولار” لجهوده، والتي كان يأمل أن تسمح لأنظمة الذكاء الاصطناعي “بتفعيل نفسها أو على الأقل البدء في دفع تكاليفها”.

وقال: “كان هدفي هو إحداث فرق”.

يبدو أن الساحر بول كاربنتر يطفو ورقة اللعب بين يديه الممدودتين.
قال بول كاربنتر، ساحر نيو أورليانز، إنه تم تعيينه لإنشاء تزييف عميق لصوت الرئيس بايدن [Matthew Hinton/AP Photo]

إمكانية تطبيق القوانين القائمة

لكن قضية كرامر تظهر أن القوانين الحالية يمكن استخدامها للحد من التزييف العميق.

على سبيل المثال، قضت لجنة الاتصالات الفيدرالية (FCC) في وقت سابق من هذا العام بأن برامج محاكاة الصوت تندرج تحت قانون حماية المستهلك الهاتفي لعام 1991 – وبالتالي فهي غير قانونية في معظم الظروف.

اقترحت اللجنة في النهاية فرض غرامة قدرها 6 ملايين دولار على كرامر بسبب المكالمة الآلية غير القانونية.

كما اتهمت وزارة العدل في نيو هامبشاير كرامر بارتكاب جناية قمع الناخبين وانتحال شخصية مرشح، مما قد يؤدي إلى السجن لمدة تصل إلى سبع سنوات. وقد دفع كرامر بأنه غير مذنب. ولم يستجب لطلب التعليق من قناة الجزيرة.

وقال نوردن إنه من المهم أن أياً من القوانين التي اتهم كرامر بخرقها لم تكن مصممة خصيصًا للتزييف العميق. وقال: “التهم الجنائية الموجهة إليه لا علاقة لها بالذكاء الاصطناعي”. “تلك القوانين موجودة بشكل مستقل عن التكنولوجيا المستخدمة.”

ومع ذلك، ليس من السهل تطبيق هذه القوانين على الجهات الفاعلة السيئة التي لا يمكن التعرف عليها أو الموجودة خارج الولايات المتحدة.

“نحن نعلم من وكالات الاستخبارات أنهم يرون بالفعل الصين وروسيا تجربان هذه الأدوات. قال نوردن: “إنهم يتوقعون استخدامها”. “وبهذا المعنى، فإنك لن تقوم بتشريع طريقك للخروج من هذه المشكلة.”

يعتقد كل من نوردن وجونسون أن الافتقار إلى التنظيم يزيد من أهمية قيام الناخبين بإبلاغ أنفسهم بشأن التزييف العميق – وتعلم كيفية العثور على معلومات دقيقة.

أما بالنسبة إلى غينغريتش، فقالت إنها تعلم أن التزييف العميق المتلاعب لن يؤدي إلا إلى الانتشار في كل مكان. إنها أيضًا تشعر بأن الناخبين بحاجة إلى إعلام أنفسهم بالمخاطر.

رسالتها للناخبين؟ “أود أن أقول للناس أن يتأكدوا من أنهم يعرفون أن بإمكانهم التصويت.”

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى