أخبار

شخصيات إعلامية ضحايا فيديوهات مزيفة أنشأها الذكاء الاصطناعي

فرح - وكالات

يشهد العالم تحولات تكنولوجية هائلة، يقودها الذكاء الاصطناعي، ويثير بعضها مخاوف بشأن خطرها على البشر، ومن بين أبرز اتجاهات التكنولوجيا المقلقة إمكانية فبركة الصور والفيديوهات. وفي هذا السياق، أصبحت العديد من مقاطع فيديو، التي تتداول آلاف المرات عبر فيسبوك، تروج لمزايا منتجات للتنحيف أو مُعالِجة لمرض السكري، من خلال استغلال صورة شخصيات إعلامية من القنوات الأمريكية على غرار “سي بي إس” و”سي إن إن”.

وحسب وكالة الأنباء الفرنسية، فإن مقاطع الفيديو هاته، أُنشئت بواسطة برامج الذكاء الاصطناعي، وتشكل ما يعرف بـ”التزييف العميق” (ديب فايك)، وهي تلاعبات رقمية تتزايد نسبتها وقربها من الواقع، مما يشكل ضررا على سمعة وسائل الإعلام التقليدية.

وفي تعليق بعض المذيعين والصحافيين الذين انتحلت شخصياتهم، فور نشر مقاطع الفيديو هذه عبر المنصات الاجتماعية، قالت مذيعة شبكة “سي بي إس” غايل كينغ في منشور عبر صفحتها في إنستغرام في أكتوبر “لم أسمع قط عن هذا المنتج ولم أستخدمه إطلاقا! لا تنخدعوا بهذه المقاطع المُركّبة بتقنية الذكاء الاصطناعي”، كما تُستخدم في مقاطع فيديو أخرى أقوال محرّفة للملياردير إيلون ماسك، لأغراض تجارية.

وتقنية “التزييف العميق” التي تمجد أنواعا عدة من المنتجات وخططا استثمارية مشبوهة، غالباً ما تحيل المستخدم على منصات للتجارة الإلكترونية ومواقع موقتة تختفي بعد أيام قليلة من نشر مقاطع الفيديو عبر الأنترنت.

وتحظر شركة “ميتا” (فيسبوك وإنستغرام) نشر هذا النوع من مقاطع الفيديو في منصاتها، منذ العام 2020، باستثناء الشرائط التي تنطوي على محتوى ساخر. إلا أنّ مقاطع فيديو “التزييف العميق” التي تحققت وكالة فرانس برس من عدد كبير منها، لا تزال تنتشر من دون ضوابط عبر الإنترنت.

الأستاذ المتخصص في التكنولوجيا الرقمية لدى جامعة بيركلي في كاليفورنيا، هاني فريد، أشار إلى أننا بتنا نشهد انتشارا متزايدا لهذا النوع من مقاطع الفيديو التي تستخدم فيها عينة صوتية مدتها دقيقتان فقط ويُعاد من خلالها إنتاج صوت شخص ما في تسلسل تخيلي جديد، مع تحريك الفم بالتزامن مع صدور الصوت.

ويتخذ العاملون على تزييف هذه الصور والفيديوهات من الأسماء البارزة في المجال السمعي البصري أهدافا سهلة لتدريب برامج الذكاء الاصطناعي على مقاطع الفيديو هذه، بسبب ظهورها الدائم عبر الشاشة.

وتقول عميدة كلية الصحافة في جامعة ميسيسيبي أندريا هيكرسون، إنّ مقاطع الفيديو الشائعة تمثّل اتجاهاً مقلقاً لأنّ الجمهور أنشأ علاقة من الألفة مع هذه الشخصيات العامة، التي انتُحلت هويتها. مضيفة أن هذا الأمر خطير جدا، لأن الناس لا يتوقعون أنّ تكون المعلومات المضللة حاضرة في مقاطع الفيديو هذه.

ويحتل المحتوى المُنشأ بواسطة الذكاء الاصطناعي مكانة متزايدة في عمليات الاحتيال المالي، التي كلفت الأميركيين نحو 3,8 مليارات دولار في العام 2022، وفق عمليات حسابية أجرتها هيئة المنافسة الأميركية.

واستهدفت عمليات الاحتيال هذه أشخاصا في بلدان عدة بينها كندا وأستراليا، وكلفت بعض الأفراد عشرات بل مئات الآلاف من الدولارات.

ويزداد قلق الأمريكيين من استخدام الذكاء الاصطناعي، وتحديدا في المواضيع السياسية، حيث يتوقع أكثر من 50% منهم أن المحتوى المضلل الذي ينتجه الذكاء الاصطناعي ستؤثر سلباً على الانتخابات الرئاسية لسنة 2024، بحسب استطلاع نشره في شتنبر موقع “أكسيوس” وشركة “مورنينغ كونسلت” للأبحاث الاقتصادية.

وسبق أن تحققت وكالة فرانس برس من مقاطع فيديو تم التلاعب بها، يظهر فيها الرئيس الأميركي جو بايدن وهو يعلن عن تعبئة عامة، أو أخرى لوزيرة الخارجية السابقة هيلاري كلينتون وهي تعلن تأييدها لحاكم فلوريدا الجمهوري رون دي سانتيس في الانتخابات الرئاسية المقبلة.

وتوصل استطلاع أجرته شركة “غالوب” في أكتوبر إلى أن ثلث الأمريكيين فقط يثقون “بصورة كبيرة” أو “إلى حد ما” بوسائل الإعلام الإخبارية، في نتيجة مُشابهة لأدنى رقم سُجّلت سنة 2016.

وينطوي انتشار هذا المحتوى الذي يمكن أحيانا رصده بسهولة لرداءة نوعيته، على خطر تأجيج “أزمة ثقة” الجمهور في وسائل الإعلام والمؤسسات، على قول مديرة معهد البيانات والديمقراطية والسياسة في جامعة جورج واشنطن ريبيكا ترومبل.

لقد وصل الذكاء الاصطناعي إلى مرحلة متقدمة جدًا في فبركة الصور والفيديوهات؛ مما يجعل مواجهته في منتهى الصعوبة وإن كانت هناك أدوات كثيرة تكشف حقيقة ما إذا كانت تلك الصور مفبركة أم لا من خلال متخصصين وليس هذا الأمر متاحًا للعامة، لذلك يرى المتخصصون أن تقليل حجم المتاح للذكاء الاصطناعي من صور شخصية أو فيديوهات يقلل من إمكانياته في تزييف وفبركة الصور والفيديوهات.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى