مقاطع ” مزيفة ” لتوم كروز بتقنية خطيرة تحصد ملايين المشاهدات ! ( فيديو )

انتشرت مقاطع فيديو منسوبة للمثّل الأمريكي توم كروز على تطبيق TikTok، لكن تلك المقاطع التي انتشرت كالنار في الهشيم لنجم Mission Impossible كانت مزيّفة ومختلقة بتقنية “التزييف العميق”، التي تثير قلق الخبراء.

صحيفة “ديلي ميل” البريطانية، قالت إن تقنية “التزييف العميق” هي أحد تطبيقات تعلّم الآلة والذكاء الاصطناعي، مشيرةً إلى أن خبراء وصفوها بأنها “الأكثر إثارة للقلق من صنيعة تلك التكنولوجيا، لأنها تبدو طبيعية للغاية”.

ونشر حساب ظهر على تطبيق TikTok الأسبوع الماضي باسم “deeptomcruise”، مقاطع فيديو تُظهر توم كروز يؤدّي خدعاً سحرية، ويلعب الجولف، ويسترجع الفترة التي التقى خلالها برئيس الاتحاد السوفييتي السابق.

شوهدت مقاطع الفيديو أكثر من 11 مليون مرّة، كما شاهدها ملايين من المستخدمين على منصات التواصل الاجتماعي الأخرى.

اشتُقت كلمة التزييف العميق (Deepfakes) المشيرة إلى هذه المقاطع من مصطلح التعليم العميق (Deep Learning)، وكلمة Fake التي تعني بالعربية (مُزيّفاً)، وتعد شكلاً من أشكال الذكاء الاصطناعي.

خلال إعداد هذه المقاطع تدرس التقنية الأشخاص المستهدفين عبر صور ومقاطع، ما يتيح تصويرهم من العديد من الزوايا، وتقليد سلوكهم ونمط تحدّثهم.

رغم أن تلك المقاطع بدت مُسلّية، حذّر خبراء بأن مثل هذه المحتويات جديرة بإثارة قلقنا.

سام جريجوري، مدير أحد البرامج لدى موقع witness.org المعني بنشر مقاطع تتناول قضايا حقوق الإنسان، أعرب عن قلقه إزاء المقاطع المُختَلقة بتقنية “التزييف العميق” للممثل كروز، وقال عبر Twitter: “النساء يُستهدفن بالفعل بمقاطع التزييف العميق، وتلك المقاطع تقوّض مصداقية نظيرتها الحقيقية”.

من جانبه، قال خبير التقنية البارز هنري أجدر، في حديث أجراه مع صحيفة Times of London: “إن هذه التكنولوجيا لن تزول، وثمة عدد هائل من وقائع الاستخدام السلبي والخبيث لتلك التقنية”.

بدورها، قالت راشيل توباك، المديرة التنفيذية لشركة الأمان الرقمي SocialProof في تغريدة، إن مقاطع الفيديو هذه أثبتت أننا وصلنا إلى مرحلة من “التزييف العميق غير القابل للكشف”.

ووفق ما اورد موقع “عربي بوست”، أشارت توباك إلى أن التقنية “ستؤثر على ثقة الجمهور، وتوفر غطاءً وإنكاراً جديراً بالتصديق للتستّر على المجرمين المسيئين الذين يُضبطون متلبسين بجرائمهم عبر مقاطع فيديو أو صوت، وسيتم استخدامها (بل ويتم استخدامها بالفعل حالياً) للتلاعب بالناس، وإذلالهم، وإيذائهم”.

في المقابل، أشاد خبراء بهذا العمل، إذ حاكت المقطاع المزيّفة ببراعة حديث توم كروز، وطريقته، ومظهره، وقال هاني فريد، الأستاذ في جامعة كاليفورنيا بمدينة بيركلي والمتخصص في تحليل الصور الرقمية، لمجلّة Fortune الأمريكية، إنه “رغم تزييف المقاطع فإنها قد أُعدّت ببراعة لا تُصدَّق”.

كان لان جودفيلو قد اخترع المقاطع المُختلَقة بتقنيات تعلّم الآلة، المعروفة باسم “Deepfakes” في عام 2012، وكان جودفيلو مسؤول تكنولوجيا تعلّم الآلة بمشروع Special Projects Group لدى شركة آبل، وهو أحد رواد هذا المجال.

وحصدت هذه التقنية اهتماماً هائلاً خلال موسم الانتخابات، وتخوّف البعض من أن المطوّرين قد يستخدمونها لتلطيخ سمعة مرشّحين سياسيين.

كانت رئيسة مجلس النواب الأمريكي، نانسي بيلوسي، إحدى ضحايا هذه التقنية، عندما نُشر مقطع فيديو لها بدت وهي تتكلم وكأنها ثملة وتواجه صعوبة في الكلام.

كذلك نُشر في ديسمبر/كانون الأول 2020، مقطع فيديو مزيف للملكة إليزابيث، بدت فيه حقيقية بشكل كبير، وفي أحد المشاهد ظهرت الملكة وهي ترقص.

[ads3]

التعليقات المنشورة لا تعبر عن رأي عكس السير وإنما عن رأي أصحابها