لا تصدق عينيك.. هكذا تكشف الفيديو المزيف على مواقع التواصل
دخل العالم مرحلة حرجة مع تسارع تقنيات الذكاء الاصطناعي التوليدي، التي باتت تتيح تصنيع مشاهد ومقاطع شديدة الواقعية لأشخاص يقولون أو يفعلون ما لم يحدث، ما أثار تحذيرات واسعة من مخاطر تزييف الواقع.
وحذر رئيس وحدة الذكاء الاصطناعي والأمن السيبراني بمركز العرب للأبحاث والدراسات، محمد محسن رمضان، من تصاعد غير مسبوق في استخدام تقنيات التزييف العميق (Deepfake)، مؤكداً أن تقارير وتحقيقات تقنية حديثة تشير إلى تحول هذه التقنيات من نطاق الترفيه والبحث إلى أدوات فعالة في التضليل الإعلامي، والابتزاز الرقمي، وتشويه السمعة، والتلاعب بالرأي العام، وصولاً إلى تهديد الاستقرار المجتمعي والسياسي.
وأوضح رمضان، في تصريحات صحفية أن أدوات التزييف العميق كانت في بداياتها تتطلب خبرات عالية ووقتاً طويلاً وقدرات حوسبة كبيرة، ما حدّ من انتشارها، إلا أن المشهد تغيّر جذرياً مع تطور نماذج الذكاء الاصطناعي التوليدية، لتصبح هذه الأدوات متاحة لعامة المستخدمين وسهلة التشغيل، وقادرة على إنتاج محتوى بالغ الواقعية خلال دقائق، الأمر الذي ضاعف خطورتها في بيئة إعلامية تعتمد أحياناً على السرعة أكثر من التحقق.
وكشف رمضان عن عدد من أدوات التحقق الرقمية المتاحة للجمهور، بوصفها خط الدفاع الأول في مواجهة المحتوى المولّد آلياً، أبرزها أدوات تحليل التزييف العميق، وكشف الصور المولّدة بالذكاء الاصطناعي، إضافة إلى متصفحات تحقق تفكك مقاطع الفيديو وتجري بحثاً عكسياً لكشف إعادة توظيف محتوى قديم في سياقات مضللة.
تُتاح هذه الصورة أيضا في: العربية
