5 دلائل تكشف مقاطع الفيديو المولّدة بالذكاء الاصطناعي
‎جريدة الإتحاد -
[unable to retrieve full-text content]

في ظل التطور المتسارع لتقنيات الذكاء الاصطناعي، أصبح من السهل إنتاج مقاطع فيديو تُظهر أشخاصاً يقولون أو يفعلون أشياء لم تحدث في الواقع، فيما يعرف بتقنية «الديب فيك» (Deepfake).
هذه الظاهرة باتت تثير قلقًا واسعًا حول العالم، مع تحذيرات من خطورتها على الأمن المعلوماتي، وسمعة الأفراد، وحتى الاستقرار السياسي.
خبراء التقنية يحذرون من أن هذه المقاطع أصبحت أكثر واقعية من أي وقت مضى، ما يجعل اكتشافها تحديًا كبيرًا أمام المستخدمين العاديين، خاصة مع انتشارها عبر مواقع التواصل الاجتماعي بسرعة قياسية.

ملامح الوجه تكشف الحقيقة
من أبرز العلامات التي يمكن من خلالها كشف الفيديوهات المزيّفة، عدم اتساق ملامح الوجه أثناء الحركة. يقول مختصون في تحليل الوسائط الرقمية إن الذكاء الاصطناعي يواجه صعوبة في محاكاة تفاصيل الوجه الدقيقة عند التعبير، مثل حركة الفم أثناء الكلام أو رمش العينين، ما يجعلها غير طبيعية عند التدقيق.

الصوت لا يتناغم مع الصورة
تشير دراسات صادرة عن مؤسسات بحثية متخصصة إلى أن الصوت في المقاطع المزيّفة غالبًا لا يتزامن بدقة مع حركة الشفاه، كما أن نبرته تكون مسطحة أو خالية من الانفعالات الطبيعية. ويرجع ذلك إلى استخدام خوارزميات تولّد الصوت آليًا دون إدراك الانفعالات البشرية الدقيقة.

الإضاءة والظلال تكشف الخداع
يرى محللون بصريون أن اختلاف الإضاءة والظلال بين الوجه والخلفية من أبرز المؤشرات التي تدل على التلاعب الرقمي. فالمقاطع الحقيقية تُظهر انسجامًا طبيعيًا في توزيع الضوء، بينما تُنتج المقاطع الاصطناعية ظلالًا غير منطقية أو إضاءة متناقضة مع المشهد العام.

تفاصيل الخلفية تكشف التزوير
التركيز على الخلفية قد يساعد أيضًا في كشف الخداع، إذ تظهر أحيانًا تفاصيل ضبابية أو مشوّهة، خاصة في الأجسام البعيدة عن الكاميرا أو الأشخاص المتحرّكين. ويرجع ذلك إلى أن تقنيات الذكاء الاصطناعي تركّز على توليد الوجه بدقة، على حساب العناصر المحيطة به.

المشاعر الاصطناعية
يشير خبراء علم النفس الرقمي إلى أن الوجوه في المقاطع المزيّفة تفتقد الإحساس الحقيقي. فالتعبيرات العاطفية، كالغضب أو الفرح، تبدو مصطنعة وبلا عمق إنساني. ويعتبر هذا الفارق من أهم ما يمكن ملاحظته لدى المشاهد المدقّق.

تحذيرات متزايدة
تزايدت التحذيرات في الأشهر الأخيرة من استخدام المقاطع المزيفة في حملات التضليل ونشر الشائعات.
وأوصت مؤسسات تقنية دولية المستخدمين بضرورة التحقق من المحتوى قبل تداوله، باستخدام أدوات مخصصة مثل InVID وDeepware Scanner التي تساعد على تحليل الفيديوهات واكتشاف التلاعب فيها.

 



إقرأ المزيد