رئيس التحرير: عادل صبري 12:31 صباحاً | الخميس 15 نوفمبر 2018 م | 06 ربيع الأول 1440 هـ | الـقـاهـره 26° صافية صافية

فيديو.. ترامب يعلن الحرب على كوريا.. وهيلاري تعترف بخطف أطفال

فيديو.. ترامب يعلن الحرب على كوريا.. وهيلاري تعترف بخطف أطفال

صحافة أجنبية

جارديان : لا تصدق كل ما تقرأ أو تشاهد

جارديان تحذر من الأخبار المفبركة

فيديو.. ترامب يعلن الحرب على كوريا.. وهيلاري تعترف بخطف أطفال

بسيوني الوكيل 27 يوليو 2017 11:46

«مستقبل الأخبار المفبركة: لا تصدق كل شيء تقرأه أو تراه أو تسمعه».. تحت هذا العنوان تناولت صحيفة "جارديان" البريطانية مشكلة استغلال التطور التكنولوجي من قبل البعض لبثّ أخبار مزيفة قد تتسبب في كوارث سياسية ودبلوماسية بين الدول.

للتعرف على طرق تزييف مقاطع الفيديو التي تتضمن محتوى إخباريًا ومشاهدة نماذج فعلية لمثل هذه المقاطع طالِع نصَّ التقرير مترجمًا:

 

في عصر الفوتوشوب والفلاتر ومواقع التواصل الاجتماعي، كثير منا تمّ استغلاله لرؤية صور تم التلاعب فيها، فالمواد تصبح أكثر اختصارًا وسلاسة.

 

على أية حال هناك سلالة جديدة من الفيديوهات وأدوات التلاعب الصوتي جعلت من الممكن في ظل التقدم التكنولوجي ورسومات الحاسب الآلي عمل مقاطع فيديو تبدو حقيقية لشخصيات عامة تظهر لتقول أي شيء.

  

فهذا هو الرئيس الأمريكي دونالد ترامب يعلن ميوله للرياضات المائية، ووزيرة الخارجية الأمريكية السابقة هيلاري كلينتون تصف حال الأطفال المسروقين الذين تحتفظ بهم في قبو النبيذ الخاص بها. وأخيرًا توم كروز يعترف بما كنا نشكّ فيه دومًا أنه هو بروني (من محبي سلسلة الرسوم المتحركة المعروفة باسم بروني).

هذا هو مستقبل الأخبار المزيفة، لقد قيل لنا منذ زمن طويل بألا نصدق كل شيء نقرأه ولكن قريبًا سيكون من اللازم ان نسأل عن كل شيء نراه أو نسمعه أيضًا.

 

الآن هناك فِرَق بحث عديدة تعمل في التقاط وتوليف مختلف العناصر البصرية والصوتية للسلوك البشري.

 

فالبرمجيات التي تمّ تطويرها في جامعة "ستانفورد" قادرة على التلاعب في فيديوهات لشخصيات عامة؛ حيث تسمح لأشخاص آخرين بوضع كلمات على ألسنتهم في نفس وقت مقطع الفيديو الأصلي.

 

فمجموعة "فيس تو فيس" العاملة في هذا المجال تلتقط تعبيرات وجه الشخص المزيف كأنه يتحدث في كاميرا ويب ثم يتم تحويل هذه الحركات والتعبيرات مباشرة إلى وجه الشخص في الفيديو الأصلي.

 

فريق البحث في الجامعة كشف عن قدراته التكنولوجية من خلال التلاعب في فيديوهات للرئيس الأمريكي الأسبق جورج بوش الابن والرئيس الروسي فلاديمير بوتين، والرئيس الأمريكي دونالد ترامب.

 

وعلى سبيل المثال عملت مجموعة "فيس تو فيس" دمية تقوم من تلقاء نفسها بعمل برامج التوك شو المسلية في آخر الليل.

 

ومع إضافة صوت تم توليفه تصبح أكثر إقناعًا، وليس فقط شكل الدمية الرقمية سيشبه السياسي ولكن أيضًا يمكن أن تتحدث مثل السياسي.

 

وفي جامعة ألاباما، عمل فريق بحث على عملية انتحال الصوت من خلال مقطع صوتي للضحية يؤخذ لايف أو من موقع يوتيوب أو البرامج الإذاعية.

 

ويمكن للمهاجم بعد ذلك التحدث في الميكروفون لتقوم البرمجيات بتحويلها إلى صوت يبدو كصوت الضحية، ليبث عبر البرامج الإذاعية.

 

ويمكن للمهاجم اصطناع صوت قد يخدع البشر وأنظمة الأمن البيومترية المستخدمة في بعض البنوك والهواتف الذكية.

 

 

شركة ليريبيرد الكندية قامت بتطوير قدرات مشابهة والتي يمكن أن تستخدم في تحويل النص إلى كُتُب صوتية بأصوات المشاهير أو لألعاب الفيديو، وعلى الرغم من أن نواياهم قد تبدو حسنة فإنّ تقنية تحويل الصوت يمكن أن تقترن بتقنية تغيير وجه المتحدث لصنع بيانات مزيفة على لسان شخصيات عامة ولكن تبدو مقنعة.

 

فقط عليك أن تنظر لمشروع انتحال صوت أوباما في جامعة واشنطن حيث تم أخذ الصوت من خطب للرئيس الأمريكي السابق واستخدامها في تحريك وجهه في فيديو مختلف بالكلية بدقةٍ لا تصدق.

وتقول نيتش ساكيبنا الأستاذ المساعد ومدير الأبحاث في قسم علوم الحاسب الآلي بجامعة ألاباما: "خلف الأخبار المزيفة هناك العديد من الآثار.. فيمكن أن تترك رسالة صوتية مزيفة تبدو كأنها من والدة شخص، أو تشويه شخص ببثّ عينات الصوتية المزيفة له أون لاين".

 

وحتى الآن تقنيات تحويل الصوت ليست محكمة تمامًا فتعبيرات الوجه في الفيديوهات يمكن أن تبدو مشوهة قليلاً أو غير طبيعية والأصوات قد تبدو روبوتية قليلاً، ولكن مع الوقت سيكونون قادرين على إعادة صنع صوت أو مظهر الشخص إلى الدرجة التي سيكون من الصعب جدًا اكتشاف الخدعة.

 

بالنظر لتآكل الثقة في وسائل الإعلام والخدع المنتشرة عبر موقع التواصل الاجتماعي سيكون من المهم للمؤسسات الإخبارية التدقيق في المحتوى الذي يبدو حقيقيًا.

 

وتقول ماندي جينكينز، التي تعمل في شركة "ستوريفول" المتخصصة في تصحيح المحتوى الإخباري: على الناس أن ينظروا إلى الإضاءة والظل في الفيديو، وإذا ما كانت كل العناصر الموجودة في الإطار في الحجم الصحيح وإذا ما كان الصوت متزامنًا بدقة مع حركات الفم.

 

وتضيف: "ولو هناك محتوى مزيف سيكون من الصعب أن يمر عبر غرفة أخبار صارمة، ولكن لو تم بثّ فيديو عبر مواقع التواصل الاجتماعي فيمكن أن ينتشر بشكل فيروسي ويتسبب في كارثة دبلوماسية أو سياسية أو على مستوى العلاقات العامة. تخيل ترامب يعلن الحرب على كوريا الشمالية على سبيل المثال، لو أنَّ الشخص يشبه ترامب ويتحدث مثله فسوف يعتقدون أنّه ترامب".

  • تعليقات فيسبوك
  • اعلان