Deep fakes: تقنية الرعب العالمية
دلال العكيلي
2019-07-22 06:39
جاء عصر الثورة التكنولوجية بالكثير من الإيجابيات لحياتنا سواء على الصعيد الشخصي أو العملي، ولا يمكن لأيٍ منا نكران ذلك الجميل في الانفتاحِ على العالم بأسره من خلال تقنيات التكنولوجيا؛ إلا أنه من المؤسف أنها قد حملت بين طياتها أيضًا العديد من السلبيات والمساوئ لنا على شكل تقنيات ضارة، ومن الممكن أن تكون هذه التقنية ليست ضارة بحد ذاتها! وإنما الاستخدام الخاطئ جعل منها ضارة، ومن أكثر الأمثلة على ذلك تقنية Deep Fake.
وهي التزييف العميق أو "الزيف العميق" Deep Fakes هي تقنية تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الكمبيوتر من خِلال تعلّم الذكاء الاصطناعي، تقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف.
ما هي تقنية Deep fakes
تشير الـ Deep fakes إلى مقاطع الفيديو التي تُستبدل فيها وجوه المشاهير بالوجوه في مقاطع الفيديو الإباحية، أو مقاطع الفيديو التي تزيف أحاديث الساسة حول العالم مثل روؤساء الدول وغيرهم، وتكمن خطورة تقنية التزييف العميق أو Deep fakes في أنها مقاطع فيديو أو تسجيلات صوتية مزيفة تبدو وكأنها حقيقية تماما، وفيما كان ذلك منتشرا قبل سنوات طويلة من قبل الجهات الأمنية المحترفة وشركات الإنتاج السينمائي، إلا أن المشكلة في سهولة وصول الأشخاض الآن من خلال الإنترنت إلى برنامج للتزييف العميق يتيح إنتاج مقاطع فيديو مزيفة Deep fakes بسهولة.
خطورة Deep fakes
ورغم أن معظم مقاطع الفيديو التي تعتمد على تقنية التزييف العميق Deepfakes الآن تقتصر على وضع وجوه المشاهير على أجساد الممثلين الإباحيين، أو إنتاج مقاطع فيديو مضحكة للسياسيين، لكن رغم ذلك، فإن سهولة إنتاج هذه المقاطع المزيفة الآن ينبأ بتهديدها الكبير لخصوصية وحياة المستخدمين، بالإضافة إلى التأثير على مصداقية الأخبار ووسائل الإعلام والإضرار بالعلاقات السياسية، يمكن على سبيل المثال بسهولة، تزييف مقطع فيديو عن تحذير بهجوم إرهابي وشيك، أو تدمير زواج أحد الأشخاص من خلال مقطع جنسي مزيف، أو التأثير على حظوظ أحد المرشحين ثبل انتخابات هامة.
وتتوفر بالفعل الآن مقاطع فيديو مزيفة يظهر فيها وجه الرئيس الأمريكي ترامب، وعلى الرغم من أن معظم هذه المقاطع ساخرة، إلا أن هذه المقاطع المزيفة تشير إلى تخيل التأثير الضار ما إذا أراد البعض استغلال تقنية التزييف العميق Deepfakes لأغراض ضارة.
كيفية إنتاج مقاطعDeep fakes ؟
طور أحد المبرمجين إداة أو برنامج للتزييف العميق نشره عبر أحد المجتمعات على موقع Reddit الاجتماعي، وهو البرنامج الذي حقق عدد تحميلات زادت عن 100 الف مرة، ورغم أن تغيير الوجوه في مقاطع الفيديو وتزييفها يحدث منذ سنوات طويلة، إلا أن التعديلات كانت تتطلب مهارات كبيرة وأدوات احترافية، كما أن النتيجة لم تكن مرضية.
ومع اعتماد تقنية التزييف العميق Deep fakes على تقنيات الذكاء الصناعي وتعلم الآلة، أصبح تزييف مقاطع الفيديو والصوت باحترافية عملية سهلة لا تحتاج سوى إلى 3 خطوات، حيث لن تتطلب سوى صورة لشخص ما ومقطع فيديو اخر مسيء ثم الانتظار فقط، ربما أصعب ما في الأمر هو الانتظار حتى ينتهي البرنامج من استبدال الوجوه أو الصوت.
إن أكثر الأعمال شهرة هي شهرة المشاهير، لكن العملية تعمل على أي شخص طالما يمكنك الحصول على صور واضحة كافية للشخص – وليس مهمة صعبة للغاية عندما يقوم الناس بنشر صور سيلفي كثيرة على وسائل التواصل الاجتماعي، ورغم أن معظم مقاطع الفيديو المزيفة بتقنية التزييف العميق Deep fakes المنتشرة الآن تستهدف المشاهير، إلا أنه يمكن استغلالها ضد أي شخص في حال كانت هناك صور واضحة له، وهو الأمر السهل في ظل نشر معظم مستخدمي الإنترنت العديد من صور السيلفي عبر شبكات التواصل الاجتماعي المختلفة.
Deep fake ينجح في التجسس على شخصيات عامة
استطاع أحد الجواسيس مؤخًرا باستخدام تقنية الـ deep fake من الذكاء الاصطناعي (والتي تقوم بإنتاج صورًا مزيفة تبدو كالحقيقية تمامًا) أن يقوم بعمل حساب شخصي مزيف على موقع LinkedIn لامرأة ثلاثينية تعمل في مركز أبحاث رائد، ولها علاقات بشخصيات عامة ومؤثرة، مما يؤكد على غياب الخط الفاصل بين الزيف والحقيقة في عالم الإنترنت الحالي.
جاء الحساب الشخصي المزيف باسم كاتي جونز، والتي كان من المفترض أنها امرأة في الثلاثينيات من العمر، لها اتصالات بأشخاص عامة ذات وزن سياسي ومناصب حساسة كنائب مساعد سكرتير الولايات المتحدة، بجانب بعض الأفراد المؤثرة من معهد بروكينغز (وهو واحد من أقدم وأشهر المؤسسات الفكرية والبحثية المهتمة بالشؤون السياسية والاجتماعية)، وبعض الأفراد من مؤسسة التراث البحثية الأمريكية، ومع ذلك، فإن أخطر ما في الأمر ليس التجسس في حد ذاته، بل قدرة الذكاء الاصطناعي على المساعدة في عمل شخصيات وهمية كتلك الشخصية.
اكتشفت وكالة أنباء الأسوشيتد برس الأمريكية، هذا الحساب الشخصي المزيف، والذي تم إعداده بعناية شديدة للتجسس على الأفراد والمؤسسات السياسية بمواقع التواصل الاجتماعي، كما عبر جوناس باريلو، أحد مديري الأقسام في مؤسسة تحالف الديمقراطيات بالدنمارك عن قلقه حيال هذا الأمر واحتمالية أن تكون إحدى الحكومات الأجنبية هي من تقف وراءه.
كان جوناس قد تم استهدافه من قبل في حملات التجسس تلك على LinkedIn منذ عدة سنوات، مما يؤكد عن أن هذه الظاهرة لم تكن جديدة، ولكن تطورات الذكاء الاصطناعي الآن أصبحت أقوى بكثير، مما يساعدها على إنشاء صور وملفات شخصية مقنعة يصعب اكتشافها.
Deep fake يهدد انتخابات أمريكا 2020
في بيان رسمي موجه لأكثر من منصة تواصل اجتماعي مثل "فيسبوك" و"تويتر"، أعرب آدم شيف رئيس لجنة الاستخبارات بمجلس النواب الأمريكي عن تخوفه من التأثير السلبي والتضليل الإعلامي المترتب على انتشار مقاطع مصورة مزيفة بتقنية "Deep fake" للمرشحين الرئاسيين بأمريكا، ما يشكل خطرًا على مصداقية الحملات الانتخابية لكلّ مرشح، والسماح للقوى الأجنبية الخارجية بالتأثير على مجريات الانتخابات بما يفيد مصالحها السياسية.
وفي هذا البيان، طرح شيف تساؤلات مباشرة عن وجود طُرق فعالة لدى إدارة مواقع التواصل الاجتماعي المستهدفة في البيان؛ للسيطرة على تلك النوعية من المقاطع المصورة المزيفة، وعن قدرتهم على التمييز بين المقاطع المزيفة من السليمة حتى يتاح لهم حذف وتحجيم المزيف منها.
من جانبه أكد أندي ستون المتحدث الرسمي باسم موقع التواصل الاجتماعي "فيسبوك" أن الشركة تلقت الرسالة وتعمل على الرد عليهم، بينما لم يصدر أي رد فعل عن موقع التواصل الاجتماعي "تويتر"، واكتفى بالإشارة إلى بيان أصدرته الشركة والذي أوضح فيه نيك بيكلس المسئول عن السياسة العامة للمنصة، أن "تويتر" لا يسمح بوجود أي أخبار أو حسابات مزيفة فور اكتشافها.
أما ما يثير قلق مجلس النواب وبعض السياسيين فهو أن تلك المقاطع المصورة تنتشر سريعاً، وأن اكتشافها وإزالتها أو حظرها يكون بعد مشاهدة الملايين لها؛ ما يجعل اختفاءها لن يزيل الضرر الذي سببته بين صفوف الرأي العام.
هل يمكنDeep fake أن تشن حربًا؟
في دراسة استقصائية حديثة أجراها "مركز بيو" الأمريكي للأبحاث، أشارت نسبة كبيرة من المواطنين الأمريكيين المشاركين في الدراسة أن تلك النوعيات من الصور والمقاطع المصورة المزيفة بتقنية "Deep fake" تعد مشكلة أكبر من مشكلة الإرهاب والهجرة الشرعية والعنصرية، وأكد 68% من المشاركين أن هذا الأمر يؤثر سلبيًا على ثقة الأمريكيين في المؤسسات الحكومية، بل ثقتهم – المواطنين – في بعضهم البعض، ويعتقدون أن يزداد الأمر سوءًا في المستقبل القريب.
يوضح هاني فريد أستاذ علوم الكمبيوتر بجامعة "كاليفورنيا بيركلي"، أن تقنية "Deep fake" لا تشكل خطرًا على الانتخابات الرئاسية الأمريكية فقط، بل يمكن لها أن توتر العلاقات بين دول كبيرة في العالم موضحًا بقوله: "ماذا لو زيّف أحدهم مقطع مصور للرئيس الأمريكي ترامب وهو يقول: لقد أطلقت أسلحة نووية ضد إيران أو كوريا الشمالية أو روسيا"، وأضاف هاني شارحًا: "ماذا لو لم نجد الوقت الكافي لإثبات حقيقة المقطع المصور المزيف؟" مؤكدًا في حديثه مع الإعلام أن احتمالات حدوث آثار سلبية مترتبة على صناعة تلك المقاطع المزيفة مرتفعة للغاية، وأنها ليست متاحة لقلة قليلة بل هي – بحسب هاني – في أيدي الكثيرين.
Deep fake يثير الفوضى
استخدام تلك التقنية لخلق أزمة سياسية على أرض الواقع لم يعد درباً من الخيال، ففي منتصف العام الماضي 2018 نشر أحد الأحزاب السياسية الاشتراكية مقطعاً مصوراً للرئيس الأمريكي دونالد ترامب يسخر فيه من بعض قرارات بلجيكا السياسية، وعلى الرغم من أن تقنية هذا المقطع لم تكن عالية الجودة، وأنه ذكر في نهاية المقطع على لسان ترامب "ومن الواضح أن التغير المناخي مزيف، تمامًا مثل هذا المقطع"، إلا أن انتشاره على مواقع التواصل الاجتماعي "فيسبوك" و"تويتر" قد آثار الجدل للكثير من الوقت.
وقد صرح بن ساسي عضو مجلس الشيوخ في العام الماضي 2018 خلال "منتدى تكساس القومي للأمن" حينما قال: "إننا نعيش عصر يلعب فيه الـDeep fake دورًا كبيرًا في إثارة الفوضى" مضيفًا أن تلك التقنية قادرة على "تدمير حياة البشر"، وليس المجريات السياسية فقط.
أثرDeep Fake في المستقبل
- ازدياد رقعة الفوضى والتشويش نتيجة التزوير القائم على تقنيات الذكاء الاصطناعي.
- احتمالية تزوير رسائل البريد الإلكتروني والمحادثات النصية بالاعتماد على معالجة اللغات الطبيعية والخوارزميات.
- فقدان الثقة في كلّ ما يمكن مشاهدته نظراً لتزوير الرسائل الصوتية بالاعتماد على خوارزميات الذكاء الاصطناعي.
- تدمير حياة الكثير من الأشخاص بالتسبب لهم بالفضائح الجنسية دون أي حق.
لا زال العلماء في طريقهم لاكتشاف طرق للسيطرة او الحد من تاثير هذه التقنية ومن الممكن ان تستمر الاكتشافات لعدة سنوات.