الحماية الإلكترونيةالخصوصيةالذكاء الاصطناعيالعالم الافتراضي

التزييف العميق أو Deepfake: كيف تحمي هويتك.

كيفية استخدام التزييف العميق في هجمات التصيُّد الإحتيالي

 

التزييف العميق موجود منذ بضع سنوات، ويتم استخدام هذه التكنولوجيا حاليًا بطرق خبيثة، مثل نشر معلومات كاذبة على وسائل التواصل الاجتماعي. كما أنها تستخدم لأغراض كوميدية، مثل وضع أشخاص في مواقف هزلية ونشرها على الأنترنت. للبعض منكم، قد تكون هذه أخبار قديمة، حيث حصل التزييف العميق على اهتمام واسع النطاق لأول مرة في عام 2017. وبالرغم من ذلك أصبحت هذه الظاهرة تهديدًا جديًّا للأشخاص باختلاف مستوياتهم الاجتماعية، أي سواء كانوا من المشاهير أو الشخصيات السياسية البارزة أو أفراد عاديين، فقد يجدون أنفسهم في ورطة التزييف العميق.

لقد تغيَّر الهدف

في السابق، ولإنشاء تزييف عميق قابل للتصديق، كان مطلوبًا ساعات من الفيديو المصدر الذي يظهر وجه الهدف. لذا، في البداية، اقتصر استخدامه على المشاهير والسياسيين والشخصيات العامة الأخرى. وقد سمحت التطورات الأخيرة في التعلم الآلي بإنشاء تزييفات باستخدام صورة واحدة للهدف و5 ثوان فقط من صوته. وفي الوقت الحاضر، من الشائع أن ينشر الناس صورًا ومقاطع فيديو لأنفسهم على وسائل التواصل الاجتماعي، وذلك كل يحتاجه المهاجم لإنشاء تزييف واقعي. هل يبدو ذلك مخيفاً؟ نعم، إنه كذلك. لقد تغير الهدف.

يمكن لهذا التضليل أو التلاعب التأثير على الرأي العام من خلال استهداف شخصيات سياسية بإنشاء لقطات مزيفة لهم وهم يقولون أشياء لم ترد على ألسنتهم قط، أو يرتكبون أفعالا لم يتم اقترافها من قبل. والأمر الذي لا يعلمه الكثير ممن يهتمون بهذا الموضوع، يكمن في أن تقنيات التزييف العميق قد تُستخدم في عمليات التصيُّد الإلكتروني من خلال المكالمات الصوتية أو مكالمات الفيديو.

إليك كيفية حدوث ذلك وكيفية الحماية من الوقوع في فخ التزييف العميق.

من خلال مكالمة صوتية

لقد كان التزييف العميق “الصوتي” موجودًا لفترة طويلة. وقبل بضع سنوات، أظهرت شركة Adobe “أدوبي” برنامجًا يسمى VoCo. ويتطلب الأمر حوالي 20 دقيقة من كلام الشخص المستهدف، حيث كان البرنامج قادرًا من تقليده بنجاح وبشكل مدهش. وعلى الرغم من أن هذا المنتج كان مخصصًا لمحترفي التحرير الصوتي، فمن المفترض أن يتم إيقافه بسبب المخاوف الأخلاقية والأمنية.

في الآونة الأخيرة، أكملت شركات أخرى من حيث توقفت شركة Adobe “أدوبي”. وهناك الآن منتجات متاحة تجاريًا، مثل Lyrebird وDescript وغيرهما، تُحاكي هذه التكنولوجيا أو حتى تحسنها. نجد كذلك مشروع مفتوح المصدر يسمى “Real-Time Voice Cloning” بإمكانه إنشاء مقاطع صوتية قابلة للتصديق باستخدام عينات مدتها ثوانٍ معدودة فقط من كلام الضحية.

لسوء الحظ، لم يعد هذا النوع من الهجوم افتراضيًا: ففي عام 2019: “تم استخدام الذكاء الاصطناعي في التزييف الصوتي العميق ” Voice Deepfake” لخداع رئيس تنفيذي من أجل الحصول على 243.000 دولار أمريكي. ظن المدير التنفيذي أنه كان يتحدث إلى الرئيس التنفيذي للشركة الأم بألمانيا. ما الذي أقنعه؟ لقد تعرف على لهجة رئيسه الألمانية ولحن صوته على الهاتف. في هذه الحالة، أعطى وجود الصوت الصحيح هذا المهاجم ما يكفي من المصداقية لاستخلاص 243.000 دولار من الضحية. لقد تحدثنا في الماضي عن مدى قوة هذا النوع من الهجمات الإلكترونية، ولكن مع أداة مثل هذه في ترسانة المهاجم، فإن التصيد الاحتيالي عبر الهاتف سيكون أكثر خطورة وعواقبه جد مؤلمة.

من خلال مكالمة فيديو

تخيل أنك تعمل من المنزل بسبب جائحة COVID-19. تتلقى رابط على بريدك الإلكتروني من زميل عمل تحدثت إليه عدة مرات من قبل. إنه يطلب منك أن تنضم إليه في مكالمة فيديو. يستمر اللقاء كما هو متوقع: تبادل التحيات ومناقشة بعض البيانات الحساسة للشركة. فإذا كان الشخص يبدو حقيقيًا، فما السبب الذي قد يجعلك تشك في هويته؟ للأسف، في هذا المثال زميل العمل هو مخادع عازم على سرقة معلومات الشركة. قد يبدو الأمر مستبعدًا، ولكن مع تقدم تكنولوجيا التزييف العميق، فمن الواضح أن هذا النوع من الهجوم سيكون ممكنًا قريبًا.

في حين أن هذا قد يبدو وكأنه من الخيال العلمي، للأسف أصبح حقيقة ممكنة تقنيًا. يحتاج برنامج التزييف العميق إلى صورة واحدة فقط لكل طرف (الشرير والضحية)، كما أن البرنامج قادر على رصد ونسخ حركات العين، وحركات الفم، وحتى إماءات الرأس مع حد أدنى من التشويه.

إن برامج التزييف العميق المعتمدة بطبيعتها على الذكاء الاصطناعي تتسم بسرعتها في تحليل البيانات وتوليد نتائج غاية في الدقة، وهي الآن قابلة للاستخدام في الوقت الفعلي. وهذا يفتح المجال أمام الهجمات الشبيهة بالتصيُّد الاحتيالي عبر المكالمات الصوتية “vishing ” وعبر أدوات مؤتمرات الفيديو مثل زووم.

كيف يمكننا حماية هويتنا من التزييف العميق؟

إن التزييف العميق يزداد صعوبة في كشفه بأعيننا وآذاننا، لكن هناك جهود كبيرة تُبدل لتطوير طرق الكشف التي تعتمد على الذكاء الاصطناعي والتي يمكن أن تساعدنا على تحديد مختلف أنواع التزييفات، ولكن من المهم أن نضع في اعتبارنا أن هذه لن تكون مضمونة على الأرجح. إن ذلك مثل لعبة القط والفأر، كلما تطورت طرق الكشف، تطورت معها تكنولوجيا التزييف العميق.

من المهم أن نعتمد على إجراءات تحقق صارمة. وعلينا تطبيقها عندما نتعرف على صوت أو وجه شخص ما. ومن الطرق الفعالة للتأكد من هوية المتصل سواء في مكالمة صوتية أو مكالمة فيديو لا سيما عندما يكون رقم الاتصال غير الذي تعودت عليه وبعد أن راودك الشك فيما يخص هوية المتصل، يمكنك استئذانه للقيام بشيء مستعجل وتتصل بالرقم الذي تحتفظ به على هاتفك للتأكد من صحة هوية المتصل، وقد تفاجئ بأن الشخص المتصل ليس هو الشخص الذي يدعيه.

يمكنك حماية نفسك شخصياً من خلال الحد من حضورك العام على وسائل التواصل الاجتماعي، ومن خلال تمكين قيود الخصوصية. يمكنك منع المحتالين من سرقة صوتك وصورك بسهولة، ويمكنك كذلك ضبط خاصية التعرف على الوجوه في حسابك على فيسبوك لإخطارك باحتمال نشر صورة أو مقطع فيديو لك على المنصة. يمكنك كذلك ضبط إحدى الأدوات التي يوفرها محرك البحث غوغل (Google Alert  “تنبيهات غوغل”) لإخطارك باحتمال وجود من يبحث عنك في محرك البحث. ومن المهم دائمًا تطبيق إجراءات الأمان على جميع حساباتك في الفضاء الرقمي. وأحد الطرق الرئيسية التي تمكنك من ذلك هي استخدام مصادقة متعددة العوامل في كل حساب، إذا كان ذلك ممكنا.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى