الذكاء الاصطناعي في خدمة المحتالين: عندما يصبح الخداع رقميًا

أوس ستار الغانمي

2025-11-13 02:24

في عصر الثورة الرقمية، لم يعد الذكاء الاصطناعي مجرد أداة لتحسين الإنتاجية أو تبسيط العمليات، بل أصبح سلاحًا مزدوج الحافة. بينما يتيح للأفراد والشركات فرصًا غير مسبوقة، يُستغله أيضًا من قبل مجرمي الإنترنت لتأسيس ما يُعرف بـ«اقتصاد الاحتيال» شبكة مترابطة من الأنشطة الإجرامية التي تحقق مليارات الدولارات سنويًا. من استنساخ الأصوات وابتكار هويات مزيفة إلى التلاعب بالأسواق المالية وتصميم عمليات احتيال رومانسية معقدة، يستخدم المحتالون الذكاء الاصطناعي لتعزيز قدراتهم على خداع الضحايا وتجاوز أنظمة الأمان التقليدية.

هذا التقرير يستعرض كيفية استغلال الذكاء الاصطناعي في الجرائم المالية، بدءًا من التزييف العميق وانتحال الشخصيات، وصولاً إلى غسيل الأموال والتلاعب بالسوق، مع تسليط الضوء على أساليب التصدي لهذه المخاطر المتطورة. كما يقدم أمثلة حية لعمليات احتيال واسعة النطاق، ويبرز التحديات القانونية والتنظيمية التي تواجه الحكومات والشركات في محاربة هذه الظاهرة المتنامية.

ما هو اقتصاد الاحتيال؟

يشير اقتصاد الاحتيال إلى شبكة معقدة ومترابطة من مجرمي الإنترنت الذين يستغلون الأعمال التجارية عبر الإنترنت من خلال أنواع مختلفة من الاحتيال والإساءة. وقد تطور هذا النظام البيئي، الذي تبلغ قيمته مليارات الدولارات، من هجمات معزولة إلى اقتصاد متكامل يتعاون فيه المحتالون ويتشاركون الموارد لارتكاب عمليات الاستيلاء على الحسابات، وإساءة استخدام المحتوى، والاحتيال في المدفوعات. 

كما هو الحال مع أي اقتصاد، تعمل هذه السوق الإجرامية على أساس العرض والطلب: حيث يقوم مقدمو الخدمات الاحتياليون بإنشاء مجموعة من الأدوات والبيانات المسروقة لتلبية الطلب الناتج عن الجهات السيئة. بحسب (موقع Sift).

كيف يستخدم المجرمون الذكاء الاصطناعي لارتكاب الجرائم المالية؟

1. التزييف العميق، والاحتيال على الهوية، وانتحال شخصية الرئيس التنفيذي

يُمكّن الذكاء الاصطناعي المجرمين من إنشاء هويات اصطناعية واقعية باستخدام مقاطع صوتية وفيديوهات وصور مُزيفة. ويُستخدم هذا في: 

-الاحتيال بالهوية الاصطناعية: يستخدم المجرمون الذكاء الاصطناعي لإنشاء هويات مزيفة ولكنها واقعية (صور ومقاطع فيديو وأصوات) لفتح حسابات بنكية أو التقدم بطلبات قروض أو تجاوز عمليات التحقق من صحة البيانات. 

-احتيال المديرين التنفيذيين: تُستخدم مقاطع صوتية أو فيديو مُزيفة لانتحال شخصيات كبار المديرين التنفيذيين وخداع الموظفين لتحويل أموال أو الكشف عن بيانات مالية حساسة. تُعد هذه الهجمات خطيرة بشكل خاص نظرًا للثقة الممنوحة لشخصيات السلطة الداخلية. 

2. تقنيات غسل الأموال المدعومة بالذكاء الاصطناعي  

يستخدم المجرمون الذكاء الاصطناعي لمحاكاة أنماط المعاملات العادية وتجنب الكشف. وتشمل هذه الأساليب: 

-شبكات البغال التي تعتمد على الذكاء الاصطناعي: يمكن للروبوتات أتمتة عملية توظيف ناقلي الأموال من خلال إعلانات الوظائف المزيفة والإعلانات عبر الإنترنت ونقل الأموال غير المشروعة. 

-تقليد أنماط المعاملات: يستخدم المجرمون الذكاء الاصطناعي لجعل أنماط غسيل الأموال تبدو طبيعية وتجنب اكتشافها بواسطة أنظمة مراقبة البنوك. 

3. التلاعب بالسوق عبر الذكاء الاصطناعي

يستخدم المجرمون الماليون الذكاء الاصطناعي لاستغلال أنظمة السوق من خلال: 

-إساءة استخدام التداول عالي التردد: يمكن لخوارزميات الذكاء الاصطناعي تنفيذ عمليات تداول سريعة للتلاعب بالأسعار من خلال التلاعب أو التلاعب الطبقي - خاصة داخل أسواق العملات المشفرة أو أسواق الأسهم ذات القيمة السوقية الأصغر. 

-توليد الأخبار المزيفة: باستخدام الذكاء الاصطناعي التوليدي، يمكن للمجرمين إنشاء أخبار مالية مزيفة أو منشورات على وسائل التواصل الاجتماعي للتلاعب بأسعار الأسهم والتأثير على سلوك المستثمرين، وغالبًا ما يكون ذلك جزءًا من مخططات الضخ والإغراق. 

4. تزوير الوثائق باستخدام بيانات مصطنعة

تُستخدم أدوات الذكاء الاصطناعي بشكل متزايد في صنع مستندات مزيفة مثل كشوف الحسابات المصرفية أو قسائم الدفع أو الإقرارات الضريبية - والتي يمكن استخدامها جميعًا للوصول إلى الائتمان بشكل احتيالي أو تمرير فحوصات معرفة العميل (KYC). وفق ما نشره (موقع facctum).

خوارزميات تسرق الحقيقة

في عصرنا الرقمي الحالي، أصبح الذكاء الاصطناعي (AI) أداة قوية تتسم بتعدد استخداماتها في مجالات عدة، بدءًا من تحسين الإنتاجية وزيادة الكفاءة وصولاً إلى تهديدات غير مرئية تزعزع الأمان الرقمي.

ومن بين أبرز المجالات التي أظهر فيها الذكاء الاصطناعي تأثيره هو الجرائم الإلكترونية والتزييف العميق (Deepfake)، والتي باتت تهدد الأفراد والمؤسسات، على حد سواء.

يكشف خبير في السطور التالية كيف يُستخدم الذكاء الاصطناعي في ارتكاب الجرائم الإلكترونية، وكذلك تأثيره على إنتاج محتوى زائف وتوليد فيديوهات مفبركة بشكل لا يُصدق.

يقول الدكتور محمد محسن رمضان، مستشار الأمن السيبراني ومكافحة الجرائم الإلكترونية، في تصريحات خاصة لـ"العربية.نت" و"الحدث.نت" إن "الذكاء الاصطناعي قد تم استخدامه بشكل متزايد في عالم الجرائم الإلكترونية من قبل المهاجمين الذين يتطلعون إلى تحسين كفاءتهم وأتمتة الهجمات. الأدوات التي تعتمد على الذكاء الاصطناعي توفر فرصًا للهجمات أكثر تعقيدًا وصعوبة في الاكتشاف مقارنة بالهجمات التقليدية متابعا بالقول إنه وعلى سبيل المثال، يمكن استخدام الذكاء الاصطناعي لتحليل الأنماط السلوكية، مما يساعد المهاجمين على معرفة أكثر النقاط ضعفًا في الأنظمة الأمنية".

وتابع أن "الهجمات السيبرانية المدعومة بالذكاء الاصطناعي، وفيها التصيد الاحتيالي الذكي من خلال تقنيات الذكاء الاصطناعي تجعل الهجمات السيبرانية مثل التصيد الاحتيالي أكثر تطورًا، حيث يمكن للذكاء الاصطناعي أن يحاكي أساليب تواصل محددة بناءً على تحليلات البيانات الشخصية التي يتم جمعها".

وأكد الخبير المصري أنه باستخدام الذكاء الاصطناعي، يتمكن المهاجمون من إغراء الأفراد بالكشف عن معلومات حساسة مثل كلمات المرور أو التفاصيل المصرفية، فالهجمات المستهدفة عبر الذكاء الاصطناعي يقوم المهاجمون فيها باستخدام تقنيات الذكاء الاصطناعي لتصميم هجمات موجهة تهدف إلى استهداف المؤسسات أو الأفراد الرئيسيين، وهذه الهجمات تكون أكثر دقة وفعالية، مما يزيد من مستوى التهديد.

وأوضح الدكتور محسن رمضان أنه يمكن للمهاجمين استخدام الذكاء الاصطناعي لإنشاء برمجيات خبيثة قادرة على التكيف مع البيئة المستهدفة، مما يجعلها أكثر صعوبة في الكشف عنها، متابعا بالقول إنه بالإضافة إلى ذلك، قد تعمل هذه البرمجيات بشكل غير مرئي على جمع بيانات المستخدمين أو تدمير الأنظمة. 

وأشار إلى أن التزييف العميق هو أحد أخطر التطبيقات السلبية للذكاء الاصطناعي. وباستخدام تقنيات التعلم العميق والشبكات العصبية، يمكن إنشاء مقاطع فيديو صوت تُحاكي شخصيات مشهورة أو حتى أفراد عاديين في مواقف لم تحدث في الواقع.

ويوضح أنه على الرغم من الفوائد العديدة لتقنيات الذكاء الاصطناعي، إلا أن هذه التقنيات تُستغل بشكل واسع في تزوير المحتوى، مما يؤدي إلى خلق العديد من المشكلات الاجتماعية والقانونية.

وأشار الخبير المصري، إلى أن التهديدات التي يشكلها التزييف العميق، يتمثل أبرزها في التحايل على الشخصيات العامة، حيث يمكن للذكاء الاصطناعي أن يستخدم لإنشاء مقاطع فيديو أو تصريحات مفبركة لرؤساء دول، سياسيين، أو شخصيات عامة، مما يُؤثر على سمعتهم ويزعزع الثقة العامة.

وقال إن هذا الأمر يمكن أن يُستخدم في حملات سياسية مغرضة أو في التشويه الإعلامي، إضافة إلى التزييف في مجال الإعلام، حيث يمكن للصحافة والأخبار المزيفة أن تنتشر بسرعة بفضل التقنيات المتقدمة.

وقال إن التزييف العميق قد يستخدم لتغيير حقيقة ما تم نشره من معلومات، مما يؤدي إلى فقدان الثقة في المصادر الإخبارية ويضر بسلامة الرأي العام.

وأوضح أن أهم آليات التصدي لهذه العمليات ينجم من خلال تعزيز وعي الأفراد، حيث يجب على الأفراد أن يكونوا على دراية بمخاطر الذكاء الاصطناعي في الجرائم الإلكترونية والتزيف العميق، وأن يتبعوا ممارسات أمان رقمية مثل التحقق من مصادر الأخبار، والاستثمار في التقنيات الدفاعية، مطالبا الحكومات والشركات بالاستفادة من تقنيات الذكاء الاصطناعي للكشف عن البرمجيات الخبيثة وفيديوهات التزييف العميق، مع تطوير أدوات متقدمة للكشف عن التلاعب في المحتوى الرقمي، والتعاون الدولي.

عملية احتيال واسعة بالذكاء الاصطناعي من امرأة "غير حقيقية"

اعتقد جميع الضحايا أنهم وقعوا في حب امرأة حقيقية، لكنها كانت مجرد عملية احتيال مدروسة بعناية ومخطط لها باستخدام الذكاء الاصطناعي كلفت الضحايا في عدة دول ملايين الدولارات. فما القصة؟

تبادلوا طويلًا مكالمات معها معتقدين أنهم وقعوا في حب امرأة، الأهم من كونها جميلة هو إنها "حقيقية"، ليكتشفوا لاحقًا أن الأمر كله عملية نصب ضخمة باستخدام الذكاء الاصطناعي.

ففي أعقاب مداهمة لمركز عمل "العصابة"، أعلنت الشرطة في هونغ كونغ إلقاء القبض على 21 رجلاً و6 نساء بعدة تهم في مقدمتها التآمر للاحتيال في عملية استهدفت رجالًا من تايوان إلى سنغافورة وحتى الهند، وفقًا لموقع سي إن إن.

وخلال مؤتمر صحفي، أوضحت الشرطة أن الضحايا وقعوا فريسة "لعملية احتيال رومانسية" بتقنية التزييف العميق Deepfake باستخدام الذكاء الاصطناعي. ويعرف هذا النوع من عمليات الاحتيال التي باسم "ذبح الخنازير"، أي ”تسمين" الضحايا قبل أخذ كل ما لديهم، حيث يتقمص المحتالون هويات مزيفة عبر الإنترنت ويقضون شهورًا في إعداد أهدافهم لدفعهم على الاستثمار في مواقع وهمية.

وقالت الشرطة إن العصابة جندت الأعضاء فيها، والذي تتراوح أعمارهم ما بين 21 و 34 عامًا، من دارسي وخريجي الوسائط الرقمية والتكنولوجيا بالجامعات المحلية لبناء منصة عملة مشفرة مزيفة تم إجبار الضحايا على الاستثمار فيها وخسارة أكثر من 46 مليون دولار.

وبدأت عمليات الاحتيال برسالة للضحية من امرأة جذابة تقول فيها أنها أرسلتها بالخطأ، لتنطلق علاقات رومانسية عبر الإنترنت تصل لمرحلة التخطيط للمستقبل معًا، وفقًا لشرطة هونغ كونغ. واتسم الأمر كله بالدقة والتنظيم، حيث استخدمت العصابة "دليل تدريب" لتعليم الأعضاء كيفية تنفيذ عملية الاحتيال باستغلال صدق نوايا الضحية ومشاعره.

مكالمات الاحتيال تزداد ذكاءً

تُحدث مكالمات الاحتيال ضجةً عالمية. ويُقدّر التحالف العالمي لمكافحة الاحتيال The Global Anti - Scam Alliance أن المحتالين سرقوا مبلغاً هائلاً قدره 1.03 تريليون دولار أميركي عالمياً في عام 2023، بما في ذلك خسائر ناجمة عن الاحتيال عبر الإنترنت، ومكالمات الاحتيال، كما كتب كولاولي صموئيل أديبايو.

الذكاء الاصطناعي والاحتيال

لطالما كانت المكالمات الآلية، والاحتيال عبر الهاتف مشكلةً تثير إحباطاً -وغالباً ما تكون خطيرة– للمستخدمين. والآن، يُفاقم الذكاء الاصطناعي من هذا التهديد، ما يجعل عمليات الاحتيال أكثر خداعاً، وفعاليةً، وصعوبةً في الكشف.

إنتاج محتوى مزيّف ومتنوع

يعتقد إريك بريزكالنز، المحلل والمحرر في «كومسيرك»، أن تأثير الذكاء الاصطناعي على مكالمات الاحتيال مبالغ فيه حالياً، إلا أنه يُشير إلى أن استخدام المحتالين للذكاء الاصطناعي يُركز على إنتاج محتوى مُزيف يبدو حقيقياً، أو على تنويع محتوى الرسائل المُصممة لجذب الضحايا المُحتملين إلى محادثات خبيثة. ويُصرح لصحيفة «فاست كومباني»: «إن تنويع المحتوى يُصعّب تحديد عمليات الاحتيال، وحظرها، باستخدام أدوات مكافحة الاحتيال التقليدية».

أصوات أحبائكم مزيفة

من الأصوات المُزيفة المُولّدة بالذكاء الاصطناعي التي تُحاكي أصوات الأحباء، إلى عمليات الاحتيال واسعة النطاق التي تستخدم التعلم الآلي لتجنب الكشف، يستغل المُجرمون الذكاء الاصطناعي لزيادة فعالية مكالمات الاحتيال هذه. السؤال الأهم هو: كيف يُمكن لقطاع الاتصالات مُكافحة هذه المُشكلة مُباشرةً قبل أن يُسبب المحتالون المزيد من الفوضى؟

وحتى وقت قريب، اعتمدت عمليات الاحتيال الهاتفي في الغالب على المكالمات الآلية المُبسطة -وهي رسائل مُسجلة مُسبقاً تُحذر المُتسلمين من مُشكلة مالية مُلحة، أو مُشكلة مُفترضة في رقم الضمان الاجتماعي الخاص بهم. وهذه الأساليب، رغم استمرارها، يمكن التعرف غالباً بسهولة عليها. لكن عمليات الاحتيال المدعومة بالذكاء الاصطناعي اليوم أكثر إقناعاً بكثير.

احتيال مرعب بـ استنساخ الصوت

من أكثر التطورات إثارة للقلق استخدام الأصوات المُولّدة بالذكاء الاصطناعي، ما يجعل عمليات الاحتيال تبدو شخصية بشكل مُقلق. في حالة مُرعبة وقعت في أبريل (نيسان) 2023، تلقت أم في أريزونا مكالمة يائسة من شخص بدا تماماً مثل ابنتها، تبكي وتتوسل طلباً للمساعدة. وطالبها محتال، مُتظاهراً بأنه خاطف، بفدية. في الواقع، كانت الابنة في أمان -فقد استخدم المجرمون الذكاء الاصطناعي لاستنساخ صوتها من فيديو على وسائل التواصل الاجتماعي.

وازدادت عمليات الاحتيال هذه، المعروفة باسم «احتيال استنساخ الصوت»، في الأشهر الأخيرة. فببضع ثوانٍ فقط من الصوت، يُمكن لأدوات الذكاء الاصطناعي الآن إنشاء نسخة رقمية واقعية بشكل مُخيف من صوت الشخص، ما يُمكّن المحتالين من انتحال شخصيات الأصدقاء، أو أفراد العائلة، أو حتى المديرين التنفيذيين في عمليات احتيال الشركات.

صياغة مكالمات موجهة شخصياً

يستخدم المحتالون أيضاً الذكاء الاصطناعي لتحليل كميات هائلة من البيانات، وضبط مخططاتهم بدقة مُرعبة. تستطيع خوارزميات التعلم الآلي غربلة المعلومات العامة -مثل منشورات مواقع التواصل الاجتماعي، والمنتديات الإلكترونية، واختراقات البيانات- لصياغة مكالمات احتيالية مُخصصة للغاية. فبدلاً من خدعة عامة من مصلحة الضرائب، أو الدعم الفني، يمكن للمحتالين الآن استهداف الضحايا بتفاصيل محددة حول مشترياتهم، أو تاريخ سفرهم، أو حتى حالاتهم الطبية.

كما يُعزز الذكاء الاصطناعي عمليات انتحال هوية المتصل، ما يسمح للمحتالين بالتلاعب بأرقام الهواتف لتبدو كأنها صادرة من شركات محلية، أو وكالات حكومية، أو حتى جهات اتصال الضحية. وهذا يزيد من احتمالية رد الناس على المكالمات، ما يجعل تجاهل مكالمات الاحتيال أكثر صعوبة.

الهجوم المضاد لشركات الاتصالات

الذكاء الاصطناعي في مواجهة الذكاء الاصطناعي، هذه هي خلاصة عملية التصدي للاحتيال الإلكتروني. إذ مع صقل المحتالين لأدوات الذكاء الاصطناعي، تُكافح شركات الاتصالات والهيئات التنظيمية باستخدام الذكاء الاصطناعي الخاص بها -من خلال نشر أنظمة متطورة للكشف عن المكالمات الخبيثة، وتتبعها، وحظرها قبل وصولها إلى المستهلكين.

1.التعرف على صدقية المكالمات وكشف الاحتيال باستخدام الذكاء الاصطناعي. لمكافحة انتحال الهوية، تستفيد شركات الاتصالات من تقنيات تحليل الصوت، والمصادقة المدعومة بالذكاء الاصطناعي. وفي الولايات المتحدة، يستخدم إطار عمل STIR/SHAKEN التوقيعات المشفرة للتحقق من أن المكالمات صادرة من مصادر شرعية. ولكن مع تكيف المحتالين السريع، أصبح كشف الاحتيال المدعوم بالذكاء الاصطناعي ضرورياً.

يمكن لنماذج التعلم الآلي المُدربة على مليارات أنماط المكالمات تحليل البيانات الوصفية في الوقت الفعلي للكشف عن أي شذوذ -مثل الارتفاع المفاجئ في المكالمات من مناطق محددة، أو أرقام مرتبطة بعمليات احتيال معروفة. وتستطيع أنظمة الذكاء الاصطناعي هذه حتى اكتشاف العلامات الصوتية الدقيقة النموذجية للأصوات المُولّدة بتقنية التزييف العميق، ما يُساعد على إيقاف المكالمات الاحتيالية قبل اتصالها.

2.تصفية وترشيح وحظر المكالمات على مستوى شركة الاتصالات. يُدمج كبار مُزودي خدمات الاتصالات تصفية المكالمات المدعومة بالذكاء الاصطناعي مباشرةً في شبكاتهم. مثلاً تستخدم كلٌّ من خدمة Call Protect من شركة «أيه تي أند تي»، وخدمة Scam Shield من شركة «تي - موبايل»، وخدمة Call Filter من «فيريزون» الذكاء الاصطناعي لاكتشاف الأنماط المشبوهة، وحظر المكالمات عالية الخطورة قبل وصولها إلى المستخدمين. كما توفر مرشحات تابعة لشبكة GSMA حماية فورية للمكالمات من خلال التحقق من شرعيتها ومكافحة انتحال هوية خط الاتصال.

1000 خاصية صوتية فريدة للتحقق من الهوية

3. القياسات الحيوية الصوتية المدعومة بالذكاء الاصطناعي للتحقق من هوية المتصل. تُعدّ القياسات الحيوية (البيولوجية) الصوتية خط دفاع واعداً آخر ضد الاحتيال الناتج عن الذكاء الاصطناعي. وتنشر بعض المؤسسات المالية ومقدمو خدمات الاتصالات أنظمة مصادقة صوتية تُحلل أكثر من 1000 خاصية صوتية فريدة للتحقق من هوية المتصل.

وبخلاف تقنية التعرف على الصوت الأساسية، يمكن لهذه الأنظمة المتقدمة اكتشاف وقت استخدام صوت مُولّد بالذكاء الاصطناعي، مما يمنع المحتالين بفعالية من انتحال هوية العملاء الشرعيين.

حملة قانونية صارمة

تشن الهيئات التنظيمية حملة صارمة، ولكن هل هذا كافٍ؟ إن تشديد اللوائح، وتشديد العقوبات أمرٌ واحد، وهو أمرٌ تقوم به بالفعل العديد من الوكالات الحكومية حول العالم، لكن تطبيق هذه اللوائح بفعالية أمرٌ مختلفٌ تماماً. ففي الولايات المتحدة، على سبيل المثال، شددت لجنة الاتصالات الفيدرالية (FCC) العقوبات على المكالمات الآلية غير القانونية، وتحث شركات الاتصالات على اعتماد دفاعات أكثر صرامةً مدعومة بالذكاء الاصطناعي. يمنح قانون TRACED (قانون إنفاذ وردع إساءة استخدام المكالمات الآلية الهاتفية)، الذي تم توقيعه على أنه قانون في عام 2019، الجهات التنظيمية مزيداً من الصلاحيات لتغريم المحتالين، ويفرض تدابير أقوى لمكافحة الانتحال. وعلى الصعيد الدولي، تعمل الجهات التنظيمية في المملكة المتحدة وكندا وأستراليا على أطر عمل مماثلة تعتمد على الذكاء الاصطناعي لحماية المستهلكين من الاحتيال المتزايد. وقد أصدر الاتحاد الأوروبي قوانين أكثر صرامة بشأن خصوصية البيانات، ما يحد من كيفية استخدام الذكاء الاصطناعي لجمع البيانات الشخصية لعمليات الاحتيال.

ومع ذلك، فإن جهات إنفاذ القانون تكافح لمواكبة سرعة ابتكار الذكاء الاصطناعي. ويعمل المحتالون على مستوى العالم، وغالباً ما يكونون خارج نطاق اختصاص أي جهة تنظيمية واحدة. تتمركز العديد من شبكات الاحتيال في بلدان يصعب فيها اتخاذ إجراءات قانونية، إن لم يكن شبه مستحيل.

لنأخذ، على سبيل المثال، دولاً مثل ميانمار، وكمبوديا، ولاوس، حيث أنشأت جماعات الجريمة المنظمة مراكز احتيال إلكتروني تستخدم تقنيات التزييف العميق المدعومة بالذكاء الاصطناعي لخداع الضحايا حول العالم. وكثيراً ما ينقل مشغلو هذه المراكز مواقعهم، أو يغيرون أساليبهم للبقاء في صدارة جهات إنفاذ القانون. كما أنهم يعملون في مناطق تواجه تحديات قضائية معقدة، ما يزيد من تعقيد عملية إنفاذ القانون.

عوائق تنظيمية

يزدهر المحتالون في ظل التشتت، واستغلال نقاط الضعف، سواءً كان ذلك نقصاً في التنسيق بين القطاعات، أو اختلافاً في النهج التنظيمية عبر الحدود. تُبرز هذه العوائق التنظيمية ضرورة قيام مزودي خدمات الاتصالات بدور أكثر استباقية في مكافحة الاحتيال المدعوم بالذكاء الاصطناعي، بدلاً من الاعتماد فقط على الأطر التقليدية التي -رغم فائدتها- ليست دائماً فعالة. وهنا يأتي دور تقنية GSMA Call Check، التي طورتها شركة «أوكيلوس» Oculeus الألمانية لحلول الاتصالات، في تحقيق هدفها الحيوي. تُوفر خدمات التحقق من المكالمات من GSMA آلية بسيطة، وسريعة، ومنخفضة التكلفة لتبادل المعلومات حول مكالمات الهاتف الاحتيالية فور حدوثها. يقول بريزكالنز من «كوميرسك» إن «هذه التقنية مُتجذرة في السحابة، ما يجعلها مُستقبلية، وعالمية بطريقة لن تكون عليها أبداً الطرق الأخرى التي تُفكر فيها بعض الدول».

معركة طويلة

لا شك أن المعركة ضد عمليات الاحتيال المُدعمة بالذكاء الاصطناعي لم تنتهِ بعد. وكما أشارت جيسيكا روزينورسيل، رئيسة لجنة الاتصالات الفيدرالية (FCC) السابقة، العام الماضي: «نعلم أن تقنيات الذكاء الاصطناعي ستجعل من السهل والرخيص إغراق شبكاتنا بمقاطع فيديو مُزيفة تُستخدم للتضليل، وزعزعة الثقة».

الخبر السار هو أن قطاع الاتصالات لا يتراجع، فبينما يستخدم المحتالون الذكاء الاصطناعي لخداع الأفراد غير المُنتبهين، فإن القطاع يستفيد أيضاً من الذكاء الاصطناعي لحماية العملاء وبياناتهم الحساسة، من خلال فحص المكالمات الآلي، والكشف الفوري عن الاحتيال، وإجراءات المصادقة المُحسّنة.

أمر واحد مؤكد: المحتالون وعمليات الاحتيال لن تختفي في أي وقت قريب. وكما يشير بريزكالنز، سيستمر الناس في الوقوع ضحية عمليات الاحتيال حتى مع التدريب المكثف على التوعية العامة. ولكن مع استمرار تطور الذكاء الاصطناعي، يجب على قطاع الاتصالات أن يكون متقدماً بخطوة، لضمان أن يصبح قوة للحماية، لا للخداع. نقلا عن (صحيفة الشرق الأوسط).

ذات صلة

العدل مصنع السعادة والأمانحسن الظن وتنمية العلاقات الاجتماعيةالرهان الجيو استراتيجي حول جزر المحيط الهاديهل يمكن لاحتجاجات الجيل Z العالمية أن تحوّل الاضطرابات إلى تغيير حقيقي؟هل ستدفع (بي بي سي) الى ترامب مليار دولار بسبب التضليل؟