مال و أعمال

ساعد الذكاء الاصطناعي والتعلم الآلي شركة Visa في مكافحة أنشطة احتيال بقيمة 40 مليار دولار


كتل تشكل الروبوت على خلفية بيضاء.

يويشيرو تشينو | لحظة | صور جيتي

عملاق المدفوعات تأشيرة وقال جيمس ميرفين، الرئيس العالمي لحلول المخاطر والهوية في Visa، لشبكة CNBC، إن الشركة تستخدم الذكاء الاصطناعي والتعلم الآلي لمواجهة الاحتيال.

منعت الشركة 40 مليار دولار من الأنشطة الاحتيالية في الفترة من أكتوبر 2022 إلى سبتمبر 2023، أي ما يقرب من ضعف ما كانت عليه قبل عام.

قال ميرفين من Visa إن الأساليب الاحتيالية التي يستخدمها المحتالون تشمل استخدام الذكاء الاصطناعي لإنشاء أرقام الحسابات الأساسية واختبارها باستمرار. رقم PAN عبارة عن معرف بطاقة، يتكون عادةً من 16 رقمًا ولكن يمكن أن يصل إلى 19 رقمًا في بعض الحالات، ويمكن العثور عليه في بطاقات الدفع.

وباستخدام روبوتات الذكاء الاصطناعي، يحاول المجرمون بشكل متكرر إرسال المعاملات عبر الإنترنت من خلال مجموعة من أرقام الحساب الأساسية وقيم التحقق من البطاقة (CVV) وتواريخ انتهاء الصلاحية – حتى يحصلوا على استجابة بالموافقة.

وتؤدي هذه الطريقة، المعروفة باسم هجوم التعداد، إلى خسائر احتيال بقيمة 1.1 مليار دولار سنويًا، وهو ما يمثل حصة كبيرة من إجمالي الخسائر العالمية الناجمة عن الاحتيال، وفقًا لشركة Visa.

“نحن ننظر إلى أكثر من 500 سمة مختلفة حولنا [each] المعاملة، نحن نسجل ذلك وننشئ نتيجة – وهذا نموذج ذكاء اصطناعي سيفعل ذلك بالفعل. وقال ميرفين لـ CNBC: “إننا نجري حوالي 300 مليار معاملة سنويًا”.

يتم تعيين درجة مخاطرة في الوقت الفعلي لكل معاملة تساعد على اكتشاف هجمات التعداد ومنعها في المعاملات حيث تتم معالجة عملية الشراء عن بعد بدون بطاقة فعلية عبر قارئ البطاقة أو المحطة الطرفية.

“كل واحد من هؤلاء [transactions] تمت معالجتها بواسطة منظمة العفو الدولية. وقال ميرفين: “إنها تبحث في مجموعة من السمات المختلفة ونقوم بتقييم كل معاملة على حدة”.

“لذا، إذا رأيت نوعًا جديدًا من الاحتيال يحدث، فإن نموذجنا سيرى ذلك، وسيكتشفه، وسيصنف تلك المعاملات على أنها عالية المخاطر، ومن ثم يمكن لعملائنا أن يقرروا عدم الموافقة على تلك المعاملات.”

وباستخدام الذكاء الاصطناعي، تقوم Visa أيضًا بتقييم احتمالية الاحتيال في طلبات توفير الرموز المميزة – لمواجهة المحتالين الذين يستفيدون من الهندسة الاجتماعية وعمليات الاحتيال الأخرى لتوفير الرموز المميزة بشكل غير قانوني وإجراء معاملات احتيالية.

وفي السنوات الخمس الماضية، استثمرت الشركة 10 مليارات دولار في التكنولوجيا التي تساعد على تقليل الاحتيال وزيادة أمان الشبكات.

الاحتيال التوليدي المدعم بالذكاء الاصطناعي

يتجه مجرمو الإنترنت إلى الذكاء الاصطناعي التوليدي والتقنيات الناشئة الأخرى بما في ذلك استنساخ الصوت والتزييف العميق لخداع الأشخاص. حذر ميرفين.

وقال: “عمليات الاحتيال الرومانسية، وعمليات الاحتيال الاستثمارية، وذبح الخنازير – كلها تستخدم الذكاء الاصطناعي”..

يشير ذبح الخنازير إلى أسلوب احتيال يقوم من خلاله المجرمون ببناء علاقات مع الضحايا قبل إقناعهم بوضع أموالهم في منصات تداول أو استثمار مزيفة للعملات المشفرة.

“إذا فكرت في ما يفعلونه، فهو ليس مجرمًا يجلس في السوق ويلتقط هاتفًا ويتصل بشخص ما. إنهم يستخدمون مستوى معينًا من الذكاء الاصطناعي، سواء كان ذلك استنساخًا للصوت، أو تزييفًا عميقًا، أو سواء كان ذلك وقال ميرفين: “إنهم يستخدمون الهندسة الاجتماعية لتفعيل أنواع مختلفة من ذلك”.

تعمل أدوات الذكاء الاصطناعي التوليدية، مثل ChatGPT، على تمكين المحتالين من إنتاج رسائل تصيد أكثر إقناعًا لخداع الأشخاص.

يحتاج مجرمو الإنترنت الذين يستخدمون الذكاء الاصطناعي التوليدي إلى أقل من ثلاث ثوانٍ من الصوت لاستنساخ الصوت، وفقًا لشركة إدارة الهوية والوصول ومقرها الولايات المتحدة Okta، والتي أضافت أنه يمكن بعد ذلك استخدام هذا لخداع أفراد الأسرة للاعتقاد بأن أحد أفراد أسرته في ورطة أو خدعة موظفي البنوك لتحويل الأموال من حساب الضحية.

وقال أوكتا إن أدوات الذكاء الاصطناعي التوليدية تم استغلالها أيضًا لإنشاء صور مزيفة للمشاهير لخداع المعجبين.

وقال بول فابارا، كبير مسؤولي المخاطر وخدمات العملاء في شركة Visa، في تقرير التهديدات نصف السنوي الذي تصدره الشركة: “مع استخدام الذكاء الاصطناعي التوليدي والتقنيات الناشئة الأخرى، أصبحت عمليات الاحتيال أكثر إقناعًا من أي وقت مضى، مما يؤدي إلى خسائر غير مسبوقة للمستهلكين”.

وقال مركز ديلويت للخدمات المالية في تقرير إن مجرمي الإنترنت الذين يستخدمون الذكاء الاصطناعي لارتكاب عمليات الاحتيال يمكنهم القيام بذلك بتكلفة أقل بكثير من خلال استهداف عدة ضحايا في وقت واحد باستخدام نفس الموارد أو أقل.

وقال التقرير: “من المرجح أن تنتشر مثل هذه الحوادث في السنوات المقبلة، حيث تجد الجهات الفاعلة السيئة وتنشر الذكاء الاصطناعي المتطور ولكن بأسعار معقولة للاحتيال على البنوك وعملائها”، مقدرًا أن الذكاء الاصطناعي التوليدي يمكن أن يزيد خسائر الاحتيال إلى 40 مليار دولار في العام 2019. الولايات المتحدة بحلول عام 2027، من 12.3 مليار دولار في عام 2023.

في وقت سابق من هذا العام، أرسل موظف في شركة مقرها هونغ كونغ مبلغ 25 مليون دولار إلى محتال قام بتزييف مديره المالي بعمق وأصدر تعليماته بإجراء التحويل.

أبلغت وسائل الإعلام الحكومية الصينية عن حالة مماثلة في مقاطعة شانشي هذا العام، حيث تم خداع موظفة لتحويل 1.86 مليون يوان (262 ألف دولار) إلى محتال استخدم صورة مزيفة لرئيسها في مكالمة فيديو.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى