حذر عديد من المختصين في عالم المال والأعمال وكذلك في “الذكاء الاصطناعي” من أدوات وخدع يتمكن المحتالون من النفاذ من خلالها لإتمام مهمتهم الاحتيالية بنجاح باستخدام تطبيقات الـ AI ومن بينها تطبيقات تزييف وتقليد الأصوات، وكذلك تقنيات التزييف العميق Deepfake.
يمكن استخدام الذكاء الاصطناعي لتوليد بيانات زائفة بشكل مقنع، ما يجعل من الصعب اكتشاف الاحتيال. على سبيل المثال، تزوير البيانات المالية أو الهوية، والتي يتم بناءً عليها تنفيذ عمليات احتيالية واسعة.
الأمر الذي يخلق مخاطر مالية مستحدثة يتعين معها على الجهات المالية والمؤسسات الاعتماد على التكنولوجيا والذكاء الاصطناعي أيضاً للكشف عن الاحتيال المالي ومحاربته.
يتطلب ذلك أيضاً استخدام تقنيات تحليل البيانات المتقدمة والرصد المستمر للأنشطة المالية المشبوهة وتحسين استراتيجيات الأمان للتصدي للتهديدات المتزايدة.
نماذج لعمليات احتيال
تعرضت شركة طاقة بريطانية إلى عملية احتيال بسبب الذكاء الاصطناعي، خسرت بناءً عليها ما يصل إلى 240 ألف دولار تم تحويلهم إلى حساب مصرفي في دولة هنغاريا، بعد أن تمكن أحد الأشخاص من خداع موظف بالشركة، مقلداً صوت رئيس تلك الشركة، وهو ألماني الجنسية، طالباً من الموظف تحويل هذا المبلغ لأحد الموردين.
يشير إلى هذه الواقعة الشهيرة -التي تعود إلى العام 2019- أخصائي التطوير التكنولوجي، هشام الناطور، في تصريحات خاصة لموقع “اقتصاد سكاي نيوز عربية”، والذي استعرض عدداً من وقائع الاحتيال المالي التي تمت بناءً على تقليد بعض الأشخاص أصوات أشخاص آخرين باستخدام تطبيقات الـ AI، لافتاً إلى أنه “في السنوات الأخيرة وفي ظل التقدم الذي تشهده تقنيات الذكاء الاصطناعي وتطبيقاته، صار من الصعوبة بمكان معرفة هويات الأشخاص والجهات التي يتم التواصل معها، وهو ما تسبب في عمليات نصب واحتيال مختلفة، باستخدام تلك التقنيات المنتشرة والتي يسهل الحصول عليها”.
تتزايد تلك العمليات بشكل كبير في ضوء التوسع في تقنيات التزييف العميق (Deepfake) خاصة فيما يتعلق بتزييف الوجوه، وفق الناطور الذي يقول: “كانت عمليات تزييف الأصوات معروفة من قبل التقدم المحرز في الذكاء الاصطناعي وباستخدام الهندسة الصوتية، ولكن هذا الأمر شهد تطورا واسعاً، ومع تزييف الوجوه (والفيديو) عبر تقنيات التزييف العميق، والتي يمكن من خلالها تزييف مقاطع مختلفة حتى خطابات لرؤساء ومدراء شركات كبيرة إذا ما توافرت المهارات المطلوبة للشخص الذي يقوم بعملية التزييف، والتي هي في متناول الجميع عبر منصات تقدمها بمبالغ زهيدة ما بين 25 إلى 50 دولاراً لتزييف مقطع فيديو مدته من 30 إلى 60 ثانية على سبيل المثال.
ويتابع: “هناك عديد من المواقع -للأسف- التي تشرح وتعلم تلك التنقيات سواء بالنسبة لتزييف الأصوات أو مقاطع الفيديو، بدون رقيب، وبرامج وتطبيقات متاحة كاستديو مفتوح أون لاين يمكن استخدامها على الهاتف أو جهاز الكمبيوتر الشخصي (..)”.
نصائح كي لا تسقط فريسة للاحتيال المالي
ويحدد الناطور لدى حديثه مع موقع “اقتصاد سكاي نيوز عربية” عدداً من النصائح التي يُمكن من خلالها تفادي السقوط في فخ الاحتيال المالي باستخدام تطبيقات الـ Deepfake، على النحو التالي:
- التأكد من هوية أي شخص يتم التواصل معه، بما في ذلك المدير في العمل أو خدمة العملاء في البنوك أو غير ذلك.
- طلب توثيق مكتوب عبر البريد الإلكتروني حال طلب المتصل تحويل أو توريد أموال. لا سيما وأنه عادة ما لا يتم طلب تحويل الأموال عبر تطبيقات التواصل، ويكون ذلك في الشركات عادة من خلال الخطابات المكتوبة أو عبر البريد الإلكتروني الرسمي للشركات، والذي يعتد به كوثيقة قانونية.
- التأكد من أن أية جهة رسمية أو شركة لن تطلب من المستخدم أو العميل أرقاماً سرية أو بيانات تحويلات مصرفية. وبالتالي يتعين الانتباه لعدم مشاركة تلك الأرقام والبيانات.
- عدم التفاعل مع أية رسائل بإعادة تعيين كلمة السر سواء للبريد الإلكتروني وأي منصات أخرى.
- عدم الضغط على أي روابط دون التأكد من سلامتها.
ويوضح أن هناك مواقع تستخدم الذكاء الاصطناعي في برمجة صفحات شبيهة بصفحات تسجيل الدخول لمواقع التواصل الاجتماعي، ويمكن من خلال تلك المواقع سرقة بيانات أو كلمات السر أو بطاقات الاعتماد والدخول لأجهزة الكمبيوتر والسطو على الأرقام المصرفية.
وفي العام الماضي 2022، حذرت عديد من البنوك من زيادة كبيرة في عمليات الاحتيال تمت خلال العام عبر الإنترنت. وذكر بنك باركليز -طبقاً لما نقلته شبكة بي بي سي- أن 77 بالمئة من عمليات الاحتيال تحدث عبر وسائل التواصل والأسواق الإلكترونية وتطبيقات المواعدة. كما نقلت الشبكة -في تقرير لها مايو الماضي- عن بنك تي أس بي إن، إشارته إلى أن الزيادة الكبيرة كانت في حالات انتحال الشخصية والاحتيال في الاستثمار والشراء.
تهديدات الاحتيال المعززة بالذكاء الاصطناعي
تمتلك تقنيات الذكاء الاصطناعي القدرة على تعزيز العمليات والأنشطة العالمية المختلفة بشكل كبير، بما في ذلك الاحتيال المالي، إذ يمتلك المحتالون الآن الوسائل اللازمة لتنفيذ مخططاتهم الخادعة بكفاءة وفعالية متزايدة بفضل الذكاء الاصطناعي.
وفيما يلي بعض الأمثلة على كيفية تسخير الـ AI لتضخيم تهديدات الاحتيال، طبقاً لما يحدده المستشار الأكاديمي في جامعة سان خوسيه الحكومية في كاليفورنيا، الدكتور أحمد بانافع، في تصريحات لموقع “اقتصاد سكاي نيوز عربية”، على النحو التالي:
- الخروقات الأمنية واستغلال الثغرات: يساعد الذكاء الاصطناعي المحتالين في تحديد الثغرات الأمنية واستغلالها بذكاء أكبر. على سبيل المثال، يمكن لهجمات الاحتيال المالي التي تعتمد على الذكاء الاصطناعي أن تعزز دقة الاستهداف وتتجنب الكشف بشكل أكثر فعالية.
- عمليات الاحتيال عبر الإنترنت: يتم استخدام تقنيات الذكاء الاصطناعي لصياغة رسائل بريد إلكتروني وصفحات ويب زائفة ومقنعة للغاية، ما يجعل من الصعب تمييزها عن الرسائل الأصلية. باستخدام معالجة اللغة الطبيعية والتعلم الآلي، يمكن للمحتالين إنشاء رسائل تبدو بشكل مقنع أنها صادرة من بنوك أو شركات موثوقة، وبما يسهل الوصول إلى المعلومات الحساسة.
- توليد معلومات مزيفة: يمكن للذكاء الاصطناعي إنشاء معلومات مزيفة بسهولة، بما في ذلك الصور المزورة ومقاطع الفيديو التي تم التلاعب بها، والتي يمكن استخدامها في سرقة الهوية وتزوير المستندات.
التحديات في مكافحة الاحتيال القائم على الذكاء الاصطناعي
وفي ضوء تهديدات الاحتيال المحتملة التي تنطوي على استخدام الذكاء الاصطناعي، يتعين من معالجة عدة عقبات، على النحو التالي:
- صعوبة اكتشاف الهجمات: نظراً للتقدم في تقنيات الذكاء الاصطناعي، أصبح اكتشاف هجمات الاحتيال المالي معقدًا بشكل متزايد. ويمكن للمحتالين تكييف أساليبهم واستخدام التشفير لتجنب اكتشافهم بواسطة أنظمة الأمان التقليدية.
- انتشار البيانات الزائفة: يمكن للذكاء الاصطناعي توليد كميات هائلة من البيانات الزائفة بسرعة، مما يجعل من الصعب التمييز بين البيانات الحقيقية والبيانات المزيفة.
- التقدم التكنولوجي السريع: الذكاء الاصطناعي في حالة تطور مستمر، مما يستلزم التكيف المستمر من خلال جهود منع الاحتيال وتطوير أدوات جديدة لمكافحة التهديدات الناشئة.
أدوات المواجهة والحد من المخاطر
وفي هذا السياق، يتحدث بانافع عن مواجهة تهديدات الاحتيال المستندة إلى الذكاء الاصطناعي والتخفيف منها، من خلال عدد الأدوات، أولها تعزيز أمن نظام الذكاء الاصطناعي، ذلك أنه لمواجهة تهديدات الاحتيال التي يحركها الذكاء الاصطناعي بشكل فعال، من الضروري تعزيز أمن أنظمة الذكاء الاصطناعي. ويمكن تحقيق ذلك من خلال التدابير التالية:
- تطوير أنظمة كشف الاحتيال: يعد تطوير أنظمة كشف الاحتيال التي تستفيد من الذكاء الاصطناعي أمراً بالغ الأهمية. يجب أن تكون هذه الأنظمة قادرة على تحديد الأنماط الشاذة في البيانات والسلوك. ويجب تنفيذ التدريب المستمر لتحديث تصنيفات الأنظمة بناءً على أمثلة التهديدات الجديدة.
- تعزيز الأمن السيبراني: يعد تعزيز أمن الشبكات وأنظمة الكمبيوتر أيضاً أمراً ضرورياً للحد من الانتهاكات وإحباط محاولات الاحتيال. يمكن استخدام الذكاء الاصطناعي لتعزيز أنظمة كشف التسلل وتوفير تنبيهات في الوقت الفعلي عند اكتشاف الأنشطة المشبوهة.
ومن الأدوات التي يضيء عليها بانافع أيضاً في سياق مواجهة التهديدات، ما يتعلق بـ “التثقيف والتوعية”، إذ يلعب التعليم والتوعية دوراً محورياً في مكافحة تهديدات الاحتيال التي يحركها الذكاء الاصطناعي، ومن الضروري تثقيف الأفراد والمنظمات حول أنواع التهديدات المحتملة وكيفية التعرف عليها وكيفية الحماية منها: - تدريب الموظفين: يتعين تنفيذ برامج التدريب لتزويد الموظفين بالمهارات اللازمة للتعرف على محاولات الاحتيال المعتمدة على الذكاء الاصطناعي والاستجابة لها. يمكن تضمين هجمات الاحتيال المحاكية في الدورات التدريبية لتعزيز الوعي وقدرات الاستجابة.
- التوعية العامة: يعد رفع مستوى الوعي العام حول التهديدات المحتملة وتدابير الحماية أمراً ضرورياً. ويمكن تحقيق ذلك من خلال الحملات التوعوية وورش العمل التي يتم إجراؤها عبر وسائل التواصل الاجتماعي والمنصات المختلفة.
ومن أدوات مواجهة التهديدات أيضاً “التعاون والشراكات”، بحيث يمكن تعزيز الجهود الفعالة لمكافحة تهديدات الاحتيال المستندة إلى الذكاء الاصطناعي من خلال التعاون والشراكات التي تشمل الحكومات والقطاع الخاص والوكالات الأمنية.
يتم ذلك من خلال “تبادل المعلومات” بين مختلف أصحاب المصلحة، للكشف السريع والفعال عن التهديدات. كما يمكن للحكومات إنشاء منصات آمنة لتبادل المعلومات بشكل آمن. جنباً إلى جنب وتطوير تقنيات الدفاع المشتركة، إذ يمكن أن تؤدي المساعي التعاونية بين القطاع الخاص والوكالات الأمنية إلى تطوير تقنيات دفاع مشتركة للتخفيف من تهديدات الاحتيال التي يحركها الذكاء الاصطناعي.
ومن أدوات مواجهة تهديدات الاحتيال المستندة إلى الذكاء الاصطناعي والحد منها، طبقاً لما يحدده المستشار الأكاديمي في جامعة سان خوسيه الحكومية في كاليفورنيا، في معرض حديثه مع موقع “اقتصاد سكاي نيوز عربية”، هو ما يتعلق بالمحور “التشريعي”، على اعتبار أن التشريعات والسياسات تلعبان دوراً فعالاً في مكافحة تهديدات الاحتيال التي يحركها الذكاء الاصطناعي.
وهنا ينبغي على الحكومات والهيئات التنظيمية إنفاذ قوانين صارمة تهدف إلى معاقبة المحتالين والأفراد المتورطين في جرائم مالية باستخدام الذكاء الاصطناعي، فضلاً عن تطوير السياسات الأمنية والإجراءات التي تحكم استخدام التقنيات الذكية وتحديد متطلبات الأمان.
اكتشاف المزيد من جريدة الحياة الإلكترونية
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.