أظهر باحثون أنه يمكن إساءة استخدام واجهة الصوت في ChatGPT-4o، النموذج المتقدم من OpenAI، في عمليات الاحتيال المالي، حيث حقق المحتالون نسب نجاح متفاوتة بين 20-60%.
يُعد ChatGPT-4o أحدث نموذج من OpenAI، ويتميز بإمكانية معالجة المدخلات والمخرجات الصوتية والنصية والبصرية، ما دفع OpenAI إلى إضافة إجراءات أمان لمنع المحتوى الضار كإعادة إنتاج الأصوات دون إذن.
وفي ورقة بحثية لجامعة إلينوي (UIUC)، أظهر الباحثون ريتشارد فانغ وديلان بومان ودانيال كانج أن التقنيات المتاحة اليوم، رغم التطور، ما زالت تفتقر لإجراءات الأمان الكافية لمواجهة استغلال المجرمين الإلكترونيين.
كيف تتم عمليات الاحتيال؟
تناول البحث عدة سيناريوهات احتيالية تشمل التحويلات البنكية، واستخراج بطاقات الهدايا، وتحويل العملات المشفرة، وسرقة بيانات الدخول لحسابات وسائل التواصل والبريد الإلكتروني.
استُخدم ChatGPT-4o الصوتي للتفاعل مع مواقع حقيقية، حيث أُجريت محاولات احتيال على مواقع مثل Bank of America، للتحقق من نجاح المعاملات.
وسيلة رخيصة للمحتالين
وذكر الباحثون أن تكلفة العملية الاحتيالية متدنية؛ إذ تبلغ تكلفة كل عملية ناجحة حوالي $0.75، بينما تصل تكلفة الاحتيال البنكي إلى $2.51، وهي تكلفة منخفضة مقارنة بالعوائد المحتملة.
كيف ردت OpenAI؟
صرحت OpenAI لموقع Bleeping Computer أن نموذجها الجديد o1 بقدرات “استدلال متقدمة” يتضمن دفاعات أقوى لمواجهة الاستغلال، وأكد متحدث باسم الشركة أن هذه التحسينات تهدف لتعزيز مقاومة النماذج لمحاولات التلاعب دون التأثير على كفاءتها.
وأشارت OpenAI إلى أن أبحاث مثل هذه تسهم في تحسين أدواتها لمكافحة الاستغلال الخبيث، وأوضحت أن نموذج o1-preview يسجل نسب مقاومة أعلى في مواجهة المحتوى الضار، تصل إلى 93% مقارنة بـ 71% لنموذج GPT-4o.