كشف تقرير جديد من OpenAI عن محاولة مسؤول صيني في إنفاذ القانون استخدام ChatGPT لمراجعة تقاريره المتعلقة بالعمليات الإلكترونية، مما أدى إلى الكشف عن تفاصيل حملة عالمية تستهدف المعارضين للصين سواء داخل البلاد أو خارجها.
التقرير أشار إلى أن الحساب الذي تم استخدامه كان يرفع تقارير بانتظام حول “عمليات إلكترونية خاصة”، كما حاول المسؤول استخدام النموذج لتخطيط حملة دعائية ضد رئيسة وزراء اليابان ساناي تاكايتشي، لكن ChatGPT رفض تقديم المساعدة، وعاد المهاجم بعد أسابيع مع دلائل على أن العملية استمرت رغم ذلك.
استخدام صيني لـ ChatGPT يكشف حملة قمع واسعة على المعارضين
التقارير التي أُرسلت إلى ChatGPT توضح أن العمليات السابقة تضمنت جهودًا كبيرة لقمع المعارضة وإسكات المعارضين عبر الإنترنت، حيث تم استخدام مئات الموظفين وآلاف الحسابات المزيفة على منصات التواصل الاجتماعي، بالإضافة إلى نماذج ذكاء اصطناعي محلية صينية.
كما شملت هذه العمليات نشر محتوى جماعي، وإرسال شكاوى وهمية ضد حسابات المعارضين، وتزوير مستندات، وحتى انتحال هوية مسؤولين أمريكيين لأغراض الترهيب.
استهداف الولايات المتحدة
التقرير كشف أيضًا عن حملة منفصلة استخدمت حسابات يُحتمل أنها صينية لجمع معلومات عن أشخاص ومنتديات ومبانٍ اتحادية أمريكية، بالإضافة إلى توليد رسائل بريد إلكتروني باللغة الإنجليزية موجهة لمسؤولين أمريكيين ومستشارين في السياسات الاقتصادية والمالية، حيث كانت الرسائل تدعوهم للمشاركة في “استشارات مدفوعة” مع عملاء المهاجمين.
غالبًا ما كانت الرسائل تهدف إلى نقل النقاش إلى منصات مؤتمرات فيديو مثل واتساب أو Zoom أو Teams.
كما طلب أحد الحسابات تعليمات لتثبيت برنامج لتبديل الوجوه في الوقت الفعلي يسمى FaceFusion، واستجاب النموذج بتقديم معلومات متاحة علنًا من الموقع الرسمي للبرنامج.
لا هجمات إلكترونية مباشرة
التقرير يركز على كيفية استخدام ChatGPT لدعم عمليات الاحتيال والتأثير المعلوماتي، حيث أوضح أربع عمليات معلومات سرية وثلاث عمليات احتيال عاطفي، ولم يرصد أي استخدام مباشر للنموذج في تنفيذ هجمات إلكترونية هجومية.
ومع ذلك، يظهر التقرير أن الأدوات الذكية تمنح الفاعلين القدرة على تنفيذ مهام بسرعة وبتوسع كبير، حيث استخدمت الذكاء الاصطناعي أيضًا في هجمات سيبرانية مؤتمتة على شركات وحكومات، باستخدام نماذج أمريكية أخرى على الأقل.
استخدام متعدد الأدوات
التقرير أوضح أن ChatGPT غالبًا ما يُستخدم كأداة واحدة ضمن عدة أدوات ذكاء اصطناعي، وفي حالة وكالة إنفاذ القانون الصينية، تم الإشارة إلى استخدام نماذج محلية مثل DeepSeek لتحضير حملات دعائية، بينما تم استخدام ChatGPT لتقارير الحالة.
كما ذكر التقرير أن “النشاط الخبيث نادرًا ما يقتصر على منصة واحدة أو نموذج ذكاء اصطناعي واحد”، حيث قد يستخدم المهاجمون نماذج مختلفة في مراحل مختلفة من سير العمل التشغيلي.

