WormGPT: أداة ذكاء اصطناعي جديدة تمكِّن الهاكرز من تنفيذ هجمات إلكترونية متطورة

يتناول هذا المقال عن WormGPT: أداة ذكاء اصطناعي جديدة تمكِّن الهاكرز من تنفيذ هجمات إلكترونية متطورة مع تزايد شعبية الذكاء الاصطناعي هذه الأيام، ليس من المستغرب أن تم استغلال هذه التكنولوجيا من قبل الأطراف الخبيثة لصالحها، مما يمكنها من تسريع جرائم الإنترنت.

ما هو WormGPT؟

وفقًا لاستنتاجات من شركة SlashNext، تم الإعلان عن أداة جديدة للجرائم الإلكترونية تعتمد على تكنولوجيا الذكاء الاصطناعي التوليدي تحمل اسم “WormGPT” على المنتديات السوداء كوسيلة للخصوم لتنفيذ هجمات التصيد الاحتيالي واختراق البريد الإلكتروني للشركات.

قال الباحث الأمني دانيال كيلي: “تُعرض هذه الأداة كبديل سلبي لنماذج GPT، وتم تصميمها خصيصًا للأنشطة الخبيثة”، “يمكن الهاكرز استخدام مثل هذه التكنولوجيا لتلقيم البريد الإلكتروني المزيف الذي يبدو مقنعًا للغاية، ومصممًا خصيصًا للمستلم، وبالتالي زيادة فرص نجاح الهجوم.”

وقد وصف مؤلف البرنامج هذا الأخير بأنه “أكبر عدو لنموذج ChatGPT المشهور” والذي “يمكنك من القيام بأنواع مختلفة من الأعمال غير القانونية.”

في أيدي الأطراف الخبيثة، يمكن لأدوات مثل WormGPT أن تكون سلاحًا قويًا، خاصة مع اتخاذ OpenAI ChatGPT و Google Bard خطوات متزايدة لمكافحة سوء استخدام نماذج اللغة الكبيرة (LLMs) في إنتاج رسائل الصيد الاحتيالية المقنعة وإنشاء رموز خبيثة.

قد يهمك ايضًا: أشهر المواقع لمراقبة الهجمات السيبرانية بين الدول (الهاكرز)

مخاطر WormGPT

قالت شركة Check Point في تقريرها هذا الأسبوع: “قيود Bard المضادة للسوء التصرف في مجال الأمن السيبراني أقل بكثير مقارنةً بتلك الموجودة في ChatGPT”، “وبالتالي، من الأسهل بكثير إنشاء محتوى خبيث باستخدام قدرات Bard.”

البريد الإلكتروني
WormGPT: أداة ذكاء اصطناعي جديدة تمكِّن الهاكرز من تنفيذ هجمات إلكترونية متطورة

في فبراير الماضي، كشفت شركة الأمن السيبراني الإسرائيلية عن كيفية عمل الجرائم الإلكترونية على تجاوز قيود ChatGPT عن طريق استغلال واجهة برمجة التطبيقات (API) الخاصة به. بالإضافة إلى ذلك، يتاجرون بحسابات مميزة سرقوها ويبيعون برامج قوة الاختراق لاختراق حسابات ChatGPT باستخدام قوائم ضخمة تحتوي على عناوين بريد إلكتروني وكلمات مرور.

WormGPT الذكاء الاصطناعي الغير اخلاقي

يُظهر الواقع أن WormGPT يعمل دون أي حدود أخلاقية، مما يؤكد على التهديد الذي يشكله الذكاء الاصطناعي التوليدي، حيث يمكن للمجرمين الإلكترونيين المبتدئين إطلاق هجمات بسرعة وبحجم كبير دون الحاجة إلى المهارات الفنية اللازمة لذلك.

والأمر يزداد سوءًا بترويج المهاجمين لعمليات “كسر السجن” لـ ChatGPT، حيث يصممون استفبالات ومدخلات مخصصة تهدف إلى تلاعب الأداة لإنتاج محتوى يمكن أن يكشف عن معلومات حساسة، أو ينتج محتوى غير مناسب، أو ينفذ رموز ضارة.

قال كيلي: “يمكن للذكاء الاصطناعي التوليدي إنشاء رسائل بريد إلكتروني بقواعد لغوية مثالية، مما يجعلها تبدو شرعية ويقلل من احتمال التعرض للاشتباه”.

“استخدام الذكاء الاصطناعي التوليدي يجعل من تنفيذ هجمات BEC متطورة متاحًا للجميع. حتى المهاجمين ذوي المهارات المحدودة يمكنهم استخدام هذه التكنولوجيا، مما يجعلها أداة يمكن الوصول إليها لنطاق أوسع من الجرائم الإلكترونية”.

تأتي هذه المعلومات بينما قام باحثون من Mithril Security بتعديل نموذج الذكاء الاصطناعي مفتوح المصدر المعروف باسم GPT-J-6B بطريقة “جراحية” لترويج المعلومات الكاذبة، ورفعوه إلى مستودع عام مثل Hugging Face ليتم دمجه في تطبيقات أخرى، مما يؤدي إلى ما يسمى بتلويث سلسلة توريد النماذج اللغوية الكبيرة (LLM).

يعتمد نجاح هذه التقنية المسماة PoisonGPT على الشرط الأساسي ألا وهو رفع النموذج المشوه باستخدام اسم يتظاهر بأنه لشركة معروفة، في هذه الحالة، نسخة تمت كتابة اسمها بطريقة خاطئة لشركة EleutherAI التي تقف وراء GPT-J.

زر الذهاب إلى الأعلى