يشهد عالم التكنولوجيا اليوم تحولاً جذرياً في أساليب الاختراق، حيث لم تعد البرمجيات والشبكات هي الثغرة الوحيدة المهددة للأمن الرقمي. في كشف مثير للقلق، أثبت باحثون أن نماذج الذكاء الاصطناعي، التي كانت تُعتبر "صناديق سوداء" منيعة، أصبحت الآن عرضة للاستنساخ الكامل والسرقة عن بُعد. هذا التهديد الجديد لا يعتمد على اختراق الأكواد، بل على استغلال الآثار الفيزيائية التي تتركها الأجهزة أثناء معالجة البيانات، مما يفتح باباً جديداً من المخاطر التي تهدد الملكية الفكرية لأكبر شركات التقنية في العالم.
💡 ملخص المقال:
يسلط هذا المقال الضوء على تقنية ModelSpy، وهي وسيلة مبتكرة لسرقة بنية نماذج الذكاء الاصطناعي من خلال تحليل الإشارات الكهرومغناطيسية المنبعثة من وحدات معالجة الرسومات (GPU)، مع توضيح مدى دقة هذا الهجوم وسبل الوقاية منه.
- ✅ اكتشاف تقنية ModelSpy التي تتيح استنساخ نماذج الذكاء الاصطناعي دون الوصول المباشر للنظام.
- ✅ الهجوم يعتمد على التقاط الإشارات الكهرومغناطيسية المنبعثة من الـ GPU من مسافات بعيدة.
- ✅ دقة استنتاج البنية الداخلية للنماذج وصلت إلى نسبة مذهلة بلغت 97.6%.
- ✅ التحذير من ضرورة تأمين "الآثار الجانبية للأجهزة" وليس فقط البرمجيات.
كيف يعمل هجوم ModelSpy على استغلال نقاط ضعف الأجهزة؟
تعتمد الطريقة المبتكرة التي أطلق عليها الباحثون اسم ModelSpy على ما يُعرف بتقنيات "الهجوم الجانبي" (Side-channel attack). بدلاً من محاولة كسر التشفير أو البحث عن ثغرة في الكود البرمجي، يقوم المهاجمون بالتركيز على النشاط الفيزيائي للمكونات الصلبة. أثناء قيام وحدة معالجة الرسومات (GPU) بمعالجة المهام المعقدة للذكاء الاصطناعي، فإنها تصدر إشارات كهرومغناطيسية دقيقة جداً. هذه الإشارات ليست عشوائية، بل تحمل في طياتها أنماطاً فريدة تعكس بدقة كيفية ترتيب الطبقات والمعايير داخل النموذج.
المثير للدهشة هو بساطة المعدات المطلوبة لتنفيذ هذا الاختراق؛ فقد استخدم الباحثون هوائياً صغيراً يمكن إخفاؤه بسهولة داخل حقيبة ظهر عادية. هذا الجهاز البسيط مكنهم من التقاط الإشارات من مسافة تصل إلى عدة أمتار، والأسوأ من ذلك، أن الهجوم كان فعالاً حتى من خلال الجدران، مما يعني أن المهاجم لا يحتاج حتى إلى التواجد في نفس الغرفة مع الجهاز المستهدف.
نتائج مرعبة: دقة تصل إلى 97.6% في إعادة بناء النماذج
من خلال تحليل البيانات التي تم جمعها بواسطة الهوائي، استطاع الفريق البحثي استنتاج تفاصيل بالغة الحساسية حول بنية النموذج المستهدف. تضمنت هذه التفاصيل ترتيب الطبقات الحسابية والمعايير الأساسية التي تشكل جوهر تقنية الذكاء الاصطناعي. وقد أظهرت النتائج أن النظام قادر على تحديد البنى الداخلية بدقة تصل إلى 97.6%، وهي نسبة كفيلة بجعل عملية الاستنساخ مطابقة للأصل تقريباً.
هذا الاكتشاف يضع الملكية الفكرية للشركات في مهب الريح. ففي السابق، كانت الشركات تعتمد على عزل خوادمها مادياً وبرمجياً لحماية خوارزمياتها، ولكن مع ModelSpy، أصبح بإمكان أي منافس أو جهة تخريبية الحصول على "وصفة النجاح" الخاصة بالنموذج دون ترك أي أثر رقمي للاختراق، ودون الحاجة للمساس بالخوادم بشكل مباشر.
مستقبل أمن الأنظمة المعزولة والإجراءات المضادة
يؤكد هذا الهجوم أن مفهوم الأمن السيبراني يجب أن يتوسع ليشمل الانبعاثات الفيزيائية للأجهزة. حتى الأنظمة المعزولة تماماً عن الإنترنت (Air-gapped systems) لم تعد آمنة إذا لم يتم التحكم في تسرب إشاراتها الكهرومغناطيسية. يمثل هذا التحدي صداعاً جديداً لمهندسي الأجهزة الذين يتعين عليهم الآن التفكير في كيفية "تلطيخ" هذه الإشارات أو حجبها.
كحلول أولية لمواجهة هذا التهديد، اقترح الباحثون عدة استراتيجيات دفاعية، منها إدخال "ضوضاء كهرومغناطيسية" متعمدة للتشويش على أجهزة الالتقاط، أو تعديل أنماط الحساب داخل الـ GPU بطريقة تجعل الإشارات الصادرة غير قابلة للتفسير أو التحليل المنطقي من قبل المهاجمين.
هل يمكن لجميع أنواع الـ GPU أن تتسرب منها هذه البيانات؟
نعم، من الناحية النظرية، أي جهاز إلكتروني يقوم بمعالجة بيانات مكثفة يصدر انبعاثات كهرومغناطيسية. ومع ذلك، فإن وحدات معالجة الرسومات المستخدمة في الذكاء الاصطناعي هي الأكثر عرضة لأنها تعمل بأنماط متكررة ومنظمة تسهل عملية تحليل الإشارات واستخراج الأنماط منها.
ما هي المسافة القصوى التي يمكن من خلالها تنفيذ هجوم ModelSpy؟
في التجارب التي أجراها الباحثون، تمكنوا من التقاط الإشارات بوضوح من مسافة عدة أمتار. ومع تطور أجهزة الاستقبال والهوائيات، قد تزداد هذه المسافة، خاصة إذا لم تكن هناك جدران عازلة أو حماية كهرومغناطيسية للمكان.
هل سرقة بنية النموذج تعني سرقة البيانات التي تدرب عليها؟
الهجوم الحالي يركز بشكل أساسي على سرقة "البنية المعمارية" للنموذج (أي كيف تم تصميمه وترتيب طبقاته). ومع أن هذا لا يعني سرقة بيانات التدريب الخام مباشرة، إلا أن معرفة البنية تسهل بشكل كبير عمليات "الهندسة العكسية" التي قد تؤدي في النهاية إلى كشف معلومات حساسة حول كيفية عمل النموذج وبياناته.
كيف يمكن للمؤسسات حماية نفسها من هذا النوع من التجسس؟
يجب على الشركات التي تتعامل مع نماذج ذكاء اصطناعي حساسة البدء في استخدام غرف محصنة كهرومغناطيسياً (قفص فاراداي) لوضع خوادمها، أو تبني حلول برمجية تقوم بتغيير تسلسل العمليات الحسابية بشكل عشوائي لجعل الإشارات الكهرومغناطيسية غير مفهومة للمهاجم.
🔎 في الختام، يذكرنا هجوم ModelSpy بأن الصراع بين المبتكرين والمخترقين لا ينتهي أبداً، وأنه ينتقل الآن من شاشات الحاسوب إلى العالم الفيزيائي الملموس. إن حماية مستقبل الذكاء الاصطناعي تتطلب نظرة شاملة تدمج بين قوة الأكواد البرمجية ومناعة الأجهزة المادية، لضمان بقاء الابتكارات التكنولوجية بعيدة عن أيدي العابثين.


قم بالتعليق على الموضوع