شهدت الأوساط التقنية في الولايات المتحدة وأوروبا والبرازيل حالة من الجدل الواسع عقب الإعلان الأخير لشركة ميتا. ففي إطار سعيها للامتثال للقوانين الصارمة التي تنظم تواجد القاصرين على منصات التواصل الاجتماعي، قامت الشركة بتحديث سياسات الخصوصية الخاصة بها لتقديم تقنية متطورة تعتمد على الذكاء الاصطناعي. هذه الخطوة، رغم تبريراتها القانونية، أثارت موجة من القلق بين أولياء الأمور والمدافعين عن الخصوصية الرقمية، حيث تضع بيانات الأطفال تحت مجهر الخوارزميات بشكل غير مسبوق.
ملخص المقال:
تستعد شركة ميتا لإطلاق أداة تحليل وجوه تعتمد على الذكاء الاصطناعي لتقدير أعمار المستخدمين المراهقين، بهدف حماية القاصرين وتطبيق قيود المحتوى، وسط مخاوف متزايدة بشأن الخصوصية وسجلات الشركة السابقة في إدارة بيانات المستخدمين.
- ✅ استخدام خوارزميات متطورة لتقدير العمر بناءً على الملامح الجسدية.
- ✅ إجراءات تلقائية لإغلاق حسابات المستخدمين دون سن 13 عاماً.
- ✅ فرض قيود مشددة على المحتوى للفئة العمرية بين 13 و18 عاماً.
- ✅ نفي رسمي لاستخدام التقنية كأداة للتعرف على الهوية الشخصية.
آلية عمل نظام التحقق العمري الجديد من ميتا
كشفت ميتا عن أداة تعتمد كلياً على تطبيقات ميتا الذكية لفحص وجوه المستخدمين بحثاً عن سمات بيولوجية تحدد الفئة العمرية. الفكرة تكمن في أنه إذا استنتج النظام أن عمر المستخدم يقل عن 13 عاماً، فسيتم حظر الملف الشخصي فوراً. أما المراهقون في المرحلة العمرية بين 13 و18 عاماً، فسيخضعون لخوارزميات وقائية تمنع وصولهم إلى أنواع معينة من المحتوى الذي قد يكون غير مناسب لسنهم.
المثير للجدل في هذه العملية هو أن الذكاء الاصطناعي لن يكتفي بالصور التي يرسلها المستخدم طواعية للتحقق، بل سيمتد عمله ليشمل تحليل كافة الصور ومقاطع الفيديو التي يرفعها المراهق على المنصة. هذا يعني أن كل حركة أو صورة يتم مشاركتها ستكون خاضعة لتدقيق تقني مكثف لتصنيف المستخدم عمرياً.
هل هي تقنية للتعرف على الوجوه أم مجرد تقدير للعمر؟
تصر شركة مارك زوكربيرج على أن هذه الأداة لا تندرج تحت مسمى "التعرف على الوجوه" (Facial Recognition). وتوضح ميتا أن النظام لا يحدد هوية الشخص ولا يربط وجهه باسمه أو بياناته الشخصية، بل يركز فقط على "الإشارات البصرية العامة" مثل بنية العظام، الطول، وتعبيرات الوجه لتقدير العمر التقريبي.
وفي تصريح رسمي، ذكرت الشركة: "تقنيتنا تحلل المحتوى البصري للبحث عن دلائل قد لا تظهر في النصوص. نحن لا نحدد من هو الشخص، بل نحاول فهم الفئة العمرية التي ينتمي إليها لضمان بيئة آمنة." ومع ذلك، تظل الشكوك قائمة حول مدى دقة هذه التقنية واحتمالية إساءة استخدامها في المستقبل، خاصة مع تزايد المخاوف بشأن خصوصية البيانات.
سوابق تثير الريبة وتعمق فجوة الثقة
لا تأتي مخاوف المستخدمين من فراغ، بل هي نتيجة سلسلة من الإخفاقات السابقة للشركة. فقبل فترة وجيزة، تم الكشف عن قيام ميتا بتحليل مقاطع فيديو سجلها مستخدمون في كينيا عبر نظارات "راي بان ميتا" بشكل يدوي، مما اعتبر انتهاكاً صارخاً للخصوصية. كما زاد الطين بلة فصل الشركة لموظفين تورطوا في مشاهدة محتوى خاص وحساس للمستخدمين تم تسجيله عبر نفس النظارات، وهي الحادثة التي واجهتها الشركة بصمت مطبق بدلاً من تقديم حلول جذرية.
ما هي الدول التي ستطبق فيها ميتا هذه التقنية الجديدة؟
ستبدأ ميتا بتفعيل أداة تحليل الوجوه في الولايات المتحدة، دول الاتحاد الأوروبي، والبرازيل، وذلك استجابة للتشريعات المحلية التي تفرض حماية أكبر للقاصرين على الإنترنت.
هل يمكن للذكاء الاصطناعي أن يخطئ في تقدير عمري؟
نعم، تعتمد التقنية على تقديرات بصرية لبنية العظام والملامح، مما قد يؤدي أحياناً إلى أخطاء في التصنيف، وهو ما قد يتسبب في إغلاق حسابات عن طريق الخطأ أو تقييد محتوى لمستخدمين بالغين.
كيف تحمي ميتا خصوصية الصور التي يتم تحليلها؟
تزعم الشركة أن البيانات المستخدمة في التقدير العمري لا يتم تخزينها كبصمات وجه دائمة ولا تُستخدم لتحديد الهوية الشخصية، بل تُعالج لحظياً لغرض التصنيف العمري فقط.
لماذا ترفض ميتا تسميتها بتقنية التعرف على الوجوه؟
لأن تقنية التعرف على الوجوه تهدف لتحديد "من أنت"، بينما تهدف أداتهم الجديدة فقط لتحديد "كم عمرك" بناءً على سمات عامة، وهو تمييز قانوني تسعى الشركة من خلاله لتجنب الملاحقات القضائية المتعلقة بالخصوصية.
🔎 في الختام، يبدو أن الصراع بين الأمان الرقمي والخصوصية الشخصية قد وصل إلى مرحلة جديدة مع دخول أدوات الذكاء الاصطناعي في صلب عمليات التحقق اليومية. وبينما تدافع ميتا عن خطوتها كإجراء ضروري لحماية الأطفال من المحتوى الضار، يظل التساؤل الأهم: هل نضحي بآخر معاقل خصوصيتنا البصرية مقابل وعود بالأمان من شركة لا تزال تحاول ترميم ثقة مستخدميها؟ الأيام القادمة وتفاعلات الجهات التنظيمية هي من سيحدد مصير هذه التقنية ومدى قبولها عالمياً.
قم بالتعليق على الموضوع