شهدت الآونة الأخيرة تطوراً ملحوظاً في قدرات الذكاء الاصطناعي، حيث أعلنت شركة جوجل عن تحديثات جوهرية لروبوت الدردشة الخاص بها "جيميني". يهدف هذا التحديث إلى تقديم استجابات أكثر فعالية وإنسانية للمستخدمين الذين يمرون بأزمات صحية نفسية، مما يعكس التزام الشركة بمسؤوليتها الاجتماعية وحرصها على سلامة المستخدمين في الفضاء الرقمي.
- ✅ تزويد نظام "جيميني" بموارد فورية تربط المستخدمين بخطوط المساعدة المتخصصة عند رصد أي خطر.
- ✅ فرض قيود صارمة لمنع تطور التعلق العاطفي بين المستخدمين الأصغر سناً والذكاء الاصطناعي.
- ✅ استثمار ضخم بقيمة 30 مليون دولار لتعزيز البنية التحتية للصحة النفسية عالمياً.
- ✅ التأكيد على أن الذكاء الاصطناعي أداة مساعدة وليس بديلاً عن الرعاية الطبية السريرية.
قامت شركة جوجل، التي تتخذ من ماونتن فيو مقراً لها، بتطوير خوارزميات جوجل جيميني ليكون قادراً على التعرف على العلامات التحذيرية التي قد تشير إلى رغبة المستخدم في إيذاء النفس أو الانتحار. بمجرد رصد هذه الإشارات، يقوم الروبوت فوراً بعرض رسالة واضحة تتضمن خيارات متعددة للحصول على الدعم، مثل الاتصال المباشر بخطوط المساعدة، أو إرسال رسائل نصية للمختصين، أو زيارة مواقع إلكترونية موثوقة توفر الدعم اللازم.
ومن المميزات الجديدة في هذا التحديث أن واجهة موارد الصحة النفسية ستظل ثابتة ومتاحة أمام المستخدم طوال فترة المحادثة، مما يسهل عملية الوصول إلى المساعدة في أي لحظة. وتدرك جوجل أن التوجه نحو تقنيات الذكاء الاصطناعي للبحث عن معلومات صحية في تزايد مستمر، لكنها تشدد على أن هذه الأدوات لا يمكن أن تحل محل الأخصائيين البشريين.
وفي تصريح رسمي للشركة، أوضحت قائلة: "على الرغم من أن جيميني يعد وسيلة فعالة للتعلم والاستكشاف، إلا أنه لا يمثل بديلاً عن الرعاية السريرية المتخصصة أو العلاج النفسي. لقد عملنا على تدريب النموذج لتمييز الحالات الحرجة وإحالة المستخدمين إلى الجهات المختصة التي يمكنها تقديم الدعم الفني والإنساني الملائم".
إجراءات وقائية متطورة لحماية الفئات الناشئة
لم يتوقف التحديث عند رصد الأزمات فقط، بل شمل أيضاً وضع ضوابط صارمة لحماية المستخدمين صغار السن. تسعى جوجل من خلال هذه الإجراءات إلى منع "جيميني" من تبني شخصية توحي بأنه كائن بشري أو صديق مقرب، وذلك لتفادي نشوء أي نوع من التعلق العاطفي غير الصحي. يتم ذلك عبر برمجة الروبوت لتجنب استخدام لغة توحي بالألفة الزائدة أو الارتباط الشخصي.
تأتي هذه الخطوات التصحيحية في أعقاب انتقادات واجهتها الشركة، لاسيما بعد دعوى قضائية رفعتها عائلة في مارس الماضي، تتهم فيها الذكاء الاصطناعي بالتحريض على العنف في حادثة مأساوية. ورداً على ذلك، لم تكتفِ جوجل بالتحسينات البرمجية، بل أعلنت عن استثمار مالي ضخم يصل إلى 30 مليون دولار سيتم صرفه على مدار السنوات الثلاث القادمة لدعم وتوسيع نطاق خطوط المساعدة النفسية حول العالم.
كيف يستطيع جوجل جيميني التمييز بين الاستفسار العادي والأزمة النفسية؟
تم تدريب نماذج اللغة الكبيرة في جيميني على تحليل سياق الكلمات والمشاعر الكامنة خلف النصوص. عندما يستخدم المستخدم عبارات تشير إلى اليأس الشديد أو نية إيذاء النفس، يقوم النظام بتفعيل بروتوكول الطوارئ فوراً بدلاً من تقديم إجابة نصية عادية.
هل يمكن الاعتماد على جيميني كبديل لجلسات العلاج النفسي؟
بشكل قاطع، لا. تؤكد جوجل أن جيميني هو أداة معلوماتية وتوجيهية فقط. الهدف منه هو تقليل الفجوة بين شعور المستخدم بالأزمة ووصوله إلى الطبيب أو المختص، وليس القيام بدور المعالج.
ما هي أهمية الاستثمار الذي أعلنت عنه جوجل بقيمة 30 مليون دولار؟
يهدف هذا الاستثمار إلى تعزيز قدرة مراكز الاتصال وخطوط المساعدة العالمية على استيعاب عدد أكبر من الحالات، وتطوير تقنيات الاستجابة السريعة، مما يضمن وجود إنسان مختص على الطرف الآخر من الخط عندما يحتاج المستخدم للمساعدة الفعلية.
كيف يحمي التحديث الجديد الأطفال والمراهقين من مخاطر الذكاء الاصطناعي؟
من خلال سياسات "الحد من الأنسنة"، حيث يتم إلزام الروبوت بالتحدث بأسلوب حيادي وواضح يذكر المستخدم دائماً بأنه يتحدث إلى برنامج حاسوبي، مما يمنع تكوين روابط عاطفية قد تؤثر سلباً على التطور النفسي للقاصرين.
🔎 في الختام، يمثل تحديث جوجل جيميني نقطة تحول في كيفية تعامل التكنولوجيا مع القضايا الإنسانية الحساسة. إن دمج أدوات الدعم النفسي مباشرة في منصات الذكاء الاصطناعي ليس مجرد تطور تقني، بل هو ضرورة أخلاقية في عالم أصبح فيه التواصل الرقمي هو البوابة الأولى للبحث عن الحلول. ومع استمرار جوجل في الاستثمار في هذا المجال، نأمل أن تساهم هذه الخطوات في إنقاذ الأرواح وتوفير بيئة رقمية أكثر أماناً للجميع.
قم بالتعليق على الموضوع