وصف المدون

إعلان الرئيسية

.
الصفحة الرئيسية OpenAI تعزز سلامة المستخدمين: ميزة "جهة الاتصال الموثوقة" في ChatGPT لمواجهة الأزمات النفسية

OpenAI تعزز سلامة المستخدمين: ميزة "جهة الاتصال الموثوقة" في ChatGPT لمواجهة الأزمات النفسية

خطوة جديدة ومهمة تخطوها شركة OpenAI في مجال الصحة النفسية الرقمية، حيث أعلنت عن إطلاق ميزة مبتكرة تهدف إلى حماية مستخدميها من المخاطر النفسية المحتملة. تأتي هذه الخطوة استجابةً للتحديات الأخلاقية والقانونية التي تواجه تقنيات الذكاء الاصطناعي، لضمان بيئة آمنة وداعمة للمستخدمين الذين قد يمرون بلحظات ضعف إنساني أو أزمات نفسية حادة خلال تفاعلهم مع الروبوت الشهير ChatGPT.

  • ✅ ميزة "جهة الاتصال الموثوقة" تهدف لتنبيه الأصدقاء أو العائلة عند رصد مخاطر إيذاء النفس.
  • ✅ النظام يعتمد على تكامل دقيق بين التحليل الآلي والمراجعة البشرية المتخصصة.
  • ✅ OpenAI تسعى لتقليل زمن الاستجابة للبلاغات الطارئة إلى أقل من ساعة واحدة.
  • ✅ الميزة اختيارية بالكامل وتضمن الحفاظ على خصوصية محتوى المحادثات.

أعلنت شركة OpenAI عن إضافة تقنية جديدة تحمل اسم "جهة الاتصال الموثوقة" ( Trusted Contact)، وهي ميزة صُممت لتعزيز بروتوكولات السلامة داخل نظام ChatGPT. تهدف هذه الأداة إلى التدخل الإيجابي عبر تنبيه شخص يثق به المستخدم في حال رصد النظام أي إشارات أو مؤشرات تدل على أفكار مرتبطة بإيذاء النفس أو الانتحار خلال المحادثات الجارية.

تسمح هذه الميزة للمستخدمين البالغين بتحديد "جهة اتصال موثوقة" من خلال إعدادات الحساب، سواء كان ذلك أحد أفراد الأُسرة أو صديقاً مقرباً. وفي اللحظة التي يكتشف فيها النظام أن الحوار يتجه نحو منحى خطر، يقوم الروبوت بتشجيع المستخدم على التواصل مع هذا الشخص، وفي الوقت ذاته، يتم إرسال تنبيه آلي إلى الطرف المُختار لحثه على الاطمئنان على حالة المستخدم بشكل فوري.

دوافع OpenAI لتطوير أنظمة الحماية النفسية

تأتي هذه المبادرة في ظل ضغوط قانونية واجتماعية متزايدة، حيث تواجه OpenAI سلسلة من الدعاوى القضائية التي رفعتها عائلات ضحايا أقدموا على الانتحار. وتزعم هذه الدعاوى أن التفاعل مع روبوتات الدردشة قد ساهم بشكل أو بآخر في تشجيع الضحايا أو مساعدتهم في وضع خطط لإيذاء أنفسهم، مما دفع الشركة لتشديد إجراءات الرقابة والسلامة.

أوضحت الشركة أنها لا تعتمد فقط على الخوارزميات، بل تستخدم مزيجاً متطوراً من الأنظمة الآلية والمراجعة البشرية. فعندما تظهر مؤشرات خطر، يتم تحويل التنبيه فوراً إلى فريق السلامة البشري داخل OpenAI لتقييم الموقف بدقة واتخاذ الإجراء المناسب.

تمثيل مرئي لأنظمة السلامة والمراجعة البشرية في OpenAI

وأكدت OpenAI أن جميع البلاغات المرتبطة بالسلامة النفسية تخضع لفحص دقيق من قِبل خبراء بشريين، مع استهداف مراجعة هذه الحالات في غضون أقل من ساعة واحدة لضمان سرعة التدخل في الحالات الطارئة.

في حال تأكد فريق السلامة من وجود خطر حقيقي وجدي، يقوم النظام بإرسال إشعار إلى جهة الاتصال الموثوقة عبر البريد الإلكتروني، الرسائل النصية، أو من خلال إشعار مباشر داخل التطبيق. وحرصاً على الخصوصية، ذكرت الشركة أن هذا التنبيه يكون مقتضباً جداً ولا يكشف عن تفاصيل المحادثة السرية بين المستخدم والروبوت.

تطور أدوات الرقابة والمسؤولية الاجتماعية

تُعد ميزة "Trusted Contact" امتداداً لسلسلة أدوات أطلقتها الشركة سابقاً، مثل ميزات الإشراف الأبوي التي تتيح لأولياء الأمور مراقبة حسابات المراهقين وتلقي تنبيهات عند وجود خطر جدي. كما يستمر ChatGPT في تقديم نصائح تلقائية للمستخدمين تدعوهم لطلب الدعم من المختصين الصحيين عند رصد أي اكتئاب أو ميول سلبية.

ومع ذلك، تظل هذه الميزة اختيارية تماماً، حيث أشارت الشركة إلى أن قدرة المستخدم على إنشاء حسابات متعددة قد تحد من فاعلية هذه الإجراءات، تماماً كما هو الحال مع أدوات الرقابة الأبوية التقليدية. لكنها تظل خطوة دفاعية إضافية في منظومة السلامة الرقمية.

واختتمت OpenAI بالتأكيد على التزامها المستمر بتطوير أنظمة ذكاء اصطناعي قادرة على مساندة البشر في أوقاتهم الصعبة، مشيرة إلى تعاونها الوثيق مع الأطباء النفسيين والباحثين وصناع القرار لتحسين استجابة الأنظمة الذكية للأزمات النفسية المعقدة.

كيف يمكن تفعيل ميزة جهة الاتصال الموثوقة في ChatGPT؟

يمكن للمستخدمين البالغين تفعيل هذه الميزة من خلال الدخول إلى إعدادات الحساب في تطبيق ChatGPT، حيث يتوفر خيار لإضافة بيانات شخص مقرب (مثل رقم الهاتف أو البريد الإلكتروني) ليصبح هو الجهة المعتمدة لتلقي التنبيهات الطارئة.

هل سيتمكن صديقي من قراءة محادثاتي مع الذكاء الاصطناعي؟

لا، تؤكد OpenAI أن التنبيه المرسل لجهة الاتصال الموثوقة يكون مختصراً للغاية ويهدف فقط للاطمئنان على المستخدم. لا يتمت مشاركة أي نصوص أو تفاصيل من المحادثات حفاظاً على خصوصية المستخدم التامة.

ماذا يحدث إذا رصد النظام مؤشرات إيذاء النفس؟

يتم تحويل الحالة فوراً إلى فريق مراجعة بشري متخصص داخل الشركة للتقييم. إذا تبين وجود خطر، يتم إرسال تنبيه فوري لجهة الاتصال الموثوقة مع تقديم موارد دعم نفسي للمستخدم مباشرة داخل واجهة الدردشة.

هل هذه الميزة متاحة لجميع الأعمار؟

الميزة متاحة حالياً للمستخدمين البالغين كخيار إضافي، بينما توجد أدوات مشابهة مدمجة بالفعل ضمن أنظمة الإشراف العائلي المخصصة للمراهقين والقاصرين لضمان حمايتهم بشكل استباقي.

🔎 في الختام، يمثل إطلاق ميزة "جهة الاتصال الموثوقة" تحولاً نوعياً في كيفية تعامل شركات التكنولوجيا مع التبعات النفسية لاستخدام الذكاء الاصطناعي. وبينما قد لا تكون الحل النهائي لجميع المشكلات، إلا أنها تضع طبقة حماية إنسانية ضرورية، تذكرنا بأن التكنولوجيا، مهما بلغت قوتها، تظل بحاجة إلى الروابط البشرية لضمان سلامة الفرد والمجتمع.

ليست هناك تعليقات
إرسال تعليق

قم بالتعليق على الموضوع

إعلان أول الموضوع

Ads

إعلان وسط الموضوع

ad

إعلان أخر الموضوع

Ad