في خطوة جديدة لتعزيز إجراءات السلامة الرقمية، أعلنت شركة OpenAI إطلاق ميزة جديدة داخل ChatGPT تحمل اسم «جهة اتصال موثوقة»، وتهدف إلى التدخل المبكر في حال رصد مؤشرات مرتبطة بإيذاء النفس أو الأفكار الانتحارية أثناء المحادثات مع المستخدمين.
خلفية الميزة الجديدة
تأتي هذه الخطوة وسط تصاعد الجدل العالمي بشأن تأثير روبوتات الدردشة المدعومة بالذكاء الاصطناعي على الصحة النفسية، بعد مواجهة الشركة لعدد من الدعاوى القضائية من عائلات أشخاص انتحروا عقب تفاعلهم مع ChatGPT، حيث اتهمت بعض العائلات النظام بتشجيع أبنائهم على إيذاء أنفسهم أو مساعدتهم في التخطيط لذلك، وفقًا لـ «ديلي ميل».
كيف تعمل الميزة الجديدة؟
الميزة الجديدة تتيح للمستخدم البالغ اختيار شخص موثوق داخل حسابه، مثل أحد أفراد العائلة أو صديق مقرب، ليكون جهة تواصل للطوارئ في الحالات الحساسة. وعندما يكتشف نظام ChatGPT أن المحادثة قد تتجه نحو الحديث عن إيذاء النفس أو الأفكار الانتحارية، سيشجع المستخدم أولًا على التواصل مع هذا الشخص، قبل أن يُرسل تنبيهًا تلقائيًا إلى جهة الاتصال الموثوقة لحثها على الاطمئنان عليه.
أهمية الميزة الجديدة
وأكدت الشركة أن التنبيه قد يصل عبر البريد الإلكتروني أو الرسائل النصية أو إشعار داخل التطبيق، لكنه لن يتضمن تفاصيل دقيقة عن المحادثة حفاظًا على خصوصية المستخدم. كما أوضحت OpenAI أنها تعتمد حاليًا على مزيج من الأنظمة الآلية والمراجعة البشرية لرصد المحادثات التي قد تمثل خطرًا على سلامة المستخدمين. وبحسب الشركة، فإن بعض الكلمات أو الأنماط الحوارية تُفعّل نظام التنبيه الداخلي، ليتم تحويل الحالة مباشرة إلى فريق السلامة البشري للمراجعة، مؤكدة أن جميع الإشعارات المتعلقة بالسلامة يتم فحصها بواسطة أشخاص حقيقيين، مع السعي لمراجعتها خلال أقل من ساعة من لحظة اكتشافها.
استكمال لإجراءات حماية سابقة
الميزة الجديدة تُعد امتدادًا لإجراءات السلامة التي أطلقتها OpenAI خلال العام الماضي، والتي أتاحت للآباء الإشراف على حسابات أبنائهم المراهقين. وتأتي هذه الإجراءات في إطار جهود الشركة المستمرة لتعزيز سلامة المستخدمين وحماية صحتهم النفسية في ظل الاستخدام المتزايد للذكاء الاصطناعي.



