لماذا يجب عليك تجنب استخدام ChatGPT كمعالج نفسي: رؤى من Sam Altman وتحذيرات
كن حذرًا بشأن ما تبوح به لـ ChatGPT
فقًا لتصريح سام ألتمان، الرئيس التنفيذي لشركة OpenAI، قد لا يكون اللجوء إلى ChatGPT للحصول على الدعم العاطفي فكرة جيدة، وذلك لسبب بسيط للغاية: لا تخضع روبوتات الدردشة المدعومة بالذكاء الاصطناعي لنفس قوانين السرية المهنية التي يلتزم بها الأطباء والمعالجون النفسيون البشريون.
في ظهور حديث له على إحدى المدونات الصوتية، صرح ألتمان قائلاً: “يستخدمه الناس – وخاصة الشباب – كمعالج نفسي أو مدرب شخصي، حيث يطرحون مشاكلهم العاطفية ويسألون ‘ماذا علي أن أفعل؟'”. جاء هذا التصريح في حلقة حديثة من برنامج This Past Weekend w/ Theo Von.
وأضاف: “في الوقت الحالي، إذا تحدثت إلى معالج نفسي أو محامٍ أو طبيب بشأن هذه المشاكل، فإن هذه المحادثات تتمتع بامتياز قانوني.”
وتابع: “هناك سرية بين الطبيب والمريض، وسرية قانونية، وما إلى ذلك. لم نتوصل بعد إلى حل لهذه المسألة فيما يتعلق بمحادثاتك مع ChatGPT.”
يشير ألتمان إلى أنه في حال وجود دعوى قضائية، قد تضطر OpenAI قانونًا إلى تسليم سجلات المحادثات التي أجراها شخص ما مع ChatGPT. والجدير بالذكر أن الشركة تخوض بالفعل معركة قانونية مع صحيفة New York Times بشأن الاحتفاظ بالمحادثات المحذوفة. في شهر مايو، أصدرت المحكمة أمرًا يلزم OpenAI بالحفاظ على “جميع بيانات سجلات الإخراج التي كان من المفترض حذفها”، حتى لو طلب المستخدم أو قوانين الخصوصية حذفها.
خلال حديثه في المدونة الصوتية، أعرب ألتمان عن اعتقاده بأنه يجب أن يتمتع الذكاء الاصطناعي “بنفس مفهوم الخصوصية لمحادثاتك مع الذكاء الاصطناعي كما هو الحال مع المعالج النفسي أو أي شخص آخر – وهو أمر لم يكن أحد يفكر فيه حتى قبل عام واحد.” وهذا يسلط الضوء على أهمية التشريعات والقواعد المنظمة لاستخدام الذكاء الاصطناعي في المجالات الحساسة مثل الصحة النفسية، لضمان حماية خصوصية المستخدمين وبياناتهم.
هل يستخدم الناس الذكاء الاصطناعي للعلاج النفسي؟
في وقت سابق من هذا العام، قامت شركة Anthropic، المطورة لـ Claude المنافس لـ ChatGPT، بتحليل 4.5 مليون محادثة لتحديد ما إذا كان المستخدمون يلجأون إلى روبوتات الدردشة لإجراء محادثات عاطفية. ووفقًا للدراسة، فإن 2.9% فقط من تفاعلات Claude AI هي محادثات عاطفية، بينما شكلت علاقات الرفقة ولعب الأدوار 0.5% فقط.
في سياق دعوى قضائية، قد يُطلب من OpenAI قانونيًا تسليم سجلات محادثة أجراها شخص ما مع ChatGPT.
على الرغم من أن قاعدة مستخدمي ChatGPT تتجاوز بكثير قاعدة مستخدمي Claude، إلا أنه لا يزال من النادر نسبيًا أن يستخدم الأشخاص برنامج الدردشة الآلي هذا للتواصل العاطفي. وعلى نحو ما يتعارض مع تعليقات Altman المذكورة أعلاه، ذكرت دراسة مشتركة بين OpenAI و MIT: “إن **التفاعل العاطفي مع ChatGPT نادر في الاستخدام الواقعي**.”
وأضاف الموجز: “لم تكن الإشارات العاطفية (جوانب التفاعلات التي تشير إلى التعاطف أو المودة أو الدعم) موجودة في الغالبية العظمى من المحادثات على المنصة التي قمنا بتقييمها، مما يشير إلى أن الانخراط عاطفيًا هو حالة استخدام نادرة لـ ChatGPT.”
حتى الآن، الأمور جيدة. ولكن، إليكم بيت القصيد: الذكاء الاصطناعي للمحادثة سيتحسن فقط في التفاعل والفروق الدقيقة، مما قد يؤدي بسهولة إلى زيادة عدد الأشخاص الذين يلجأون إليه للحصول على المساعدة في المشكلات الشخصية.
تحديث GPT-5 الخاص بـ ChatGPT على وشك الوصول وسيأتي معه المزيد من التفاعلات الطبيعية وزيادة في طول السياق. لذلك، في حين أنه سيصبح من الأسهل مشاركة المزيد من التفاصيل مع الذكاء الاصطناعي، قد يرغب المستخدمون في التفكير مليًا فيما هم مستعدون لقوله.