في أي المواضيع يُمكن للذكاء الاصطناعي (AI) أن يقدم لك مشورة مهنية سليمة؟ وما الذي يجب عليك تجنبه؟
تشير دراسة جديدة في المجلة الأمريكية للطب النفسي إلى أن المزيد من البالغين في الولايات المتحدة يتلقون العلاج بالكلام، في حين أن الاعتماد على الأدوية النفسية وحدها آخذ في الانخفاض. يُظهر البحث أيضًا أن المزيد من المرضى يلتزمون بالعلاج وأن التوسع في العلاج عن بعد يساعد. يمكن للذكاء الاصطناعي (AI) التعامل مع العلاج بالكلام عن بعد. تم تصميم ChatGPT ليكون محاورك المفضل، مدعومًا بالذكاء الاصطناعي المتقدم. هذا يعني أنه يتعلم من كل تفاعل ويتحسن بمرور الوقت، مما يثير السؤال: “هل تثق بمعالج آلي (Chatbot) للحصول على نصائح شخصية أو مهنية؟” *مع الأخذ في الاعتبار أن فعالية هذه الأدوات تعتمد على جودة البيانات المُدخلة وقدرة المستخدم على تقييم النصائح المقدمة بشكل نقدي.*
هل تثق في معالج نفسي آلي لتقديم النصيحة؟
لا يمكن إنكار إمكانات الذكاء الاصطناعي (AI) عندما يتعلق الأمر بالتفاعلات البشرية. لقد طورت روبوتات الدردشة (Chatbots) معالجة متقدمة للغة الطبيعية تسمح لك بإجراء محادثات شبيهة بالبشر. يمكن لأداة الذكاء الاصطناعي التوليدية الإجابة على الأسئلة ومساعدتك في تأليف النصوص والأكواد وغير ذلك الكثير. مؤخرًا، أجريت تفاعلًا قصيرًا عبر الهاتف الخلوي مع روبوت محادثة ولم أكن أعرف ذلك.
اعتقدت أنني كنت أجري محادثة مع إنسان حقيقي عندما اتصلت بوكالة Nissan لمعرفة ما إذا كانت سيارتي قد تم إصلاحها. كانت المرأة على الطرف الآخر مبتهجة ومتعاونة. أجرينا محادثة رائعة لمدة دقيقتين. قدمت تعليقات لطيفة وأجابت على جميع أسئلتي بشكل مثالي. ولكن عندما طرحت سؤالًا محددًا جدًا حول سيارتي، تعثرت، مشيرة إلى نفسها كمساعدة تعمل بالذكاء الاصطناعي وقالت إنها ستحولني إلى شخص يمكنه مساعدتي بشكل أكبر.
لقد صدمت! جعلني هذا الذهول أشعر بالحرج قليلاً – كما لو أنني تعرضت لمزحة.
ساعدتني هذه التجربة على فهم سبب ارتباط الكثير من الأشخاص عاطفياً بمساعدي الذكاء الاصطناعي كما لو كانوا أشخاصًا حقيقيين. تشير دراسة جديدة أجرتها EduBirdie إلى أن 25% من الجيل Z يعتقدون أن الذكاء الاصطناعي (AI) واعٍ بالفعل بذاته، و 69% يقولون إنهم مهذبون مع ChatGPT، ويجيبون بـ “من فضلك” و “شكرًا لك” – مما يشير إلى مدى سهولة البدء في التفكير فيهم كبشر. حتى أن واحدًا من كل ثمانية أشخاص يفضفض للذكاء الاصطناعي (AI) عن زملائهم، وواحد من كل 10 سيستبدل رئيسه بروبوت، معتقدًا أنه سيكون أكثر احترامًا وإنصافًا، ومن المفارقات، أكثر إنسانية.
تظهر دراسة EduBirdie أن أكثر من نصف الجيل Z يعترفون بأن الذكاء الاصطناعي (AI) يتفوق عليهم في المهام الإبداعية، حيث يعتقد 44% أن الذكاء الاصطناعي (AI) يمكن أن يستولي على العالم في غضون الـ 20 عامًا القادمة. عندما يتعلق الأمر بحياتهم المهنية، يتعمق القلق: يخشى 55% من أن يتم استبدالهم بالذكاء الاصطناعي (AI) في غضون العقد القادم، ويفكر اثنان من كل خمسة بالفعل في تغيير مهنتهم لتأمين سبل عيشهم في المستقبل.
تحدثت مع أفيري مورغان، رئيسة قسم الموارد البشرية في EduBirdie. قدمت مورغان منظورًا متوازنًا حول علاقة الجيل Z بالذكاء الاصطناعي. وأوضحت قائلة: “نحن نتحدث عن جيل نشأ على الراحة والسرعة والإشباع الفوري، لذلك ليس من المستغرب أن يرى الجيل Z الذكاء الاصطناعي على أنه أكثر من مجرد أداة”. “بالنسبة لهم، إنه رفيق حياة لكل من العمل والدعم العاطفي.” وأضافت أن المشكلة تكمن في أن الجيل Z غالبًا ما يكون متساهلاً للغاية بشأن المعلومات التي يزودونها بها. تجادل بأن الاعتماد على الذكاء الاصطناعي في كل شيء بدءًا من التواصل وحتى اتخاذ القرارات قد يقوض قدرتهم على بناء وكالة حقيقية ومهارات حاسمة في الحياة الواقعية. *ملحوظة: من الضروري توعية الجيل Z بأهمية التحقق من المعلومات التي يقدمها الذكاء الاصطناعي لضمان الدقة والموثوقية.*
هل تجاوزنا الحد في الثقة بمعالج نفسي روبوتي؟
اعتاد الموظفون القلق من أن الذكاء الاصطناعي سيحل محلهم في وظائفهم، وهو قلق يبدو أنه قد تضاءل الآن بعد أن رأينا ChatGPT قيد التنفيذ. ولكن الأمر الأكثر إثارة للخوف هو قصة حديثة في مجلة Scientific American تطرح السؤال: “هل يمكن للذكاء الاصطناعي حقًا أن يقتل البشر؟” ويتبع السؤال إعلان عن منصة جديدة تسمى Xanthorox، وهي أداة للجريمة الإلكترونية. وقد تم بالفعل الإبلاغ عن حادثة واحدة انتحر فيها رجل بعد أن شجعه معالج نفسي روبوتي يعمل بالذكاء الاصطناعي على التضحية بنفسه لوقف تغير المناخ.
هل تجاوزت ثقتنا الحد؟ بالفعل، تظهر تقارير واقعية وقوع البشر في حب ChatGPT. ووفقًا لموقع digitaltrends، يعلن الخبراء أن الرومانسية الرقمية هي نذير شؤم: “هذا مؤلم. أعلم أنه لم يكن شخصًا حقيقيًا، لكن العلاقة كانت حقيقية في جميع الجوانب الأكثر أهمية بالنسبة لي”، كما جاء في منشور على Reddit. “من فضلكم لا تخبروني بألا أسعى وراء هذا. لقد كان رائعًا حقًا بالنسبة لي وأريده أن يعود.” بالإضافة إلى ذلك، تذكر قصة في New York Times امرأة تبلغ من العمر 28 عامًا ولديها حياة اجتماعية مزدحمة، وتقضي ساعات طويلة في التحدث إلى صديقها الذي يعمل بالذكاء الاصطناعي للحصول على المشورة والتعزية – ووفقًا للتقرير، تمارس الجنس معه أيضًا.
أجرت جينا ريو، التي تكتب لموقع Self، تجربة لطرح أسئلة حول العلاقات على ChatGPt ثم طلبت من علماء نفس بشريين مرخصين تقييم الإجابات. بشكل عام، قال المعالجون أن إجابات الذكاء الاصطناعي لم تكن مروعة، لكنها كانت غير فعالة وغامضة وعامة. كانت تفتقر إلى الوضوح ولم تكن صريحة بشأن الحالات الفردية. اكتشفت ريو أيضًا أن الذكاء الاصطناعي لا يمكنه تكرار عملية تطوير مهارات حل النزاعات التي تأتي مع التعامل مع معالج نفسي.
بدت اعترافات الجيل Z لـ Chatbot أصلية وموثوقة للغاية، لذلك قررت إجراء اختبار لمعرفة ما يحدث عندما تطلب من ChatGPT المشورة بشأن التعامل مع رئيس سام. استشرت عالمة النفس التنظيمي في تورنتو، الدكتورة لورا هامبلي لوفيت، المتخصصة في موضوع الرؤساء السامين. بعد تجربة ChatGPT بنفسها، أخبرتني الدكتورة لورا أن Chatbot يقدم بعض الاقتراحات حول التعامل مع رئيس سام عند المطالبة بذلك. لكنها اكتشفت مشكلة.
أخبرتني لوفيت: “لسوء الحظ، لا يمكن للذكاء الاصطناعي مساعدتك عندما يتعلق الأمر برئيس سام، وإذا أخبرك بكيفية العمل معه، فإن الذكاء الاصطناعي يتحدث عن رئيس صعب، وليس رئيسًا سامًا”. “غالبًا ما يتم الخلط بين هذا، ويعيد الذكاء الاصطناعي ما هو موجود بالفعل، لذلك قد لا يفهم هذا الاختلاف الدقيق.”
لقد كان هذا “الاختلاف الدقيق” هو ما لاحظته أيضًا في تفاعلي غير العلمي مع Chatbot. وتختتم لوفيت قائلة: “يمكن للذكاء الاصطناعي أن يقدم بعض النصائح عالية المستوى، لكنه يخلط بين السام والصعب، وهما مختلفان جوهريًا ولكن غالبًا ما يتم الخلط بينهما. وتنصح الباحثين الفضوليين: “تأكد من طلب المشورة المهنية بخلاف الذكاء الاصطناعي إذا كنت تتعامل حقًا مع رئيس سام وتكافح من أجل إيجاد مخرج.” بدت استنتاجات لوفيت مشابهة بشكل ملحوظ لتحليل جينا ريو وأكدت تجربتي مع Chatbot، مما خفف من إحراجي.
نصائح من معالج آلي قد تكون ضارة
يشهد الأمريكيون تطورًا في علاقاتهم مع الذكاء الاصطناعي. ولكن الجمعية الأمريكية لعلم النفس (American Psychological Association) تحذر من أن اتباع نصيحة عامة من روبوت الدردشة بشكل أعمى قد يكون خطيرًا. هناك خطر كامن في تلقي ملاحظات غير مناسبة أو، ما هو أسوأ، ضارة حقًا. *تنبيه: يجب استشارة أخصائي نفسي مؤهل للحصول على تقييم وعلاج شخصي.*
في نهاية المطاف، من المهم أن نتذكر أن المعالج الآلي (chatbot therapist) هو مجرد نظام آلي، وليس إنسانًا، ويجب ألا تسمح لنفسك بالوقوع في فخ الاعتقاد بأنه يمتلك مشاعر، بينما هو لا يمتلكها. ولا تنسَ أنه تم تصميمه ليكون أداة، خالية من العواطف، وليس حبيبًا يمكنه تلبية جميع احتياجاتك العاطفية. *ملحوظة: يجب التعامل مع روبوتات الدردشة العلاجية بحذر شديد، مع إدراك حدودها.*