لماذا يُخفي ثلث الموظفين تقريبًا استخدامهم لأدوات الذكاء الاصطناعي لتعزيز الإنتاجية؟

الموظفون يتكتمون على استخدام الذكاء الاصطناعي لزيادة الإنتاجية في العمل.

مع استثمار المؤسسات مليارات الدولارات في الذكاء الاصطناعي وسعي الموظفين الحثيث لتطبيقه، تظهر ظاهرة جديدة. العديد من المهنيين في الشركات يستفيدون بهدوء من أدوات الذكاء الاصطناعي بشكل يومي. والأكثر من ذلك أنهم يبقون الأمر سراً.

وفقًا لـ تقرير Ivanti الأخير لعام 2025 حول التكنولوجيا في مكان العمل، فإن ما يقرب من ثلث الموظفين الذين يستخدمون أدوات الذكاء الاصطناعي في العمل يخفونها عن أصحاب العمل. يأتي هذا الكشف في وقت زاد فيه اعتماد الذكاء الاصطناعي بشكل كبير – من 26% من الموظفين الذين يستخدمون الذكاء الاصطناعي في العمل في عام 2024 إلى 42% في عام 2025.

السؤال الواضح هو، ما الذي يدفع المهنيين إلى إخفاء استخدامهم للذكاء الاصطناعي؟ فيما يلي نظرة على علم النفس وراء هذا التكتم وماذا تعني هذه الإنتاجية الخفية المدفوعة بالذكاء الاصطناعي بالنسبة إلى مستقبل العمل.

 

سيكولوجية إخفاء الإنتاجية المعززة بالذكاء الاصطناعي: نظرة معمقة

كشف البحث عن ثلاثة أسباب رئيسية لإخفاء الموظفين لإنتاجيتهم المعززة بالذكاء الاصطناعي، مما يؤثر على ديناميكيات مكان العمل:

  • 36% من الموظفين يستمتعون بامتلاك “ميزة سرية” على زملائهم. في بيئات العمل التنافسية، توفر أدوات الذكاء الاصطناعي ميزة إضافية يتردد البعض في مشاركتها. هذه الميزة السرية قد تعزز الأداء الفردي بشكل ملحوظ.
  • 30% يخشون فقدان وظائفهم إذا اكتشف أصحاب العمل أن الذكاء الاصطناعي يمكنه أداء أجزاء من عملهم. يعكس هذا الخوف قلقًا أوسع بشأن أتمتة الوظائف والأمن الوظيفي المصاحب لزيادة استخدام الذكاء الاصطناعي. ووفقًا لدراسة استقصائية أجرتها مؤسسة Pew Research، يشعر أكثر من نصف العاملين (52%) بالقلق بشأن التأثير المستقبلي للذكاء الاصطناعي في مكان العمل، بينما يعتقد 32% أنه سيؤدي إلى فرص عمل أقل على المدى الطويل. هذا القلق بشأن أثر الذكاء الاصطناعي على الوظائف يعتبر تحديًا كبيرًا يتطلب معالجة فعالة.
  • 27% يعانون مما يسميه الباحثون “متلازمة المحتال المدفوعة بالذكاء الاصطناعي”، معربين عن أنهم “لا يريدون أن يشكك الناس في قدرتهم”. يكشف هذا البعد النفسي عن مدى ترابط هوياتنا المهنية بالعمل الذي ننتجه. هذه المتلازمة قد تؤثر سلبًا على الثقة بالنفس والأداء الوظيفي.

 

مفارقة الذكاء الاصطناعي والإنتاجية: تحقيق أقصى استفادة من استثمارات الذكاء الاصطناعي

في حين تستثمر الشركات بكثافة في تطبيقات الذكاء الاصطناعي، فإنها غالبًا ما تفوت رؤى قيمة حول كيفية استفادة الموظفين فعليًا من هذه الأدوات لتعزيز الإنتاجية. هذا الانفصال واضح بشكل خاص في قطاع تكنولوجيا المعلومات. على الرغم من أن 74% من متخصصي تكنولوجيا المعلومات يستخدمون أدوات الذكاء الاصطناعي، إلا أن أقل من نصف المؤسسات تنشر الذكاء الاصطناعي والأتمتة لسيناريوهات حيث يثبت أنها فعالة للغاية:

  • 42% يستخدمون الذكاء الاصطناعي للصيانة التنبؤية لتكنولوجيا المعلومات
  • 41% يستخدمونه لأتمتة مهام الخدمة الذاتية الروتينية
  • 36% يستخدمون الذكاء الاصطناعي للكشف عن الحالات الشاذة في حركة المرور والتهديدات

بالإضافة إلى ذلك، يشعر الموظفون بالقلق من أن زيادة الإنتاجية ستؤدي إلى مزيد من العمل دون تقدير أو مكافآت إضافية. وفقًا للبحث، يتفق 52% من العاملين في المكاتب مع العبارة التالية: “عندما أعمل بكفاءة أكبر، فإن صاحب العمل يعطيني المزيد من العمل.” هذا يخلق هيكل حوافز يشعر فيه الموظفون بالعقاب بدلاً من المكافأة على مكاسب الإنتاجية. ويفسر أيضًا سبب إبلاغ 46% من العاملين في المكاتب عن استخدام أدوات الذكاء الاصطناعي التي ليست مقدمة من صاحب العمل. عندما يُنظر إلى تحسينات الإنتاجية على أنها ضارة محتملة بالمسيرة المهنية، فإن الموظفين يسعون بشكل طبيعي إلى حلول تبقى بعيدة عن الأنظار. *ملاحظة: هذا يشير إلى أهمية مواءمة أهداف الذكاء الاصطناعي مع حوافز الموظفين.*

 

مخاطر أمن الذكاء الاصطناعي

من بين الجوانب السلبية الخطيرة للاستخدام غير المصرح به لأدوات الذكاء الاصطناعي، أنها تخلق ثغرات أمنية كبيرة. قد يعرض الموظفون الذين يستخدمون منصات الذكاء الاصطناعي غير المعتمدة بيانات الشركة الحساسة عن غير قصد لأنظمة لا تفي بمعايير الأمان المؤسسية. وكما تشير بروك جونسون، المستشارة القانونية الرئيسية ونائبة الرئيس الأول للموارد البشرية والأمن في Ivanti، “إن تبني الموظفين لهذه التكنولوجيا دون إرشادات أو موافقة مناسبة قد يؤدي إلى تغذية الجهات الفاعلة المهددة، وانتهاك عقود الشركة، والمخاطرة بالملكية الفكرية القيمة للشركة.” يضيف هذا القلق الأمني إلحاحًا لمعالجة سرية استخدام الذكاء الاصطناعي. *من المهم تطبيق سياسات واضحة لحماية البيانات.*

 

تضييق فجوة الثقة في الذكاء الاصطناعي

بالنسبة للمؤسسات التي ترغب في الاستفادة من الإمكانات الكاملة للذكاء الاصطناعي مع معالجة مخاوف الموظفين، يمكن لعدة مناهج أن تساعد في تضييق فجوة الثقة المتزايدة في أنظمة الذكاء الاصطناعي، والتي تعتبر عائقًا رئيسيًا أمام التبني الواسع النطاق.

 

وضع سياسات ذكاء اصطناعي شفافة

إن وجود إرشادات واضحة حول الاستخدام المقبول لأدوات الذكاء الاصطناعي يمكن أن يساعد الموظفين على الشعور براحة أكبر عند استخدام هذه التقنيات بشكل مفتوح. يجب أن تتناول هذه السياسات مخاوف أمن البيانات مع تشجيع الابتكار في مجال سياسات الذكاء الاصطناعي.

 

معالجة تصور “عقوبة الإنتاجية”

يجب على المؤسسات التأكد من مكافأة الموظفين الذين يعززون إنتاجيتهم من خلال الذكاء الاصطناعي بدلاً من مجرد تكليفهم بالمزيد من العمل. قد يتضمن ذلك مراجعة مقاييس الأداء وهياكل التعويضات. بمعنى آخر، يجب أن يكون AI productivity حافزًا وليس عبئًا إضافيًا. *غالبًا ما يتم تجاهل هذا الجانب، مما يؤدي إلى مقاومة تبني الذكاء الاصطناعي.*

 

توفير تدريب شامل على الذكاء الاصطناعي

أظهرت الأبحاث أن 44% من المهنيين يقولون إن شركاتهم استثمرت في الذكاء الاصطناعي، ولكن الموظفين يفتقرون إلى التدريب الكافي لاستخدام هذه الأدوات بفعالية. سد هذه الفجوة في المهارات يمكن أن يساعد في تطبيع استخدام الذكاء الاصطناعي، وتعزيز adoption rate.

 

التعرف على الآثار النفسية لتبني الذكاء الاصطناعي

تتطلب معالجة متلازمة المحتال خلق ثقافة يُنظر فيها إلى استخدام أدوات الذكاء الاصطناعي على أنه تعزيز للمهارات وليس استبدالًا لها. يجب على القادة الاعتراف بأن إتقان الذكاء الاصطناعي مهارة قيّمة والاحتفاء بالموظفين الذين يستفيدون بفعالية من هذه الأدوات لتحقيق نتائج أفضل. *يجب التأكيد على أن الذكاء الاصطناعي يعزز القدرات البشرية بدلًا من أن يحل محلها، مما يقلل من القلق المرتبط بالوظيفة.*

 

تحويل الإنتاجية الخفية للذكاء الاصطناعي

إن حقيقة أن ما يقرب من ثلث الموظفين يحتفظون بإنتاجيتهم المدفوعة بالذكاء الاصطناعي سرًا يمثل تحديًا وفرصة للمؤسسات على حد سواء. يكمن التحدي في معالجة مخاوف الموظفين، بما في ذلك المخاوف بشأن الأمن الوظيفي والهوية المهنية و”عقوبة الإنتاجية”. *يشير مصطلح “عقوبة الإنتاجية” إلى الخوف من أن يؤدي استخدام الذكاء الاصطناعي إلى تقليل قيمة الموظف في نظر الإدارة.* تأتي الفرصة في تعظيم الطرق المبتكرة التي يستخدم بها الموظفون بالفعل الذكاء الاصطناعي في العمل. مع تحول الذكاء الاصطناعي لكيفية إنجاز العمل، يجب على المؤسسات إعادة التفكير في كيفية قياس ومكافأة الإنتاجية. لا ينتمي المستقبل إلى المؤسسات التي تنشر أدوات الذكاء الاصطناعي ببساطة، ولكن إلى تلك التي تطور نماذج إنتاجية جديدة تركز على النتائج بدلاً من العمليات. لتحقيق أقصى استفادة من الذكاء الاصطناعي، يجب على الشركات التركيز على مقاييس الأداء الرئيسية (KPIs) التي تعكس القيمة الحقيقية.

 

اترك رد

لن يتم نشر عنوان بريدك الإلكتروني.