التحدث مع الأطفال عن الذكاء الاصطناعي: دليل مُبسط ومُفيد
لقد أتيحت لي مؤخرًا فرصة ممتعة للمشاركة في برنامج يسمى Skype a Scientist، والذي يربط العلماء من مختلف التخصصات (علماء الأحياء، علماء النبات، المهندسين، علماء الحاسوب، إلخ) بفصول الأطفال للحديث عن عملنا والإجابة على أسئلتهم. أنا على دراية كبيرة بمناقشة الذكاء الاصطناعي وتعلم الآلة مع جمهور بالغ، ولكن هذه هي المرة الأولى التي أجلس فيها حقًا للتفكير في كيفية التحدث مع الأطفال حول هذا الموضوع، وقد كان تحديًا مثيرًا للاهتمام. اليوم سأشارككم بعض الأفكار التي توصلت إليها كجزء من هذه العملية، والتي قد تكون مفيدة لأولئك منكم الذين لديهم أطفال في حياتهم بطريقة أو بأخرى. هذه الأفكار تقدم رؤى قيمة حول كيفية تبسيط مفاهيم الذكاء الاصطناعي المعقدة للأطفال بطريقة جذابة ومفهومة.
الاستعداد لشرح مفهوم ما
عند الاستعداد لأي حديث، وأمام أي جمهور، أتبع بعض القواعد الأساسية. يجب أن أكون واضحًا جدًا بشأن المعلومات التي أعتزم تقديمها، وما هي المفاهيم الجديدة التي يجب أن يعرفها الجمهور بعد انتهاء الحديث، لأن هذا يحدد كل شيء يتعلق بالمعلومات التي سأشاركها. أريد أيضًا تقديم مادتي بمستوى مناسب من التعقيد للمعرفة الموجودة مسبقًا لدى الجمهور – لا أتبسط الأمور بشكل مفرط، ولكن أيضًا لا أتجاوز مستوى فهمهم.
في حياتي اليومية، لست بالضرورة على دراية كاملة بما يعرفه الأطفال بالفعل (أو يعتقدون أنهم يعرفونه) عن الذكاء الاصطناعي (AI). أريد أن أجعل شروحاتي مناسبة لمستوى الجمهور، ولكن في هذه الحالة لدي رؤية محدودة إلى حد ما حول خلفيتهم المعرفية. لقد فوجئت في بعض الحالات بأن الأطفال كانوا على دراية تامة بأشياء مثل المنافسة في مجال الذكاء الاصطناعي بين الشركات وعبر الحدود الدولية. من التمارين المفيدة عند تحديد كيفية تأطير المحتوى هو ابتكار استعارات تستخدم مفاهيم أو تقنيات يعرفها الجمهور بالفعل جيدًا. يمنحك التفكير في هذا أيضًا نقطة وصول إلى خلفية الجمهور. بالإضافة إلى ذلك، كن مستعدًا لتغيير وتعديل طريقة عرضك التقديمي، إذا قررت أنك لا تصل إلى المستوى الصحيح. أحب أن أسأل الأطفال قليلاً عما يفكرون فيه بشأن الذكاء الاصطناعي وما يعرفونه في البداية، حتى أتمكن من البدء في الحصول على هذا الوضوح قبل أن أتقدم كثيرًا.
فهم التكنولوجيا: أساسيات نماذج الذكاء الاصطناعي
خاصة مع الأطفال، أركز في عروضي التقديمية على عدة محاور رئيسية. يعرف القراء أنني من أشد المؤيدين لتعليم غير المتخصصين كيفية تدريب نماذج اللغات الكبيرة (LLMs) ونماذج الذكاء الاصطناعي الأخرى، وما هي البيانات التي يتم تدريبها عليها. هذا أمر حيوي لتكوين توقعات واقعية حول نتائج هذه النماذج. أعتقد أنه من السهل على أي شخص، بمن فيهم الأطفال، أن ينجذبوا إلى الطبيعة المجسدة لنبرة وصوت وحتى “شخصية” نماذج LLM، وأن يغفلوا عن القيود الواقعية لهذه الأدوات.
يكمن التحدي في تبسيط الأمور بما يتناسب مع الفئة العمرية، ولكن بمجرد أن تشرح لهم كيفية عمل التدريب، وكيف تتعلم نماذج LLM من أمثلة المواد المكتوبة، أو كيف يتعلم نموذج الانتشار من أزواج النصوص والصور، يمكنهم استنتاج فهمهم الخاص حول النتائج المحتملة لذلك. مع ازدياد تعقيد وكلاء الذكاء الاصطناعي، وصعوبة فصل الآليات الكامنة، من المهم أن يعرف المستخدمون اللبنات الأساسية التي تؤدي إلى هذه القدرة.
بالنسبة لي، أبدأ بشرح التدريب كمفهوم عام، وتجنب أكبر قدر ممكن من المصطلحات التقنية المتخصصة. عند التحدث إلى الأطفال، يمكن أن تساعد بعض اللغة المجسدة في جعل الأمور تبدو أقل غموضًا. على سبيل المثال، “نعطي أجهزة الكمبيوتر الكثير من المعلومات ونطلب منها تعلم الأنماط الموجودة بداخلها.” بعد ذلك، سأصف أمثلة للأنماط مثل تلك الموجودة في اللغة أو وحدات البكسل في الصورة، لأن كلمة “أنماط” وحدها عامة وفضفاضة للغاية. ثم، “تُكتب هذه الأنماط التي تتعلمها باستخدام الرياضيات، ثم هذه الرياضيات هي ما يوجد داخل ‘نموذج’. الآن، عندما نعطي معلومات جديدة للنموذج، فإنه يرسل لنا استجابة تستند إلى الأنماط التي تعلمها.” من هناك، أعطي مثالاً شاملاً آخر، وأشرح عملية تدريب مبسطة (عادةً ما يكون نموذجًا للسلاسل الزمنية لأنه من السهل جدًا تصوره). بعد ذلك، سأدخل في مزيد من التفاصيل حول الأنواع المختلفة من النماذج، وأشرح الاختلاف في الشبكات العصبية ونماذج اللغة، بالقدر المناسب للجمهور.
أخلاقيات الذكاء الاصطناعي والتأثيرات الخارجية
أود أيضًا تغطية القضايا الأخلاقية المتعلقة بالذكاء الاصطناعي. أعتقد أن الأطفال في المراحل الابتدائية والإعدادية وما فوق قادرون تمامًا على فهم التأثيرات البيئية و الاجتماعية التي يمكن أن تحدثها تقنيات الذكاء الاصطناعي، بما في ذلك نماذج اللغات الكبيرة (LLMs). يبدو لي أن العديد من الأطفال اليوم متقدمون جدًا في فهمهم لتغير المناخ العالمي والأزمة البيئية، لذا فإن الحديث عن كمية الطاقة والمياه والمعادن النادرة المطلوبة لتشغيل LLMs ليس بالأمر غير المعقول. من المهم فقط جعل تفسيراتك قابلة للفهم و مناسبة لأعمارهم. كما ذكرت سابقًا، استخدم أمثلة ذات صلة وترتبط بالخبرات المعيشية لجمهورك. يجب أن نركز على أخلاقيات الذكاء الاصطناعي و تأثير الذكاء الاصطناعي على المجتمع والبيئة.
إليك مثال على الانتقال من تجربة الطفل إلى التأثير البيئي للذكاء الاصطناعي.
“أليس لديكم جميعًا أجهزة Chromebook لاستخدامها في أداء الواجبات المدرسية؟ هل لاحظتم يومًا عندما تجلسون مع جهاز الكمبيوتر المحمول على ركبتيكم وتعملون لفترة طويلة أن الجزء الخلفي يصبح دافئًا؟ ربما إذا كان لديكم الكثير من الملفات المفتوحة في وقت واحد، أو تشاهدون الكثير من مقاطع الفيديو؟ هذا التسخين هو نفسه ما يحدث في أجهزة الكمبيوتر الكبيرة التي تسمى الخوادم والتي تعمل عند تدريب نموذج لغوي كبير (LLM) أو استخدامه، مثل عندما تذهبون إلى موقع chatGPT.”
“مراكز البيانات التي تحافظ على استمرار chatGPT مليئة بالخوادم التي تعمل جميعها في وقت واحد، وكلها تسخن بشكل كبير، وهو أمر غير جيد للأجهزة. لذلك، تستخدم مراكز البيانات هذه أحيانًا الماء البارد بالإضافة إلى بعض المواد الكيميائية معًا، والتي يتم ضخها عبر أنابيب تمر مباشرة فوق جميع الخوادم، وتساعد هذه في تبريد الآلات والحفاظ على تشغيلها. ومع ذلك، هذا يعني أنه يتم استخدام كمية كبيرة من المياه، ممزوجة بالمواد الكيميائية، وتسخينها أثناء مرورها عبر هذه الأنظمة، وقد يعني ذلك أن هذه المياه غير متاحة للناس لاستخدامها في أشياء أخرى مثل المزارع أو مياه الشرب.”
“في أوقات أخرى، تستخدم مراكز البيانات هذه مكيفات هواء كبيرة، والتي تستهلك الكثير من الكهرباء لتشغيلها، مما يعني أنه قد لا تكون هناك كهرباء كافية لمنازلنا أو للشركات. يتم إنتاج الكهرباء أيضًا في بعض الأحيان عن طريق حرق الفحم في محطات الطاقة، مما يطلق العادم في الهواء ويزيد من التلوث أيضًا.”
هذا يدخل تجربة الطفل في المحادثة، ويعطيهم طريقة ملموسة للارتباط بالمفهوم. يمكنك إجراء أنواع مماثلة من المناقشات حول أخلاقيات حقوق النشر وسرقة المحتوى، باستخدام الفنانين والمبدعين المألوفين للأطفال، دون الحاجة إلى الخوض في تفاصيل قانون الملكية الفكرية. تعتبر التزييفات العميقة، الجنسية وغيرها، بالتأكيد موضوعًا يعرفه الكثير من الأطفال أيضًا، ومن المهم أن يكون الأطفال على دراية بالمخاطر التي تمثلها للأفراد والمجتمع أثناء استخدامهم الذكاء الاصطناعي.
قد يكون الأمر مخيفًا، خاصة بالنسبة للأطفال الصغار، عندما يبدأون في فهم بعض التطبيقات غير الأخلاقية للذكاء الاصطناعي أو التحديات العالمية التي يخلقها، ويدركون مدى قوة بعض هذه الأشياء. لقد سألني الأطفال “كيف يمكننا إصلاح الأمر إذا قام شخص ما بتعليم الذكاء الاصطناعي القيام بأشياء سيئة؟”، على سبيل المثال. أتمنى لو كان لدي إجابات أفضل لذلك، لأنني اضطررت إلى القول بشكل أساسي “الذكاء الاصطناعي لديه بالفعل في بعض الأحيان المعلومات اللازمة للقيام بأشياء سيئة، ولكن هناك أيضًا الكثير من الأشخاص الذين يعملون بجد لجعل الذكاء الاصطناعي أكثر أمانًا ومنعه من مشاركة أي معلومات أو تعليمات سيئة حول كيفية القيام بأشياء سيئة.”
تفكيك مفهوم “الحقيقة”
إن إضفاء الطابع الإنساني على الذكاء الاصطناعي يمثل مشكلة حقيقية للبالغين والأطفال على حد سواء – نميل إلى الوثوق بصوت ودود وواثق عندما يخبرنا بأشياء. جزء كبير من المشكلة هو أن صوت نموذج اللغة الكبير (LLM) الذي يخبرنا بالأشياء غالبًا ما يكون ودودًا وواثقًا وخاطئًا. لقد كان مفهوم الوعي الإعلامي موضوعًا مهمًا في علم التربية لسنوات حتى الآن، وتوسيع نطاقه ليشمل نماذج اللغة الكبيرة (LLMs) هو تطور طبيعي. تمامًا مثلما يحتاج الطلاب (والبالغون) إلى تعلم أن يكونوا مستهلكين نقديين للمعلومات التي يتم إنشاؤها بواسطة أشخاص أو شركات أخرى، نحتاج إلى أن نكون مستهلكين نقديين ومفكرين للمحتوى الذي يتم إنشاؤه بواسطة الكمبيوتر. وهذا يشمل فهم حدود هذه التقنيات.
أعتقد أن هذا يتماشى مع فهم التكنولوجيا أيضًا. عندما أشرح أن مهمة نموذج اللغة الكبير (LLM) هي تعلم اللغة البشرية ونسخها، على أبسط مستوى عن طريق تحديد الكلمة المحتملة التالية في سلسلة بناءً على ما سبقها، فمن المنطقي عندما أقول إن نموذج اللغة الكبير (LLM) لا يمكنه فهم فكرة “الحقيقة”. الحقيقة ليست جزءًا من عملية التدريب، وفي الوقت نفسه، الحقيقة مفهوم صعب حقًا حتى على الأشخاص لفهمه. قد يحصل نموذج اللغة الكبير (LLM) على الحقائق بشكل صحيح في كثير من الأحيان، ولكن النقاط العمياء والأخطاء المحتملة ستظهر من وقت لآخر، بحكم الاحتمالية. نتيجة لذلك، يجب أن يكون الأطفال الذين يستخدمونه على دراية تامة بقابلية الأداة للخطأ.
ومع ذلك، فإن هذا الدرس له قيمة تتجاوز مجرد استخدام الذكاء الاصطناعي، لأن ما نقوم بتدريسه يتعلق بالتعامل مع عدم اليقين والغموض والأخطاء. كما أشار بيرمان وأجاوي (2023)، “تتضمن التربية في عالم يتوسط فيه الذكاء الاصطناعي تعلم العمل مع المواقف المبهمة والجزئية والغامضة، والتي تعكس العلاقات المتشابكة بين الناس والتقنيات.” أنا حقًا أحب هذا التأطير، لأنه يعود إلى شيء أفكر فيه كثيرًا – أن نماذج اللغة الكبيرة (LLMs) يتم إنشاؤها بواسطة البشر وتعكس تفسيرات للمحتوى الذي تم إنشاؤه بواسطة الإنسان. عندما يتعلم الأطفال كيف تتشكل النماذج، وأن النماذج قابلة للخطأ، وأن مخرجاتها تنشأ من مدخلات تم إنشاؤها بواسطة الإنسان، فإنهم يتعرفون على الطبيعة الضبابية لكيفية عمل التكنولوجيا اليوم في مجتمعنا على نطاق أوسع. (في الواقع، أوصي بشدة بالمقالة بأكملها لأي شخص يفكر في كيفية تعليم الأطفال عن الذكاء الاصطناعي بأنفسهم.)
ملاحظة جانبية حول الصور ومقاطع الفيديو
كما ذكرتُ سابقًا، فإن انتشار محتوى الفيديو والصور “المُنتَج بواسطة الذكاء الاصطناعي” أو ما يُعرف بـ “AI slop” يثير العديد من التساؤلات الصعبة. أعتقد أن تزويد الأطفال بالمعلومات في هذا المجال أمر بالغ الأهمية، حيث يسهل استيعاب معلومات مضللة أو أكاذيب صريحة من خلال محتوى مرئي مقنع. هذا المحتوى يعتبر أيضًا خطوة واحدة بعيدة عن عملية الإنشاء الفعلية بالنسبة لمعظم الأطفال، حيث تتم مشاركة الكثير من هذه المواد على نطاق واسع على وسائل التواصل الاجتماعي، ومن غير المرجح أن يتم تصنيفها بشكل صحيح. إن التحدث مع الأطفال حول العلامات التي تساعد في اكتشاف المواد التي تم إنشاؤها بواسطة الذكاء الاصطناعي يمكن أن يكون مفيدًا، بالإضافة إلى مهارات التثقيف الإعلامي النقدي العامة مثل “إذا كان الأمر جيدًا لدرجة يصعب تصديقها، فمن المحتمل أن يكون مزيفًا” و “تحقق جيدًا من الأشياء التي تسمعها في هذا النوع من المنشورات”. من الضروري تعليم الأطفال كيفية التحقق من الحقائق ومصادر المعلومات لتعزيز قدرتهم على التمييز بين المحتوى الحقيقي والمحتوى الزائف.
الغش باستخدام الذكاء الاصطناعي
على الرغم من كل ما نشرحه حول القضايا الأخلاقية ومخاطر أخطاء نماذج اللغات الكبيرة (LLM)، إلا أن أدوات الذكاء الاصطناعي هذه مفيدة وجذابة بشكل لا يصدق، لذلك من المفهوم أن يلجأ بعض الطلاب إلى استخدامها للغش في الواجبات المدرسية وفي المدرسة. أود أن أقول إننا بحاجة فقط إلى التحاور معهم، وشرح أن الهدف هو تعلم المهارات اللازمة لإنجاز الواجبات، وإذا لم يتعلموها فسوف يفقدون القدرات التي يحتاجونها في المراحل الدراسية اللاحقة وفي الحياة لاحقًا… لكننا نعلم جميعًا أن الأطفال نادرًا ما يكونون منطقيين إلى هذا الحد. لا تزال أدمغتهم في طور النمو، وهذا النوع من الأمور يصعب حتى على البالغين التفكير فيه في بعض الأحيان. يتطلب فهم تأثير الذكاء الاصطناعي على التعليم فهماً عميقاً لقدرات هذه الأدوات وتأثيرها المحتمل على تطوير المهارات الأساسية.
هناك منهجان يمكنك اتباعهما بشكل أساسي: إيجاد طرق لجعل العمل المدرسي أصعب أو مستحيل الغش فيه، أو دمج الذكاء الاصطناعي في الفصل الدراسي على افتراض أن الطلاب سيحصلون عليه تحت تصرفهم في المستقبل. الآن، يمكن للعمل الخاضع للإشراف في بيئة الفصل الدراسي أن يمنح الطلاب فرصة لتعلم بعض المهارات التي يحتاجون إليها دون تدخل رقمي. ومع ذلك، كما ذكرت سابقًا، يجب أن تتضمن معرفة استخدام الوسائط حقًا نماذج اللغات الكبيرة الآن، وأعتقد أن الاستخدام الخاضع للإشراف لنماذج اللغات الكبيرة من قبل معلم مطلع يمكن أن يكون له قيمة تربوية كبيرة. بالإضافة إلى ذلك، من المستحيل حقًا “جعل الواجبات المدرسية مقاومة للذكاء الاصطناعي” التي يتم إجراؤها خارج الإشراف المباشر للمعلم، ويجب أن ندرك ذلك. لا أريد أن أجعل الأمر يبدو سهلاً، ومع ذلك – راجع أدناه في قسم قراءات إضافية للحصول على عدد من المقالات العلمية حول التحديات الواسعة لتدريس محو أمية الذكاء الاصطناعي في الفصل الدراسي. يواجه المعلمون مهمة صعبة للغاية تتمثل في محاولة ليس فقط مواكبة التكنولوجيا بأنفسهم وتطوير أساليب التدريس الخاصة بهم لتناسب العصر، ولكن أيضًا محاولة تزويد طلابهم بالمعلومات التي يحتاجونها لاستخدام الذكاء الاصطناعي بمسؤولية. يجب على المعلمين أيضاً التركيز على تعليم الطلاب كيفية تقييم المعلومات التي ينتجها الذكاء الاصطناعي بشكل نقدي، وتطوير مهارات التفكير النقدي لديهم.
التعلم من مثال التربية الجنسية: دروس في الذكاء الاصطناعي
في النهاية، السؤال هو ما الذي يجب علينا أن نوصي به الأطفال بالضبط، وما الذي يجب عليهم تجنبه في عالم يضم الذكاء الاصطناعي، داخل الفصل الدراسي وخارجه. نادرًا ما أكون من دعاة حظر أو منع الأفكار، وأعتقد أن مثال التربية الجنسية الشاملة القائمة على العلم والمناسبة لأعمارهم يقدم درسًا جيدًا. إذا لم يتم تزويد الأطفال بمعلومات دقيقة حول أجسادهم وحياتهم الجنسية، فلن يمتلكوا المعرفة اللازمة لاتخاذ قرارات مستنيرة ومسؤولة في هذا المجال. لن يكون البالغون حاضرين لفرض التفويضات عندما يتخذ الأطفال قرارات صعبة بشأن ما يجب فعله في الظروف الصعبة، لذلك نحتاج إلى التأكد من أن الأطفال مجهزون بالمعلومات المطلوبة لاتخاذ هذه القرارات بأنفسهم بمسؤولية، وهذا يشمل التوجيه الأخلاقي ولكن أيضًا المعلومات الواقعية. وبالمثل، يجب أن نضمن حصول الطلاب على فهم شامل لإمكانيات ومخاطر الذكاء الاصطناعي، حتى يتمكنوا من استخدامه بفعالية ومسؤولية في العصر الرقمي.
نمذجة المسؤولية في استخدام الذكاء الاصطناعي
أمر آخر أرى أنه من المهم ذكره هو أن البالغين يجب أن يكونوا قدوة في السلوك المسؤول عند التعامل مع الذكاء الاصطناعي أيضًا. إذا لم يكن المعلمون وأولياء الأمور وغيرهم من البالغين في حياة الأطفال على دراية نقدية بالذكاء الاصطناعي، فلن يتمكنوا من تعليم الأطفال أن يكونوا مستهلكين نقديين ومفكرين لهذه التكنولوجيا.
لقد أثارت مقالة حديثة في صحيفة نيويورك تايمز حول كيفية استخدام المعلمين للذكاء الاصطناعي بعض الإحباط لدي. لا تعكس المقالة فهمًا كبيرًا للذكاء الاصطناعي، حيث تخلط بينه وبين بعض الإحصائيات الأساسية (قيام المعلم بتحليل بيانات الطلاب للمساعدة في تخصيص تدريسه لمستوياتهم ليس ذكاءً اصطناعيًا ولا جديدًا أو إشكاليًا)، لكنها تبدأ محادثة حول كيفية استخدام البالغين في حياة الأطفال لأدوات الذكاء الاصطناعي، وتذكر الحاجة إلى أن يكون هؤلاء البالغون قدوة في الاستخدامات الشفافة والنقدية له. (كما أنها تتطرق بإيجاز إلى قضية الصناعة الهادفة للربح التي تدفع الذكاء الاصطناعي إلى الفصول الدراسية، والتي تبدو مشكلة تستحق المزيد من الوقت – ربما سأكتب عن ذلك لاحقًا).
لمواجهة أحد تأكيدات المقالة، لن أشتكي من استخدام المعلمين لنماذج اللغة الكبيرة (LLMs) للقيام بمراجعة أولية لتقييم المواد المكتوبة، طالما أنهم يراقبون ويثبتون صحة الناتج. إذا كانت معايير التقييم تدور حول القواعد والإملاء وميكانيكا الكتابة، فمن المحتمل أن يكون نموذج اللغة الكبير مناسبًا بناءً على كيفية تدريبه. لا أريد أن أثق بشكل أعمى في نموذج اللغة الكبير في هذا الأمر دون أن يلقي الإنسان نظرة سريعة على الأقل، ولكن اللغة البشرية هي في الواقع ما تم تصميمه لفهمه. إن فكرة أن “الطالب اضطر إلى كتابتها، لذلك يجب على المعلم أن يضطر إلى تقييمها” سخيفة، لأن الغرض من التمرين هو أن يتعلم الطالب. يعرف المعلمون بالفعل ميكانيكا الكتابة، وهذا ليس مشروعًا يهدف إلى إجبار المعلمين على تعلم شيء لا يمكن تحقيقه إلا عن طريق التقييم اليدوي. أعتقد أن صحيفة نيويورك تايمز تعرف ذلك، وأن التأطير كان في الغالب لأغراض جذب النقرات، لكن الأمر يستحق أن يقال بوضوح.
تعود هذه النقطة مرة أخرى إلى القسم السابق حول فهم التكنولوجيا. إذا كنت تفهم بثقة كيف تبدو عملية التدريب، فيمكنك تحديد ما إذا كانت هذه العملية ستنتج أداة قادرة على إدارة مهمة ما أم لا. لكن أتمتة التقييم كانت جزءًا من التعليم لعقود على الأقل – أي شخص قام بملء ورقة العلامات يعرف ذلك.
إن تطوير هذه التكنولوجيا يجبر نظامنا التعليمي على قدر معين من التكيف، لكن لا يمكننا إعادة هذا المارد إلى القمقم الآن. هناك بالتأكيد بعض الطرق التي يمكن أن يكون للذكاء الاصطناعي آثار إيجابية على التعليم (الأمثلة التي يتم الاستشهاد بها غالبًا هي التخصيص وتوفير وقت المعلمين الذي يمكن بعد ذلك تخصيصه لخدمات الطلاب المباشرة)، ولكن كما هو الحال مع معظم الأشياء، أنا من دعاة الرؤية الواقعية. كما أعتقد أن معظم المعلمين يدركون تمامًا، لا يمكن أن يستمر التعليم كما كان من قبل دخول نماذج اللغة الكبيرة (LLMs) حياتنا.
الخلاصة
الأطفال أذكى مما نعتقد أحيانًا، وأرى أنهم قادرون على فهم الكثير حول ما يعنيه الذكاء الاصطناعي في عالمنا. نصيحتي هي أن نكون شفافين وصريحين بشأن حقائق هذه التكنولوجيا، بما في ذلك المزايا والعيوب التي تمثلها لنا كأفراد ولمجتمعنا ككل. إن الطريقة التي نستخدم بها الذكاء الاصطناعي ستشكل نموذجًا للأطفال، سواء كانت خيارات إيجابية أو سلبية، وهو أمر سينتبهون إليه، لذا فإن التفكير مليًا في أفعالنا بالإضافة إلى ما نقوله أمر أساسي. يجب أن نوضح لهم إمكانيات الذكاء الاصطناعي وتحدياته، مع التركيز على الاستخدام الأخلاقي والمسؤول لهذه التقنية.