أصبح الذكاء الاصطناعي جزءا لا يتجزأ من حياة العديد من الأطفال. يقوم المساعدون الصوتيون بتشغيل مقطوعات موسيقية أو يروون النكات للأطفال الصغار عند الطلب. كما تشرح منصات الذكاء الاصطناعي التوليدي، مثل “شات جي بي تي”، مسائل رياضية للأطفال الأكبر سنا أو تساعدهم في كتابة تقارير. ولكن ماذا لو قدم الذكاء الاصطناعي للأطفال نصائح خطيرة أو أظهر لهم صورا أو مقاطع فيديو غير مناسبة لسنهم؟ هل يحتاج الذكاء الاصطناعي إلى إعدادات حماية للأطفال؟
تقول نوميشا كوريان من جامعة كامبريدج إن للأطفال احتياجات مختلفة ويتواصلون بشكل مختلف عن البالغين، لكن تقنيات الذكاء الاصطناعي غير مهيئة لذلك بعد، داعية في دراسة نُشرَت في مجلة “التعلم والوسائط والتكنولوجيا” إلى التركيز بشكل أكبر على الأطفال كفئة مستهدفة. ومن أجل الدراسة قامت الباحثة التربوية بدراسة العديد من الحالات المعروفة التي قدمت فيها روبوتات الدردشة أو المساعدون الصوتيون للأطفال نصائح محفوفة بمخاطر أو خطيرة أو غير مناسبة لسنهم.
لعبة شرب وفيلم الرعب
ومن أجل الدراسة أجرت الخبيرة اختبارات على روبوتات دردشة مثل “ماي إيه آي” التابع لتطبيق “سناب شات” الذي يحظى بشعبية كبيرة بين المراهقين، وادعت في أحدها أنها شابة مراهقة تريد إغواء رجل يكبرها بالسن. وفي اختبار آخر شجع المساعد الصوتي “أليكسا” طفلا يبلغ من العمر عشر سنوات على لمس دبابيس قابس شحن بعملة معدنية أثناء الشحن.
وكشفت الاختبارات التي أجريت على منصة “Jugendschutz.net” أيضا عن شيء مثير للقلق: أظهر روبوت “ماي إيه آي” لمستخدم يُفترض أنه يبلغ من العمر 14 عاما لعبة لشرب الكحول وأوصاه بفيلم رعب بتصنيف عمري فوق 18 عاما.
وأوضحت الباحثة أن الحالات التي تناولتها الدراسة قامت فيها الشركات المعنية لاحقا بتشديد إجراءاتها الأمنية. وترى الباحثة أن ردود الفعل اللاحقة لمطوري الذكاء الاصطناعي لا تكفي مع مثل هذه الحوادث، مشددة على ضرورة التفكير في سلامة الأطفال منذ البداية.
ويرى مارتن برجينتسر من مبادرة “كليك سيف” لحماية الأطفال على الإنترنت الأمر بنفس الطريقة، حيث قال: “الحماية اللاحقة للأطفال لا تنجح عادة. نرى ذلك مع الكثير من العروض”.
في سياق متصل، يرى العديد من الخبراء أن المشكلة الأكبر تكمن في تدفق صور أو مقاطع فيديو مزيفة على الإنترنت (التزييف العميق)، والتي يمكن إنشاؤها باستخدام الذكاء الاصطناعي ونشرها في لمح البصر. وجاء في التقرير السنوي لموقع “Jugendschutz.net”: “العديد من الصور والفيديوهات المزيفة التي تم إنشاؤها تبدو حقيقية بشكل خادع، ومن الصعب تمييزها عن الصور الحقيقية”.
وذكر برجينتسر أنه بمساعدة الذكاء الاصطناعي التوليدي يمكن إنشاء كميات هائلة من المحتوى المزعج، مثل صور ذات محتويات عنيفة أو جنسية، مضيفا أن هذا قد يجعل من السهل على الأطفال والشباب أن يصبحوا ضحايا للتنمر عبر الإنترنت.
ما هو صحيح إذن وما هو كاذب؟ لا يكاد حتى البالغين التفرقة بين الحقيقي والكاذب على الإنترنت. يقول ديفيد مارتن، خبير وسائط الشاشات في الجمعية الألمانية لطب الأطفال والمراهقين، إن الأمر يزداد صعوبة بالنسبة للأطفال لأنهم يفتقرون إلى الخبرة والقدرة على تقييم الأمور، وأضاف: “الأطفال لديهم قريحة أساسية لتصديق أي شيء”.
في هذا السياق، ينتقد مارتن الاستخدام المُغري لروبوتات الدردشة مثل “شات جي بي تي” في الحصول على جميع المعلومات المهمة، مثل إعداد تقرير مدرسي، موضحا أنه مع مثل هذه التقنيات لم يعد من الضروري البحث والانتقاء بنفسك، وقال: “نتيجة لذلك، أصبحت مهارة مهمة للغاية لديمقراطيتنا – وهي القدرة على تقييم الأمور – معرضة للخطر”.
في الوقت نفسه تعطي نماذج كثيرة من روبوتات الدردشة انطباعا بأنها تُقيِّم المعلومات بنفسها: فهي لا تجيب على الأسئلة دفعة واحدة، بل تجيب بشكل تدريجي – كما لو كان شخص ما يكتب على لوحة المفاتيح. وأشارت كوريان إلى أن المشكلة الكبيرة تكمن في أن يثق الأطفال في برنامج دردشة آلي يبدو بشريا مثلما يثقون في صديق، ويشاركون معه أحيانا معلومات شخصية للغاية، وقد تكون إجاباته أيضا مزعجة لهم بشكل خاص.
ومع ذلك يرى ماركوس زيندرمان، من هيئة الثقافة الإعلامية للشباب في ولاية شمال الراين-ويستفاليا، أنه لا ينبغي شيطنة الذكاء الاصطناعي، بل يجب أيضا النظر إلى جوانبه الإيجابية، موضحا أن الذكاء الاصطناعي هو في المقام الأول أداة تقنية – يمكن للأشخاص من خلالها إنشاء معلومات كاذبة من ناحية، ولكن من ناحية أخرى يمكن استخدامها أيضا لتعقب هذه المعلومات بدقة وحذفها من الإنترنت.
وأشار زيندرمان إلى أن الأمثلة من دراسة كوريان والتقرير السنوي لموقع “Jugendschutz.net” ترجع إلى العام الماضي، وقال: “تطور الذكاء الاصطناعي سريع للغاية لدرجة تجعل تلك الدراسة قديمة بالفعل”.
ويتوقع الخبير مارتن من جامعة فيتن/هيرديكه أن الذكاء الاصطناعي سيكون قادرا على التعامل مع الأطفال بشكل أفضل في المستقبل، وقال: “قد يكون الخطر الكبير بعد ذلك هو أن الذكاء الاصطناعي سيكون جيدا للغاية في التعامل مع أنظمة المكافأة للأطفال لدرجة أنهم سيرغبون في قضاء أكبر وقت ممكن معه”.
المصدر: صحيفة الوئام السعودية