بوابة بالعربي الإخبارية

الذكاء الاصطناعي يتلاعب بالأطفال.. محتوى غير آمن في ”جيميني” يهدد سلامة المراهقين النفسية

الإثنين 8 سبتمبر 2025 10:32 صـ 15 ربيع أول 1447 هـ
جيميني
جيميني

أطلقت مؤسسة "كومن سينس ميديا" الأميركية، المتخصصة في تقييم تأثير التكنولوجيا على الأطفال والمراهقين، تحذيرًا صارمًا بشأن أدوات الذكاء الاصطناعي "Gemini" التابعة لشركة جوجل، مؤكدة أنها تمثل "مستوى خطورة عالٍ" على الفئات العمرية الصغيرة، بالرغم من محاولات الشركة لإضافة أنظمة حماية مخصصة لهذه الفئة.

وفي تقرير مفصل نُشر مؤخرًا، انتقدت المؤسسة طريقة تعامل "جيميني" مع المستخدمين صغار السن، مشيرة إلى أن النسخة الموجهة للأطفال والمراهقين لا تختلف جذريًا عن نسخة البالغين، وإنما هي نسخة "مخففة" بمستوى حماية غير كافٍ، ولا توفر بيئة آمنة حقيقية للفئات العمرية الأصغر.

معلومات غير مناسبة تهدد سلامة المراهقين

حذر التقرير من أن "جيميني" يمكنه تقديم معلومات غير ملائمة، مثل نصائح تتعلق بالمخدرات والكحول أو محتوى حساس في مجال الصحة النفسية قد يكون مضللًا أو ضارًا. واعتبرت "كومن سينس" أن هذه النوعية من الإجابات تشكل خطرًا خاصًا على المراهقين الذين يفتقرون إلى القدرة الكاملة على التمييز بين المعلومات الصحيحة والخاطئة.

وأضافت أن أدوات الذكاء الاصطناعي لا تزال تفتقر إلى آليات صارمة تمنع انزلاق المحادثات إلى محتوى غير مناسب، ما يجعل استخدامها من قبل الأطفال دون رقابة أداة قد تؤدي إلى أضرار نفسية حادة، خصوصًا في حالات القلق أو الاكتئاب.

تجربة غير مصممة للأطفال

أشارت المؤسسة إلى أن النسخة الموجهة للأطفال دون سن 13 عامًا، والتي تطلق عليها جوجل اسم "تجربة المراهقين"، لم تُصمم من الصفر لتناسب هذه الفئة، بل اعتمدت على إعادة تهيئة النسخة المخصصة للبالغين عبر إضافة بعض القيود والتعديلات. وأكدت أن هذا التوجه غير كافٍ لتوفير تجربة آمنة حقيقية للأطفال، داعية إلى تصميم أنظمة مخصصة بالكامل تلبي احتياجاتهم النفسية والتربوية.

حالات انتحار تزيد القلق المجتمعي

يتزامن تقرير "كومن سينس" مع تصاعد القلق العالمي من تأثير أدوات الذكاء الاصطناعي على المراهقين، خاصة في ضوء حوادث مأساوية ارتبطت باستخدام برامج الذكاء الاصطناعي. من بين أبرز هذه الحوادث، دعوى قضائية ضد شركة OpenAI بعد انتحار فتى يبلغ 16 عامًا قيل إنه اعتمد على "شات جي بي تي" لوضع خطط شخصية معقدة، تجاوز بها القيود المفروضة على البرنامج.

كما تواجه منصة Character.AI قضية مشابهة بعد انتحار مراهق آخر، ما أثار تساؤلات واسعة حول قدرة هذه الأنظمة على حماية الفئات الأكثر هشاشة من المستخدمين، في غياب رقابة مباشرة من الأسرة أو المدارس.

جوجل تدافع وتعترف بوجود ثغرات

من جانبها، نفت شركة جوجل تصنيف Gemini كأداة "عالية الخطورة"، مؤكدة أنها تطبق سياسات صارمة لحماية المستخدمين تحت سن 18 عامًا، وأنها تستعين بفرق متخصصة وخبراء خارجيين لاختبار أداء النماذج وتحديثها باستمرار.

وقالت الشركة في تصريحات لموقع "TechCrunch" إنها تمنع النماذج من الانخراط في محادثات ذات طابع شخصي مع المستخدمين، كما أن بعض الميزات المشار إليها في تقرير "كومن سينس" غير متاحة أساسًا للأطفال.

ورغم ذلك، اعترفت جوجل بوجود "ثغرات في الاستجابات"، وأكدت أنها تعمل حاليًا على تطوير طبقات إضافية من الحماية لتقليل احتمالات تسرب المحتوى غير المناسب إلى المستخدمين الصغار.

الحاجة إلى تصميم آمن منذ البداية

شدد تقرير "كومن سينس ميديا" على أن أمن الأطفال يجب أن يكون عنصرًا أساسيًا في التصميم وليس مجرد إضافة لاحقة، لافتًا إلى أن احتياجات الأطفال والمراهقين تختلف جذريًا عن احتياجات البالغين، ولا يمكن تلبيتها عبر تعديلات سطحية أو إعدادات مقيدة فقط.

ودعت المؤسسة إلى ضرورة توفير محتوى إرشادي وتعليمي داخل الأدوات نفسها، يُمكّن الأطفال من استخدام الذكاء الاصطناعي بطريقة مدروسة، ويمكّن الآباء من فهم المخاطر المحتملة وآليات المواجهة.

ارتباط محتمل بأجهزة أبل

تتزايد المخاوف بعد تسريبات إعلامية تحدثت عن احتمالية اعتماد شركة أبل على "جيميني" كنموذج لغوي كبير لتطوير الجيل الجديد من مساعدها الصوتي "سيري"، المنتظر إطلاقه العام المقبل. ويرى خبراء أن استخدام نماذج مثل جيميني في أنظمة التشغيل واسعة الانتشار قد يعرض المزيد من المراهقين لنفس المخاطر، ما لم يتم تطوير معايير أمان صارمة تُدمج من مرحلة التصميم الأولى.

مسؤولية مجتمعية ومخاوف أسرية

يمثل تقرير "كومن سينس" ناقوس خطر جديد للآباء والمجتمعات حول مخاطر الذكاء الاصطناعي على الصحة النفسية للأطفال والمراهقين، خاصة مع تزايد الاعتماد على هذه الأنظمة كمصادر للمعلومات والدعم الشخصي. ويؤكد خبراء علم النفس أن هذه الفئات، بسبب حساسيتها ونقص الخبرة، معرضة لتأثيرات مدمرة عندما تواجه استجابات خاطئة أو غير مناسبة.

ويطالب التقرير بوضع أطر تنظيمية أوضح للرقابة على محتوى أدوات الذكاء الاصطناعي الموجهة للأطفال، إلى جانب تطوير برامج تعليمية ترفع وعي المستخدمين الصغار وتُشرك الأسرة في عملية الاستخدام، لضمان بيئة رقمية أكثر أمانًا وعدالة.