بوابة بالعربي الإخبارية

قيود جديدة على “جروك” بعد إساءة استخدامه في محتوى منتهك للخصوصية

الأحد 11 يناير 2026 03:26 مـ 22 رجب 1447 هـ
جروك
جروك

فرضت منصة “إكس” قيودًا إضافية على استخدام نموذج الذكاء الاصطناعي “جروك” (Grok)، عقب تزايد حالات إساءة الاستغلال التي استخدم فيها بعض المستخدمين قدرات النموذج في محاولة إنتاج صور مُسيئة لأشخاص حقيقيين، عبر التلاعب بصورهم الأصلية لإظهارهم وكأنهم بلا ملابس، ما فجّر موجة واسعة من الانتقادات المتعلقة بالخصوصية والسلامة الرقمية.

إساءة استخدام قدرات توليد الصور

وبحسب تقارير متخصصة، لجأ عدد من المستخدمين إلى اختبار إمكانات “جروك” في معالجة الصور وتوليد محتوى بصري اعتمادًا على صور شخصية حقيقية، في محاولات لدفع النموذج إلى إنتاج صور “منزوعة الملابس”، وهي ممارسة تُعرف تقنيًا باسم “نزع الملابس رقميًا” (AI Undressing).

ويؤكد مختصون أن هذه الممارسات تمثل شكلًا من أشكال العنف الرقمي، لما تنطوي عليه من انتهاك صارخ للخصوصية، وقد تقود إلى تشويه السمعة أو الابتزاز أو نشر محتوى إباحي مزيف.

إجراءات إدارية دون تغييرات تقنية

وردًا على هذه الحوادث، اتجهت منصة “إكس” إلى تقليص نطاق الوصول إلى “جروك”، عبر تقييد عدد المستخدمين القادرين على استخدامه أو بعض خصائصه، وربط ذلك بمستويات اشتراك محددة، إلى جانب تشديد بنود سياسة الاستخدام التي تحظر إنشاء محتوى جنسي أو مُسيء بالاعتماد على صور حقيقية.

إلا أن هذه الخطوات، وفق مراقبين، لم تترافق مع تعديلات جوهرية على بنية النموذج أو قدراته التقنية، ما يعني أن القيود الحالية تركز على من يُسمح له باستخدام الأداة، أكثر من تركيزها على منع الأداة نفسها من إنتاج هذا النوع من المحتوى.

انتقادات لفعالية القيود المفروضة

ويرى خبراء في الذكاء الاصطناعي أن الإجراءات المتخذة حتى الآن تبقى محدودة الأثر، ولا تعالج جذور المشكلة، محذرين من أن الاكتفاء بالقيود الإدارية وسياسات الاستخدام لا يوفر حماية كافية للمستخدمين في ظل التطور السريع لقدرات النماذج التوليدية.

مخاطر قانونية وأخلاقية متصاعدة

ويحذر مختصو الخصوصية من أن نماذج الذكاء الاصطناعي باتت قادرة على إنتاج صور شديدة الواقعية لأشخاص حقيقيين في أوضاع لم تحدث فعليًا، مثل الصور العارية المزيفة أو محتوى “الديب فيك”، ما يفتح الباب أمام إشكاليات قانونية وأخلاقية معقدة.

ولا تقتصر هذه المخاطر على المشاهير أو الشخصيات العامة، بل تمتد إلى الأفراد العاديين، الذين قد يصبحون عرضة للتنمر الإلكتروني أو الابتزاز أو أشكال متعددة من العنف الرقمي.

دعوات لإصلاحات أعمق

وفي هذا السياق، تتصاعد الدعوات إلى تبني إصلاحات تقنية وتشريعية أكثر صرامة، تشمل إدماج ضوابط داخل نماذج الذكاء الاصطناعي نفسها لمنع استخدامها في إنتاج محتوى جنسي غير توافقي أو تشهيري، إلى جانب سن قوانين تُجرّم إنتاج وتداول الصور المزيفة التي تنتهك الخصوصية.

كما يطالب خبراء بتحميل الشركات التقنية جزءًا من المسؤولية القانونية في حال تقصيرها في توفير آليات حماية فعالة للمستخدمين.

جدل مستمر حول مسؤولية المنصات

ورغم أن خطوة “إكس” تعكس اعترافًا بوجود مشكلة حقيقية، فإن كثيرين يرون أنها لا ترقى إلى مستوى الإصلاح المطلوب، ما يبقي الجدل مفتوحًا حول مدى التزام المنصات الرقمية وشركات التقنية بحماية المستخدمين من التداعيات الخطيرة لسوء استخدام تقنيات الذكاء الاصطناعي.