الثلاثاء 18 نوفمبر 2025 04:25 مـ 27 جمادى أول 1447 هـ
بوابة بالعربي الإخبارية
المحرر العام محمد رجب سلامة
×

التجاوزات الأمنية في الذكاء الاصطناعي.. بين مخاطر الخصوصية والعقوبات

الثلاثاء 18 نوفمبر 2025 10:09 صـ 27 جمادى أول 1447 هـ
أ.د.تركي بن عبدالمحسن بن عبيد
أ.د.تركي بن عبدالمحسن بن عبيد

في عصر الذكاء الاصطناعي الذي يغير وجه الحياة اليومية، أصبحت التكنولوجيا سيفاً ذا حدين: يقطع الابتكار طريقاً نحو التقدم، لكنه يهدد أيضاً أمن المعلومات والخصوصية. مع تزايد الاعتماد على أنظمة الذكاء الاصطناعي في قطاعات مثل الرعاية الصحية، التمويل، والأمن السيبراني، برزت تجاوزات أمنية خطيرة تتجاوز حدود التحيزات الخوارزمية إلى انتهاكات مباشرة للسرية. في السعودية، حيث تُعد الهيئة السعودية للبيانات والذكاء الاصطناعي (SDAIA) الجهة الرئيسية للإشراف، أصبحت هذه التجاوزات تحت المجهر، مع عقوبات تصل إلى ملايين الريالات والسجن. يستعرض هذا التقرير الوجه المظلم لهذه التكنولوجيا، مستنداً إلى أحدث التطورات القانونية والأمنية.

《مخاطر التجاوزات الأمنية في الذكاء الاصطناعي》

يُعد الذكاء الاصطناعي أداة قوية للدفاع السيبراني، لكنه يفتح أبواباً واسعة للهجمات المتطورة. من أبرز التجاوزات، استخدام الذكاء الاصطناعي في الهجمات الإلكترونية المدعومة به، مثل "هجمات يوم الصفر" التي تستغل ثغرات غير معروفة قبل اكتشافها، مما يهدد الأنظمة الحكومية والخاصة على حد سواء.<ذه الهجمات، التي تعتمد على خوارزميات التعلم الآلي للتكيف السريع، تتجاوز الطرق التقليدية في السرعة والدقة، مما يجعل الكشف عنها تحدياً كبيراً.

كما يُشكل الذكاء الاصطناعي تهديداً مباشراً لخصوصية الأفراد من خلال سرقة الهوية وانتهاك السرية. على سبيل المثال، يمكن لأدوات الذكاء الاصطناعي توليد صور أو نصوص مزيفة (ديب فيك) تستخدم في الاحتيال أو التشهير، مما يؤدي إلى تسريب بيانات شخصية حساسة.

في الشرق الأوسط، سجلت حالات تصاعد للهجمات المدعومة بالذكاء الاصطناعي، حيث أصبحت المنطقة ساحة نشطة للتهديدات الرقمية، بما في ذلك استخدام الـ"ذكاء الاصطناعي المظلم" لاختراق الشبكات السحابية.

وفقاً لتقارير حديثة، تحتوي نسبة كبيرة من الأكواد البرمجية المولدة بالذكاء الاصطناعي على ثغرات أمنية قابلة للاستغلال، مما يعزز من مخاطر التسربات

في السعودية، أدى انتشار هذه التجاوزات إلى زيادة الوعي الأمني، خاصة مع تطبيق نظام حماية البيانات الشخصية (PDPL) الذي يغطي معالجة البيانات عبر الذكاء الاصطناعي. ومع ذلك، يظل التحدي في موازنة الابتكار مع الحماية، حيث أشارت دراسات إلى أن الذكاء الاصطناعي قد يعرض قطاعات مثل التمويل لخسائر تصل إلى ملايين الدولارات سنوياً بسبب الانتهاكات.

العقوبات على عدم الحفاظ على السرية وأمن المعلومات

لا تكتفي السعودية بالتحذيرات؛ فقد وضعت إطاراً قانونياً صارماً لمواجهة التجاوزات. بموجب نظام حماية البيانات الشخصية الصادر عام 2021 ومعدلاته حتى 2025، تُفرض غرامات تصل إلى 5 ملايين ريال سعودي لكل انتهاك لمعالجة البيانات دون موافقة، أو في حال نشر بيانات حساسة مخالفاً للأحكام.
وفي حالات الانتهاكات الجسيمة، مثل تسريب بيانات شخصية أو استخدامها في الذكاء الاصطناعي دون ضمانات أمنية، يُعاقب الجاني بالسجن لمدة لا تزيد عن سنتين أو غرامة تصل إلى 3 ملايين ريال.

أما في إطار قانون الجرائم المعلوماتية، فإن حذف أو تغيير أو تسريب بيانات خاصة يُعاقب بالسجن حتى 4 سنوات وغرامة تصل إلى 3 ملايين ريال، مع عقوبات أشد للانتهاكات المتكررة أو تلك التي تهدد الأمن العام، مثل السجن 5 سنوات وغرامة 3 ملايين لنشر محتوى يهدد وقد شهدت السعودية أول عقوبة في قضية ذات صلة بالذكاء الاصطناعي، حيث فرضت الهيئة السعودية للملكية الفكرية غرامة قدرها 9 آلاف ريال على فرد بسبب نشر صور معدلة بالذكاء الاصطناعي مخالفة لحقوق النشر، مما يُعد خطوة أولى نحو تنفيذ أوسع.

تُشرف SDAIA على هذه العقوبات، ويمكن للأفراد تقديم شكاوى مباشرة إليها، مع إمكانية تضاعف الغرامات في حال
ومع ذلك، لم يتم الإعلان عن عقوبات رسمية كبيرة حتى الآن في السنة الأولى لتطبيق PDPL، لكن الجهات التنظيمية أكدت استعدادها لفرضها

نحو توازن أمني

مع تزايد التجاوزات في الذكاء الاصطناعي، يبرز الحاجة الملحة لتعزيز الإجراءات الأمنية في السعودية، سواء من خلال تدريب الخوارزميات على الامتثال أو تفعيل آليات الكشف المبكر. العقوبات القاسية ليست مجرد ردع، بل دعوة للشركات للالتزام بنظام PDPL قبل فوات الأوان. في نهاية المطاف، يظل الأمن السيبراني مسؤولية مشتركة بين الجهات الحكومية والقطاع الخاص، لضمان أن يبقى الذكاء الاصطناعي أداة بناء لا تدميراً.

المراجع الرئيسية


- نظام حماية البيانات الشخصية (PDPL)، الهيئة السعودية للبيانات والذكاء الاصطناعي (SDAIA)، 2023.
- قانون الجرائم المعلوماتية، مكتب الخبراء بمجلس الوزراء، 2025.
- تقارير IAPP حول تطبيق PDPL، 2025.
- دراسات RAND حول مخاطر الذكاء الاصطناعي، 2024.

موضوعات متعلقة