الاتحاد الأوروبي يفرض قواعد جديدة صارمة لتنظيم نماذج الذكاء الاصطناعي في السعودية

خالد سليمان

المفوضية الأوروبية تصدر إرشادات جديدة لتنظيم الذكاء الاصطناعي

أصدرت المفوضية الأوروبية مجموعة من الإرشادات التي تهدف إلى مساعدة نماذج الذكاء الاصطناعي ذات المخاطر النظامية في الامتثال للتشريعات الخاصة بالذكاء الاصطناعي، والمعروفة بقانون الذكاء الاصطناعي. تأتي هذه الخطوة في إطار الاستجابة للانتقادات التي وجهتها بعض الشركات حول الأعباء التنظيمية التي يفرضها القانون، كما تهدف إلى توضيح المتطلبات اللازمة لتجنب الغرامات المالية الكبيرة.

تتراوح الغرامات المفروضة على المخالفات بين 7.5 مليون يورو (حوالي 8.7 مليون دولار) أو 1.5% من الإيرادات السنوية، وصولاً إلى 35 مليون يورو أو 7% من الإيرادات العالمية في حالات الانتهاكات الجسيمة.

يُذكر أن قانون الذكاء الاصطناعي دخل حيز التنفيذ العام الماضي، ومن المقرر أن يبدأ تطبيقه الفعلي في 2 أغسطس 2025، على نماذج الذكاء الاصطناعي ذات المخاطر النظامية والنماذج الأساسية التي طورتها شركات كبرى مثل قوقل، وأوبن إيه آي، وميتا، وأنثروبيك، وميسترال. كما يُمنح الشركات مهلة حتى 2 أغسطس 2026 للامتثال الكامل للتشريع.

تصنف المفوضية نماذج الذكاء الاصطناعي ذات المخاطر النظامية على أنها تلك التي تتمتع بقدرات حوسبية متقدمة، والتي قد تؤثر بشكل كبير على الصحة العامة، والسلامة، والحقوق الأساسية، والمجتمع بشكل عام. وستكون هذه النماذج ملزمة بإجراء تقييمات شاملة، وتخفيف المخاطر، وإجراء اختبارات مقاومة، بالإضافة إلى الإبلاغ عن الحوادث الخطيرة إلى المفوضية، وضمان توفير حماية أمنية كافية ضد السرقة وسوء الاستخدام.

أما بالنسبة لنماذج الذكاء الاصطناعي العامة أو الأساسية، فستكون خاضعة لمتطلبات شفافية تشمل إعداد وثائق تقنية، واعتماد سياسات حقوق الطبع والنشر، وتقديم ملخصات تفصيلية حول المحتوى المستخدم في تدريب الخوارزميات.

وفي هذا السياق، أكدت هينا فيركونن، المسؤولة عن التكنولوجيا في الاتحاد الأوروبي، أن هذه الإرشادات تدعم التطبيق السلس والفعّال لقانون الذكاء الاصطناعي.