نقطة ضعف خطيرة.. مخاوف عالمية من "تمرد" أنظمة الذكاء الاصطناعي

تشهد الأوساط التقنية تصاعدًا في التحذيرات من مخاطر ما يُعرف بـ"تمرد الأنظمة الذكية"، في إشارة إلى أنظمة الذكاء الاصطناعي القادرة على العمل بشكل مستقل، والتي قد تتحول إلى تهديد فعلي في حال خروجها عن السيطرة أو تعرضها للاختراق.

انتشار واسع لوكلاء الذكاء الاصطناعي

أفادت صحيفة "وول ستريت جورنال" في تقرير لها، بأن الشركات باتت تعتمد بشكل متزايد على ما يُعرف بوكلاء الذكاء الاصطناعي، وهي أنظمة قادرة على تنفيذ مهام تلقائية مثل خدمة العملاء وإدارة العمليات دون تدخل بشري مباشر.

وحذر التقرير من أن هذه الأنظمة قد تمثل نقطة ضعف خطيرة؛ نظرًا لامتلاكها صلاحيات واسعة للوصول إلى البيانات الحساسة واتخاذ قرارات تشغيلية داخل المؤسسات.

فجوة أمنية مقلقة

وبحسب التقرير، فإن نحو 77% من الشركات الكبرى تستخدم هذه الأنظمة، بينما 4% فقط تؤمّنها بشكل كافٍ، ما يفتح المجال أمام استغلالها في هجمات سيبرانية أو تنفيذ أوامر غير متوقعة.

الذكاء الاصطناعي يدخل ساحة الهجمات الإلكترونية

فيما أشار تقرير نشره "أكسيوس" إلى أن الجيل الجديد من الذكاء الاصطناعي بات قادرًا على تنفيذ هجمات إلكترونية معقدة بشكل شبه مستقل.

وأوضح التقرير أن بعض العمليات الهجومية أصبحت تعتمد على أتمتة الهجمات؛ حيث يمكن للأنظمة الذكية تنفيذ ما يصل إلى 80–90% من مراحل الهجوم دون تدخل بشري مباشر.

دعوات لإضافة زر الإيقاف الفوري

ونقل موقع "بيزنس إنسايدر" عن خبراء في الأمن السيبراني، مطالبات بضرورة تضمين ما يُعرف بـ"زر الإيقاف الفوري"، وهو آلية تتيح تعطيل أنظمة الذكاء الاصطناعي فورًا عند رصد سلوك غير طبيعي أو اختراق محتمل.

تحول في استراتيجيات الأمن السيبراني

لفت موقع "تيك رادار" إلى أن دمج الذكاء الاصطناعي في الأنظمة التشغيلية أدى إلى ظهور مخاطر جديدة، مثل استغلال الصلاحيات والتلاعب بسير العمل.

ونوه بأن المؤسسات باتت مطالبة بالانتقال من نموذج منع الاختراق إلى نموذج التحكم الكامل في العمليات؛ لضمان عدم انحراف الأنظمة الذكية عن أهدافها أو استغلالها بشكل ضار.

اشترك فى النشرة البريدية لتحصل على اهم الاخبار بمجرد نشرها

تابعنا على مواقع التواصل الاجتماعى

السابق موعد مباراة الأهلي ضد سيراميكا في الجولة الأولى من مرحلة التتويج بدوري نايل
التالى  عطاف يبحث مع رئيس الوزراء البلجيكي توطيد الشراكة الاقتصادية