مايكروسوفت تحذر من مخاطر الذكاء الاصطناعي غير المنظم وتأثيراته على المجتمع
تحذير مايكروسوفت بشأن “الذكاء الاصطناعي الخفي”
أصدرت شركة مايكروسوفت، الرائدة في مجال البرمجيات والتكنولوجيا، تحذيراً قوياً حول ظاهرة “الذكاء الاصطناعي الخفي” (Shadow AI)، التي تمثل استخدام الموظفين لأدوات وتقنيات الذكاء الاصطناعي في العمل دون علم أو موافقة أقسام تكنولوجيا المعلومات.
انتشار المساعدات الآلية في الشركات الكبرى
أوضح باحثون من مايكروسوفت أن أكثر من 80% من الشركات المدرجة في قائمة “فورتشن 500” تستخدم برامج المساعد الآلي في أنشطتها البرمجية. ومع ذلك، فإن معظم هذه الشركات تفتقر إلى قواعد واضحة لتنظيم استخدام الذكاء الاصطناعي، مما يشكل مخاطراً كبيرة نتيجة السرعة الفائقة في اعتماد هذه التقنيات.
المخاطر المرتبطة بالذكاء الاصطناعي الخفي
وفقاً لتقرير مايكروسوفت، فإن غياب الرقابة من قبل المسؤولين، إلى جانب ظاهرة “الذكاء الاصطناعي الخفي”، يفتح المجال لأساليب هجوم جديدة. يشير التقرير إلى أن الانتشار السريع للذكاء الاصطناعي يمكن أن يتجاوز ضوابط الأمن والامتثال، مما يزيد من خطر استخدام الذكاء الاصطناعي غير المصرح به.
ما هو “الذكاء الاصطناعي الخفي”؟
يُعرَّف “الذكاء الاصطناعي الخفي” بأنه استخدام الموظفين لتطبيقات الذكاء الاصطناعي بدون علم أو موافقة رسمية من قسم تكنولوجيا المعلومات أو الأمن السيبراني. يقوم الموظفون بشكل مستقل باستخدام أدوات أو برامج الذكاء الاصطناعي المتاحة على الإنترنت، مثل البرمجيات ذاتية التشغيل، لإنجاز مهامهم بكفاءة أعلى، دون إشعار أي شخص في التسلسل الإداري.
تزايد الفجوة بين الابتكار والأمان
يدق تقرير مايكروسوفت ناقوس الخطر بشأن الفجوة المتزايدة بين الابتكار والأمن السيبراني. ففي الوقت الذي يتزايد فيه استخدام الذكاء الاصطناعي بشكل ملحوظ، فإن أقل من نصف الشركات (47%) لديها ضوابط أمنية مخصصة لاستخدام الذكاء الاصطناعي التوليدي. كما أن 29% من الموظفين يستخدمون بالفعل برامج ذكاء اصطناعي غير مصرح بها في مجالات عملهم، ما يؤدي إلى خلق ثغرات أمنية في أنظمة الشركات.
توصيات مايكروسوفت لمواجهة المخاطر
لطلبة مواجهة هذه المخاطر، قدمت مايكروسوفت عدة توصيات تشمل:
- إنشاء سجل مركزي لمراقبة جميع أدوات الذكاء الاصطناعي المستخدمة داخل المؤسسة.
- تطبيق مبدأ الوصول الأدنى للبيانات، بحيث يطلع المساعد الآلي فقط على المعلومات اللازمة.
- توفير بدائل مؤسسية آمنة (Enterprise-grade AI) للموظفين لتجنب استخدامهم للأدوات غير المحمية.
من المهم أن تتخذ الشركات خطوات فعالة لحماية أنظمتها من مخاطر “الذكاء الاصطناعي الخفي” وتضمن استخدام الذكاء الاصطناعي بصورة آمنة وفعالة.