مايكروسوفت تتخذ إجراءات حاسمة لسد ثغرات "Copilot" المهددة بفقدان البيانات

أصدرت شركة مايكروسوفت تحديثات أمنية مهمة وشاملة لمساعدها الذكي Microsoft 365 Copilot، بهدف تمكين المستخدمين والشركات من التحكم بشكل أفضل في البيانات والملفات التي يمكن للذكاء الاصطناعي الوصول إليها أثناء عملية تحليل المعلومات.

ويأتي هذا الإجراء بعد أن تلقت الشركة عدة بلاغات تشير إلى قيام المساعد الذكي بتضمين معلومات سرية وحساسة، مخزنة على الأجهزة المحلية، في التقارير والملخصات التي يعدها للموظفين. وسيتم تفعيل ميزات الحماية الجديدة كإعدادات افتراضية خلال الفترة المقبلة، مما يمنع الذكاء الاصطناعي من قراءة وتحليل الملفات التي ليس لدى المستخدم أذونات واضحة لمشاركتها.

سياسات الحماية:
وبحسب موقع Help Net Security المتخصص في مجال الأمن السيبراني، فإن هذا الرد من مايكروسوفت يعتبر ضروريا لمعالجة الثغرات الأمنية المتعلقة بفقدان البيانات (DLP). وأوضح الموقع أن سياسات الحماية كانت تطبق في السابق بشكل فعال على الملفات السحابية الموجودة في خدمات “OneDrive” و”SharePoint”، لكنها لم تشمل الملفات المحفوظة محليا على أجهزة الكمبيوتر الشخصية للمستخدمين، وهو ما يمثل نقطة ضعف سمحت للذكاء الاصطناعي باستخراج معلومات حساسة ودمجها عن غير قصد في ردوده على المستخدمين.

وتكمن خلفية هذه المشكلة في التحديات الكبيرة التي تواجهها الشركات عند اعتماد تقنيات الذكاء الاصطناعي المدمجة في بيئات عملها اليومية. بينما تسعى المؤسسات إلى الاستفادة من إمكانات الذكاء الاصطناعي لتعزيز الإنتاجية وأتمتة المهام، تظهر مخاطر جديدة تتعلق بالخصوصية وأمن البيانات الداخلية. وتأتي هذه الخطوة من مايكروسوفت ضمن جهود أوسع في قطاع التكنولوجيا لتطوير أطر عمل آمنة منذ البداية (Secure-by-Design)، بما يضمن عدم تعارض أدوات الذكاء الاصطناعي المتقدمة مع سياسات حماية أسرار الشركات والالتزامات القانونية المتعلقة بأمن المعلومات.

سد فجوات الوصول المحلية:
يعالج هذا التحديث النقص السابق الذي سمح للذكاء الاصطناعي بالوصول إلى البيانات الحساسة وغير المحمية المخزنة على الأجهزة الشخصية. وتعكس هذه الخطوة ضرورة توفير أدوات ذكية قادرة على مساعدة الموظفين دون المساس بمعايير الأمان وسياسات خصوصية الشركة. (اليوم السابع)