يحذر خبراء الأمن السيبراني من أن انتشار الصور الكرتونية التي ينتجها الذكاء الاصطناعي، والتي تعكس لقطة ملونة لكل ما يعرفه برنامج الدردشة الآلي عن شخص ما، يمكن أن يشكل مخاطر أمنية خطيرة.

يقوم المستخدمون بتحميل صور شخصية لأنفسهم، أحيانًا مع شعار الشركة أو تفاصيل وظائفهم، ويطلبون من روبوت ChatGPT الخاص بـ OpenAI إنشاء رسوم كاريكاتورية لهم ولوظائفهم بناءً على المعلومات المتوفرة عنهم.

قال خبراء الأمن السيبراني ليورونيوز نيكست إن تحديات وسائل التواصل الاجتماعي، مثل الرسوم الكاريكاتورية التي تعتمد على الذكاء الاصطناعي، يمكن أن تزود المحتالين بكمية هائلة من المعلومات القيمة. قد تكشف صورة واحدة، مقترنة بتفاصيل شخصية، معلومات أكثر بكثير مما يتوقعه المستخدمون.

وفي هذا السياق، قال بوب لونج، نائب رئيس شركة Daon للتحقق من العمر: “إنك تقوم بعمل المحتالين لصالحهم، حيث تقدم لهم تمثيلًا مرئيًا واضحًا لهويتك”.

وأشار إلى أن مجرد الطريقة التي يتم بها الترويج لهذا الاتجاه يجب أن تدق أجراس الإنذار، لأنه «يبدو كما لو أنه أطلقه عمدا محتال لتسهيل عمله».

ماذا يحدث للصور بعد تحميلها؟

يوضح مستشار الأمن السيبراني جاك مور أنه عندما يقوم المستخدم بتحميل صورة إلى برنامج الدردشة الآلي القائم على الذكاء الاصطناعي، يقوم النظام بمعالجة الصورة لاستخراج البيانات مثل مشاعر الشخص والبيئة والمعلومات التي قد تكشف عن موقعه الجغرافي. ويمكن بعد ذلك تخزين هذه البيانات لفترة غير محددة.

يعتقد لونج أن الصور التي تم جمعها من المستخدمين يمكن استخدامها والاحتفاظ بها لتدريب مولدات صور الذكاء الاصطناعي، كجزء من مجموعات البيانات الخاصة بهم.

أي خرق لبيانات شركة مثل OpenAI قد يعني أن البيانات الحساسة، مثل الصور التي تم تحميلها والمعلومات الشخصية التي يجمعها برنامج الدردشة الآلي، يمكن أن تقع في أيدي الأطراف الخبيثة التي يمكنها استغلالها.

وفقًا لشارلوت ويلسون، رئيس قطاع الشركات في شركة Check Point الإسرائيلية للأمن السيبراني، فإن صورة واحدة عالية الدقة تقع في الأيدي الخطأ يمكن أن تسمح بإنشاء حسابات مزيفة على الشبكات الاجتماعية، أو مقاطع تزييف عميق شديدة الواقعية يمكن استخدامها لتنفيذ عمليات احتيال.

وقالت: “إن صور السيلفي تساعد المجرمين على الانتقال من عمليات الاحتيال العامة إلى انتحال الشخصيات الشخصية المقنعة للغاية”.

تشير إعدادات خصوصية OpenAI إلى إمكانية استخدام الصور التي تم تحميلها لتحسين النموذج، بما في ذلك تدريبه. وعندما سئل ChatGPT عن إعدادات الخصوصية للنموذج، أوضح أن هذا لا يعني أن كل صورة يتم حفظها في قاعدة بيانات متاحة للجمهور.

وأضاف برنامج الدردشة الآلي أنه بدلاً من ذلك يستخدم أنماط المحتوى التي أنشأها المستخدم لتحسين الطريقة التي ينشئ بها النظام الصور.

كيف تشارك في اتجاهات الذكاء الاصطناعي بأمان؟

يُنصح أي شخص يريد مواكبة هذه الاتجاهات بالحد من البيانات التي يشاركها قدر الإمكان.

يقول ويلسون إنه يجب على المستخدمين تجنب تحميل الصور التي تكشف عن أي معلومات تعريفية عن أنفسهم. وتقول: “قم بقص الصورة بإحكام، وحافظ على الخلفية خالية من التفاصيل قدر الإمكان، ولا تظهر الشارات أو الزي الرسمي أو بطاقات العمل أو علامات الموقع أو أي شيء يربطك بصاحب العمل أو عاداتك اليومية”.

ويحذر ويلسون أيضًا من مشاركة الكثير من المعلومات الشخصية في مطالبات التوظيف، مثل المسمى الوظيفي أو المدينة أو اسم صاحب العمل.

وفي السياق نفسه، ينصح مور بمراجعة إعدادات الخصوصية قبل المشاركة، بما في ذلك خيار استبعاد البيانات من نماذج التدريب على الذكاء الاصطناعي.

تتيح بوابة خصوصية OpenAI للمستخدمين التوقف عن استخدام بياناتهم للتدريب عن طريق اختيار خيار “عدم التدريب على المحتوى الخاص بي”.

كما يمكن للمستخدمين تعطيل استخدام محادثاتهم النصية مع “ChatGPT” في التدريب، من خلال إيقاف إعداد “تحسين النموذج للجميع”.

بموجب قانون حماية البيانات في الاتحاد الأوروبي، يحق للمستخدمين طلب حذف بياناتهم الشخصية التي جمعتها الشركة. ومع ذلك، توضح “OpenAI” أنها قد تحتفظ ببعض المعلومات حتى بعد حذفها، للتعامل مع قضايا الاحتيال وسوء الاستخدام والمخاوف الأمنية. (يورونيوز)