بينما يجتاح ChatGPT العالم كأحدث نموذج لغوي كبير LLM ونموذج للذكاء الاصطناعي الخلّاق Generative AI، يزداد السعي الدؤوب إلى تعلم كيفية الاستفادة من مميزاته وأيضًا كيفية تجنب عيوبه وإجراء تقييم لمخاطره كأداة تقنية قوية لها مخاطر مُحتملة؛ لذا يجب النظر في الاعتبارات الأمنية الآتية أثناء استخدامه:
1. آلية التدريب:
خلال أبريل الماضي، بدأت شرارة جدل في الاتحاد الأوروبي حول معالجة ChatGPT للبيانات الشخصية لأغراض تدريب البرنامج ضمن تقنية التعلم العميق، وذلك دون سند قانوني يحكم استخدامه لها. من جانبها تؤكد شركة OpenAI المصمِّمة للبرنامج أنها تعتمد في تدريبه على مصادر مفتوحة على الإنترنت؛ ولكن لم تبدُ هذه الحجة مقنعة بما يكفي نظرًا لأن وجود البيانات على مصادر عامة لا يعني إتاحة استخدامها للجميع دون شروط، فضلًا عن أن البرنامج لا يحصل على أية أذونات باستخدام البيانات الشخصية الحساسة. لكن الشركة استجابت لهذه الدعاوى وقررت إلغاء خاصية حفظ الدردشات السابقة.
أيضًا تظهر إشكالية أخرى متعلقة بالتدريب هي احتمالية تضليل المستخدمين عمدًا للبرنامج من خلال تغذيته ببيانات ومعلومات خاطئة، وهو ما يؤثر على أداء التطبيق ويمثّل خطرًا أمنيًا على قواعد بياناته.
2. الأسئلة:
هناك خرق آخر مُحتمل لأمن المؤسسات يتمثل في تزويد البرنامج ببيانات حساسة أو سرية خاصة بها لتوجيه أسئلة معينة للبرنامج بخصوصها، وهو ما يمثل خطرًا على إتاحة هذه البيانات في قواعد بيانات ChatGPT ومن ثمّ احتمالية استخدامها مع مستخدمين آخرين؛ لذا يُنصح بأن تلجأ الشركات التي يحتاج موظفوها إلى خدمات ChatGPT إلى نسخ خاصة منه تُستخدم حصرًا للشركة لضمان سرية بياناتها.
3. الردود:
كأية أداة غير بشرية، لا يملك ChatGPT حسًا يميّز ما يمكن وما لا يمكن الإفصاح عنه، ولا يتضمن حتى الآن قواعد تحدد هذا الأمر؛ لذا تشكّل إجاباته غير المقيدة خطرًا إذا استغلته أطراف خبيثة من خلال طرح أسئلة عن بيانات حساسة لأشخاص أو مؤسسات، مثل أرقام الهويات الشخصية أو بيانات الحسابات البنكية التي قد توجد ضمن قواعد بيانات البرنامج.