أضحت المعلومات التي يقدمها المستخدمون للذكاء الاصطناعي التوليدي تشكل خطرا على أصحابها في حالة وقوعها في الأيدي الخطأ؛ فقد كشف تقرير حديث أن 8.5 في المائة من مطالبات الموظفين لأدوات الذكاء الاصطناعي التوليدي مثل ChatGPT وCopilot تضمنت بيانات حساسة، وعلى الأخص معلومات الفواتير والمصادقة الخاصة بالعملاء.
وسجل تقرير “هارمونيك”، الصادر مؤخرا، أن هذا الأمر يثير مخاطر أمنية خطيرة، مشيرا إلى أن الصعود السريع للذكاء الاصطناعي التوليدي في الشعبية والقيمة يجلب مخاطر لا يزال العديد من المستخدمين والمنظمات يتجاهلونها.
وحسب ما أوردته آنا كولارد، نائب الرئيس الأول لاستراتيجية المحتوى والإنجيلي في KnowBe4 Africa، فإن “أحد مخاطر الخصوصية عند استخدام منصات الذكاء الاصطناعي هو تسرب البيانات غير المقصود”، موردة بأن “الكثير من الناس لا يدركون كمية المعلومات الحساسة التي يدخلونها”.
وأضافت المتحدثة نفسها أن الأمر “لا يقتصر على الأسماء أو عناوين البريد الإلكتروني التي يتم جمعها. عندما يطلب موظف من مساعد الذكاء الاصطناعي التوليدي “إعادة كتابة هذا الاقتراح للعميل X” أو “اقتراح تحسينات لخطة الأداء الداخلية لدينا”، فقد يشاركون بيانات مملوكة أو سجلات عملاء أو حتى توقعات داخلية. إذا تم ذلك عبر منصات ذات سياسات خصوصية غامضة أو ضوابط أمنية ضعيفة، فقد يتم تخزين تلك البيانات أو معالجتها أو في أسوأ السيناريوهات الكشف عنها”.
ووفق كولارد، فإن المخاطر لا تتوقف عند هذا الحد، “نظرًا لأن الذكاء الاصطناعي التوليدي يبدو غير رسمي وودودًا، فإن الناس يتخلون عن حذرهم، قد يكشفون عن أكثر بكثير مما يكشفون عنه في بيئة عمل تقليدية – اهتمامات وإحباطات وأدوات الشركة وحتى ديناميكيات الفريق”.
وعلى إثر ذلك، أوردت الخبيرة نفسها أن هذه التفاصيل التي تبدو حميدة قد يتم تجميعها في ملفات تعريف مفصلة من قبل مجرمي الإنترنيت أو وسطاء البيانات؛ مما يؤجج التصيد الاحتيالي المستهدف وسرقة الهوية والهندسة الاجتماعية المتطورة.
وحسب كولارد، فإن مبدعي التطبيقات، حتى ولو لم تكن لهم نية خبيثة، فإن الرقابة الضعيفة يمكن أن تؤدي إلى تسربات كبيرة.
المصدر نفسه أورد بأن الموظفين عندما يعمدون إلى تغذية الذكاء الاصطناعي التوليدي عامة بالمعلومات يمكنهم عن غير قصد فضح شركتهم بأكملها، حيث أشارت كولارد في هذا الصدد إلى أن ذلك “يشمل بيانات العملاء والعمليات الداخلية واستراتيجيات المنتج؛ أشياء سيهتم بها المنافسون أو المهاجمون أو الجهات التنظيمية بشدة”.
ولتجاوز هذه المخاطر، قالت كولارد: “يجب على الشركات تدريب موظفيها على الأدوات التي يجوز استخدامها، وما هو آمن لإدخاله وما هو غير آمن، ويجب عليهم تنفيذ ضمانات حقيقية؛ وليس مجرد سياسات على الورق”.
وأضافت: “يجب أن يشمل ذلك تقييد الوصول إلى أدوات الذكاء الاصطناعي التوليدي دون رقابة أو السماح فقط بتلك التي وافقت عليها الشركة”.
كما أن المنظمات، حسبها، تحتاج إلى تبني نهج الخصوصية بالتصميم عندما يتعلق الأمر بتبني الذكاء الاصطناعي “يشمل ذلك استخدام منصات الذكاء الاصطناعي فقط مع ضوابط بيانات على مستوى المؤسسات ونشر امتدادات المتصفح التي تكتشف وتحظر إدخال البيانات الحساسة”.
ووفق المصدر نفسه، فإن برامج الامتثال الداخلية “يجب أن توائم استخدام الذكاء الاصطناعي مع كل من قوانين حماية البيانات والمعايير الأخلاقية”، إذ توصي كولارد في هذا السياق “الشركات بتبني ISO/IEC 42001؛ وهو معيار دولي يحدد متطلبات إنشاء وتنفيذ وصيانة وتحسين نظام إدارة الذكاء الاصطناعي (AIMS) باستمرار”.
0 تعليق