باحثون يكتشفون افتقار نماذج الذكاء الاصطناعي لمزيد من المعايير

البوابة نيوز 0 تعليق ارسل طباعة تبليغ حذف
تابع أحدث الأخبار عبر تطبيق google news

مع الزيادة السريعة لاستخدام الذكاء الاصطناعي، سواء لاستخدامات جيدة أو خبيثة، تُكتشف حالات جديدة تنطوي على ردود قد تكون ضارة، وتشمل هذه الحالات خطاب الكراهية، وانتهاكات حقوق النشر وغيرها من الأمور.
 

نقص اللوائح التنظيمية 

 

ويتفاقم ظهور هذه السلوكيات غير المرغوب فيها بسبب نقص اللوائح التنظيمية وعدم كفاية الاختبارات التي تخضع لها نماذج الذكاء الاصطناعي، بحسب ما قاله باحثون لشبكة سي إن بي سي.
وقال خافيير راندو، الباحث في مجال الذكاء الاصطناعي، إن جعل نماذج التعلم الآلي تعمل بالطريقة التي صُممت لها يُعدّ مهمة شاقة، بحسب تقرير للشبكة.
وأضاف راندو، الذي يركز في أبحاثه على التعلم الآلي العدائي: "الإجابة، بعد ما يقرب من 15 عامًا من البحث، هي: لا، لا نعرف كيف نفعل ذلك، ولا يبدو أننا نتحسن".
ومع ذلك، هناك بعض الطرق لتقييم المخاطر في الذكاء الاصطناعي، مثل "تكوين فرق حمراء" (Red Teaming)، وتتمثل هذه الممارسة في قيام الأفراد باختبار أنظمة الذكاء الاصطناعي وفحصها للكشف عن أي ضرر محتمل وتحديده، وهي طريقة عمل شائعة في دوائر الأمن السيبراني.
وأشار شاين لونغبري، الباحث في مجال الذكاء الاصطناعي والسياسات ورئيس مبادرة "Data Provenance Initiative"، إلى نقصٍ في عدد العاملين حاليًا ضمن الفرق الحمراء.
وفي حين أن شركات الذكاء الاصطناعي الناشئة تستعين الآن بمقيّمين مستقلين أو أطراف ثانوية متعاقدة لاختبار نماذجها، فإن إتاحة الاختبار لأطراف ثالثة، مثل المستخدمين العاديين والصحفيين والباحثين والمخترقين الأخلاقيين، من شأنه أن يؤدي إلى تقييم أكثر دقة، وفقًا لدراسةٍ نشرها لونغبري وباحثون آخرون.
وقال لونغبري: "بعض العيوب في الأنظمة التي كان الناس يكتشفونها تطلبت محامين وأطباءً لفحصها، (أي) علماء متخصصين في هذا المجال لمعرفة ما إذا كانت عيبًا أم لا، لأن الشخص العادي ربما لن ولا يملك الخبرة الكافية".
ومن بين التوصيات التي قدمتها الدراسة؛ اعتماد تقارير موحدة عن "عيوب الذكاء الاصطناعي"، وتقديم حوافز، وطرق لنشر المعلومات حول هذه "العيوب" في أنظمة الذكاء الاصطناعي.
وقال راندو إن دمج هذه الممارسة التي تركز على المستخدم مع الحوكمة والسياسات وغيرها من الأدوات سيضمن فهمًا أفضل للمخاطر التي تشكلها أدوات الذكاء الاصطناعي ومستخدميه.
"Moonshot"
ويعد مشروع "Moonshot" أحد هذه الأساليب، حيث يجمع بين الحلول التقنية والآليات السياساتية، وأطلقته هيئة تطوير وسائل الإعلام والاتصالات في سنغافورة، وهو عبارة عن مجموعة أدوات واسعة النطاق لتقييم نماذج اللغة، طُوّرت بالتعاون مع جهات فاعلة في هذا المجال مثل شركتي "IBM " و"DataRobot".
وتدمج مجموعة الأدوات معايير الأداء، والفرق الحمراء، واختبارات الأساس. وتحتوي أيضًا آلية تقييم تسمح لشركات الذكاء الاصطناعي الناشئة بضمان موثوقية نماذجها وعدم إلحاق الضرر بالمستخدمين، بحسب ما قاله أنوب كومار، رئيس هندسة العملاء للبيانات والذكاء الاصطناعي في "IBM" لمنطقة آسيا والمحيط الهادئ.
وأضاف كومار أن التقييم عملية مستمرة يجب إجراؤها قبل نشر النماذج وبعده، مشيرًا إلى أن ردود الفعل على مجموعة الأدوات كانت متباينة.
وتابع: "العديد من الشركات الناشئة اتخذتها (مجموعة الأدوات) منصةً لكونها مفتوحة المصدر، وبدأوا في الاستفادة منها. لكنني أعتقد...أنه يمكننا تحقيق المزيد"،ويهدف مشروع "Moonshot" مستقبلًا إلى تضمين التخصيص لحالات استخدام محددة في صناعات محددة، وتمكين عمل فرق حمراء متعددة اللغات والثقافات.


معايير أعلي


قال بيير ألكييه، أستاذ الإحصاء في "كلية ESSEC للأعمال" في منطقة آسيا والمحيط الهادئ، إن شركات التكنولوجيا تتعجل حاليًا في إصدار أحدث نماذج الذكاء الاصطناعي الخاصة بها دون تقييم سليم.
وأَضاف: "عندما تصمم شركة أدوية دواءً جديدًا، فإنهم يحتاجون إلى أشهر من الاختبارات وإثبات جدي للغاية على أنه مفيد وغير ضار قبل أن تحصل على موافقة الحكومة"، مشيرًا أن عملية مماثلة مطبقة في قطاع الطيران.
وتابع أن نماذج الذكاء الاصطناعي يجب أن تستوفي مجموعة صارمة من الشروط قبل الموافقة عليها، مشيرًا إلى أن التحول من أدوات الذكاء الاصطناعي العامة إلى تطوير أدوات مصممة لمهام أكثر تحديدًا من شأنه أن يسهل توقع إساءة استخدامها والتحكم فيها المحتملين.
وقال: "النماذج اللغوية الكبيرة قادرة على القيام بأمور كثيرة، لكنها ليست موجهة لمهام محددة بما يكفي"، ونتيجةً لذلك، يضيف: "عدد حالات إساءة الاستخدام المحتملة كبير جدًا بحيث لا يستطيع المطورون توقعها جميعًا".
ووفقًا لبحث شارك فيه راندو، تصعب هذه النماذج العامة تحديد ما يُعتبر آمنًا ومأمونا.

إخترنا لك

أخبار ذات صلة

0 تعليق