دراسة: الذكاء الاصطناعي يفتقر إلى «الشفافية»
تفتقر نماذج الذكاء الاصطناعي التي تكاثرت منذ إطلاق «تشات جي بي تي»، إلى الشفافية في تصميمها، ما يشكل خطرا على التطبيقات التي ترتكز إليها تقنيا، بحسب دراسة أجرتها جامعة ستانفورد.
وبين مؤشر جديد وضعه وأجرى حسابات على أساسه باحثون في هذه الجامعة الواقعة في ولاية كاليفورنيا الأميركية، أن الأكثر شفافية بين النماذج العشرة التي أخضعت للتقويم هو Llama 2 («لاما 2»)، وهو نظام ذكاء اصطناعي أطلقته مجموعة «ميتا» يوليو الماضي ويمكن إعادة استخدامه.
لكن هذا النموذج لا يوفر في الواقع إلا 54% من الشفافية المطلوبة، وهي نسبة غير كافية مقارنة بما يجب أن يحققه لكي يكون شفافا، وفقا لمعدي الدراسة.
أما «تشات جي بي تي-4»، وهو المنتج الرئيسي لشركة «أوبن إيه آي» التي تنتج روبوت «تشات جي بي تي» الشهير والممولة من «مايكروسوفت»، فلا تتعدى درجة شفافيته 48%.
وحصلت على مراتب أدنى نماذج أخرى تلقى رواجا، بينها «بالم-2» من «غوغل» و«كلود 2» من «انثروبيك» الممولة من «أمازون».
وأوضح مدير الأبحاث في جامعة ستانفورد ريشي بوماساني في بيان، ان درجة الشفافية المطلوب توافرها فيما يسمى «نماذج التأسيس» يجب أن تتراوح بين 80 و100%».
وأوضح معدو الدراسة أن الافتقار إلى الشفافية «يصعب على الشركات معرفة ما إذا كان بإمكانها بناء تطبيقات بأمان تقوم على هذه النماذج، وعلى الأكاديميين الاعتماد على هذه النماذج في أبحاثهم».
ولاحظت الدراسة «أن معظم الشركات لا تفصح عن مدى المحتوى المحمي بحقوق المؤلف والمستخدم لتدريب نموذجها. كذلك لا تكشف الشركات عن استخدام العمالة البشرية لتصحيح بيانات التدريب، الأمر الذي قد يكون مشكلة كبيرة».