تكنولوجيا وعلوم

هل يتحول الذكاء الاصطناعي لمصنع شائعات؟

كتب وائل الغول في “الحرة”:

بداية من اتهامات ملفقة بالتحرش، مرورا بتشويه سمعة بعض الناس، ختاما بتزييف حقائق ووقائع تاريخية، شهدت الفترة الماضية عدة وقائع كان بطلها الجانب المظلم من برامج الذكاء الاصطناعي التوليدي، بينما يتوقع خبراء تحدث معهم موقع “الحرة” إمكانية تحول تلك التطبيقات إلى ساحة مستقبلية لنشر الشائعات والأكاذيب.

اتهامات تحرش وهمية
كان أستاذ القانون في جامعة جورج واشنطن بالولايات المتحدة، جوناثان تورلي، أحدث ضحايا برامج الدردشة الآلية، بعدما اتهمه الذكاء الاصطناعي على غير الحقيقة بـ”التحرش” بإحدى الطالبات، وفقا لتقرير لصحيفة “واشنطن بوست”.

وكجزء من دراسة بحثية، طلب محامٍ زميل في كاليفورنيا من برنامج الدردشة الآلية “شات جي.بي.تي” ، إنشاء قائمة بالعلماء القانونيين الذين تحرشوا جنسيا بشخص ما.

وزعم روبوت الدردشة، الذي أنشأته شركة “شركة أوبن إيه.آي” المدعومة من مايكروسوفت، أن تورلي، أدلى بإيحاءات جنسية وحاول لمس طالبة أثناء رحلة صفية إلى ألاسكا، مستندا في معلوماته على تقرير تم نشره في صحيفة “واشنطن بوست” في 21 آذار 2018.

وتقول “واشنطن بوست”، إنه “لا توجد أي مادة تم نشرها على الصحيفة حول ذلك الأمر، ولم تكن هناك أيضا رحلة صيفية إلى ألاسكا، ولا يعمل أستاذ القانون بجامعة جورج تاون كما أدعى الذكاء الاصطناعي”، بينما قال تورلي إنه لم يتم اتهامه أبدا بالتحرش بطالب.

تشويه سمعة
رئيس بلدية هيبورن شاير في أستراليا، بريان هود، قد يكون صاحب أول دعوى تشهير في العالم ضد شركة “أوبن أيه آي” بعدما اتهمه تطبيق “شات جي بي تي” بالتورط في فضيحة رشوة، وفقا لوكالة “رويترز”.

واكتشف العمدة الأسترالي أن “روبوت الدردشة” وصمه زورا بـ”التورط في فضيحة رشوة أجنبية” تشمل شركة تابعة لبنك الاحتياطي الأسترالي في أوائل العقد الأول من القرن الحادي والعشرين.

كما زعم برنامج الدردشة الآلية، أن العمدة الأسترالي قد قضى فترة بالسجن، نتيجة ارتكابه تلك الجريمة.

كان هود يعمل بالفعل في شركة”Note Printing Australia”، لكنه كان الشخص الذي أخطر السلطات حول دفع رشوة لمسؤولين أجانب للفوز بعقود طباعة عملات، لكن لم يتم اتهامه قط بارتكاب جريمة، كما قال محامون يمثلونه.

معلومات مغلوطة
من السهل نسبيا على الأشخاص الحصول على معلومات مضللة أو كلام يحض على الكراهية، عبر “روبوتات الدردشة”.

وفي 5 نيسان، كشفت دراسة نشرها “مركز مكافحة الكراهية الرقمية”،أن أداة “Bard AI” الجديدة التابعة لغوغل، تنشئ محتوى معلومات خاطئة في 78 سرد من أصل 100 تم اختبارها.

و”Bard”عبارة عن روبوت محادثة يعمل بالذكاء الاصطناعي يمكنه إنتاج نصوص ومقالات ومحتوى وسائط اجتماعية بصوت الإنسان استجابةً للمطالبات والأسئلة التي يطرحها المستخدمون، وبدأت غوغل، في طرح المنتج لاختيار المستخدمين اعتبارا من 21 مارس.

وفي وقت سابق، حذرت وكالة الشرطة الأوروبية (يوروبول) من خطر استخدام تطبيق “شات جي.بي.تي”، في محاولات الخداع الإلكترونية ونشر المعلومات المضللة والجرائم الإلكترونية.

كيف تعمل تلك التطبيقات؟
تعمل روبوتات الدردشة المدعومة بالذكاء الاصطناعي من خلال الاعتماد على مجموعات كبيرة من المحتوى عبر الإنترنت، والتي غالبا ما يتم اقتطاعها من مصادر مثل “ويكيبيديا وريديت”، لتجميع الردود المعقولة على أي سؤال تقريبا.

وتم تدريب تلك الروبوتات على تحديد أنماط الكلمات والأفكار، حيث يقومون بإنشاء جمل وفقرات وحتى مقالات كاملة قد تشبه المواد المنشورة عبر الإنترنت.

ويتحدث خبير تكنولوجيا المعلومات، تامر محمد، عن “محاولة شركات عالمية الاستحواذ على الحصة الأكبر في سوق الذكاء الاصطناعي، وصراع محموم لنشر منصات تابعة لها بغض النظر عن كفاءة وجودة المعلومات التي تقدمها التطبيقات من عدمه”.

وفي تصريحات لموقع “الحرة”، يؤكد أن تلك التطبيقات تستقى المعلومات من “الإنترنت” سواء كانت “موثوقة وصحيحة” أو كاذبة ومغلوطة.

ومن خلال قدرة الذكاء الاصطناعي على البحث العميق، فهو يجمع المعلومات المتاحة من كافة المواقع والمنتديات عبر الإنترنت دون التحقق من مدى مصداقيتها أو صحتها، ولذلك فهو يتعامل مع الشائعات والأكاذيب على أنها حقائق، وفقا لحديث محمد.

ويتفق مع الطرح السابق، مستشار أمن المعلومات، أنس النجداوي، الذي يشير إلى أن روبوتات الدردشة القائمة على الذكاء الاصطناعي، في طور “التطور النمو”، ومازالت تحتاج الكثير من التحسينات.

وفي حديثه لموقع “الحرة”، يؤكد أن تلك التطبيقات تقوم “بتأليف” بعض المعلومات التي تكون “غير حقيقية” لكنها تصيغها بشكل منطقي لتبدو وكأنها “صحيحة”.

وتكون تلك المعلومات خاطئة وغير دقيقة بنسبة 100 بالمئة، بسبب تصميم تلك التطبيقات التي يتم تغذيتها وتدريبها باستخدام نمط من البيانات لتقوم بأنشاء وصياغة نصوص جديدة التي تحمل الكثير من “الأخطاء والمغالطات”، وفقا لحديث النجداوي.

فيما يرى الخبير التكنولوجيا وأمن المعلومات، شغالي جعفر، أن تطور الذكاء الاصطناعي بمثابة “سلاح ذو حدين”.

وفي حديثه لموقع “الحرة”، يشير إلى أن خوارزميات التعلم العميق وتقنيات معالجة الصور والتحكم بمخرجاتها ونمذجتها وفق ما تمليه متطلبات المستخدم جعل البشرية في تحدي كبير من أجل التصدي لبعض الممارسات والاستخدامات التي حادت بهذه الأدوات عن مسارها الإيجابي.

مصنع شائعات وأخبار مغلوطة؟
يشدد النجداوي على أنه يجب استخدام تلك التطبيقات بشكل “حذر جدا” وعدم النظر للمعلومات التي تقدمها على أنها “دقيقة”.

ويقول “قد تكون روبوتات الدردشة مدربة في مجال علمي معين لكن في توجيه أسئلة جديدة لتلك التطبيقات، فسوف تصيغ إجابة قد تكون خاطئة بنسبة كبيرة”.

وإذا تم استخدام الذكاء الاصطناعي بشكل “غير واعي” من قبل المستخدمين فقد يؤدي لزيادة نشر الأكاذيب والمعلومات المغلوطة، وفقا للنجداوي.

ويتفق مع الطرح السابق، محمد الذي يحذر من إمكانية تحول تلك المنصات إلى وسيلة لنشر الأخبار الكاذبة والمعلومات المغلوطة والشائعات المنتشرة عبر الإنترنت.

ويؤكد جعفر أن تلك التطبيقات قد تتحول إلى “ساحة لنشر الشائعات والأكاذيب والمعلومات المغلوطة”، لكن هنا “خوارزميات” تتحكم في تلك الأضرار.

هل يمكن مقاضاة الذكاء الاصطناعي؟
يشير جعفر إلى إمكانية “مقاضاة الذكاء الاصطناعي” من خلال مطوريه، ويقول إن “جميع تلك التطبيقات مملوكة لشركات معروفة قانونيا”.

ويمكن لتلك الجهات إعطاء الجهات القضائية “الدليل التقني” الذي يمكن أن ينصف ضحايا جرائم الذكاء الاصطناعي، وفقا لجعفر.

لكن لا توجد قوانين تؤطر عمل تطبيقات الدردشة المعتمدة على الذكاء الاصطناعي، أو تحدد المسؤولية القانونية والجنائية بشأن استخدامها لنشر الشائعات أو تشويه سمعة الآخرين، وفقا النجداوي ومحمد.

ويقول النجداوي إن “التطبيقات ليست المسؤولة عن إنشاء البيانات والمعلومات المغلوطة، لكنها جمعت أفكار تم تغذيتها بها سابقا”.

من جانبه يقول محمد “لا توجد قوانين تحدد تقع عليه المسؤولية الجنائية عند ارتكاب تلك الجرائم، وهل هو المستخدم أم مالك المنصة”.

ولذلك يجب وضع ضوابط وقوانين قواعد منظمة سواء للمستخدمين أو منشئ المنصات، حتى لا تضيع “المسؤولية القانونية” بين المتهمين، ولتأطير عمل تلك التطبيقات في المستقبل، وفقا للخبراء

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى