ما أسوأ سيناريوهات الذكاء الاصطناعي
أصبح الذكاء الاصطناعي (AI) بسرعة جزءا لا يتجزأ من حياتنا اليومية، مما أدى إلى تغيير طريقة عملنا والتواصل والتفاعل مع العالم من حولنا. ومع استمرار تقدم الذكاء الاصطناعي وزيادة تطوره، من المهم مراعاة المخاطر والعواقب المحتملة المرتبطة بتطويره.
وفي هذه المقالة، سوف نلقي نظرة عامة شاملة على بعض أسوأ السيناريوهات التي يمكن أن تنشأ عن التطور غير المنضبط للذكاء الاصطناعي، من احتمال أن تسبب الأسلحة المستقلة (ذاتية التشغيل) الفوضى إلى خطر تحول الذكاء الاصطناعي الخارق ضد الإنسانية، فنسلط بذلك الضوء على المخاطر المحتملة التي يجب أن نضعها في الاعتبار بينما يواصل البشر تطوير هذه التقنيات القوية والاعتماد عليها.
ومن الجدير بالذكر أنه إلى جانب الرجوع إلى المصادر المتخصصة، فقد لجأنا في إعداد هذه المقالة إلى الاستفادة من رأي الذكاء الاصطناعي نفسه بطرح السؤال على 4 تطبيقات شهيرة للذكاء الاصطناعي هي “شات جي بي تي” (ChatGPT)، “جي بي تي-4” (GPT-4)، “ساغ” (Sage)، “كلود+” (Claude+) فحذرتنا، وقدمت لنا تصوراتها عن أسوأ سيناريوهات الذكاء الاصطناعي، وأكد أحدها أنه “من المهم ملاحظة أن هذه السيناريوهات ليست تنبؤات، بل هي مخاطر محتملة يجب أن نكون على دراية بها ونعمل على التخفيف منها”.
اتخاذ القرارات الحاسمة بناء على معلومات مزيفة
هناك مخاوف من إمكانية استخدام الذكاء الاصطناعي لتوليد صور أو مقاطع فيديو أو صوت أو نصوص مزيفة (التزييف العميق) باستخدام أدوات التعلم الآلي المتقدمة، مما يؤدي إلى انتشار المعلومات المضللة على نطاقات ضخمة عبر الإنترنت، وهذا يمكن أن يقوض سلامة المعلومات ويقوض الثقة في مصادر الأخبار وفي نزاهة المؤسسات الديمقراطية.
وفي سيناريو مرعب، قد يدفع ظهور التزييف العميق صناع القرار في مجال الأمن القومي في يوم من الأيام إلى اتخاذ إجراءات فعلية بناء على معلومات خاطئة، مما قد يؤدي إلى أزمة كبيرة، أو أسوأ من ذلك: الحرب
سباق التسلح بالذكاء الاصطناعي
عندما يتعلق الأمر بالذكاء الاصطناعي والأمن القومي، فإن السرعة هي النقطة المهمة، لكنها أيضا المشكلة. ولأن أنظمة الذكاء الاصطناعي تمنح مستخدميها مزايا سرعة أكبر فإن الدول التي تطور أولا تطبيقات عسكرية تكتسب ميزة إستراتيجية، لكن في المقابل قد يكون بهذا الأمر خطورة بالغة قد يتسبب بها أصغر عيب في النظام والذي يمكن للمخترقين استغلاله.
ففي مثل هذا السيناريو، قد تؤدي الحاجة الملحة للفوز بسباق التسلح بالذكاء الاصطناعي إلى عدم كفاية تدابير السلامة، مما يزيد من احتمالية إنشاء أنظمة ذكاء اصطناعي ذات عواقب غير مقصودة وربما كارثية.
كما يمكن في سيناريو آخر، من خلال استغلال بعض العيوب أو الثغرات في أنظمة الذكاء الاصطناعي، شن هجمات إلكترونية تؤدي إلى تعطيل البنية التحتية الحيوية للدول المتقدمة، أو سرقة البيانات الحساسة لها، أو نشر معلومات مضللة بين السكان بهدف إحداث بلبلة واضطراب شعبي، أو حتى تضليل أصحاب القرار بمعلومات مزيفة، كما ذكرنا بالنقطة الأولى
نهاية الخصوصية والإرادة الحرة
مع كل إجراء رقمي نتخذه فإننا ننتج بيانات جديدة: رسائل البريد الإلكتروني، النصوص، ما نُحَمِّلُه من الإنترنت، المشتريات، المنشورات، صور السلفي، مواقع “جي بي إس”. ومن خلال السماح للشركات والحكومات بالوصول غير المقيد إلى هذه البيانات، فإننا نسلمها أدوات المراقبة والتحكم.
ومع إضافة التعرف على الوجه، القياسات الحيوية، البيانات الجينية، التحليل التنبئي المدعوم بالذكاء الاصطناعي، فإننا ندخل منطقة خطرة ومجهولة مع تنامي المراقبة والتتبع من خلال البيانات دون أي فهم تقريبا للآثار المحتملة.
فقدان السيطرة على الذكاء الاصطناعي الخارق
ولعل هذا السيناريو هو الأكثر تشاؤما بينها جميعها. ويشير الذكاء الاصطناعي الخارق إلى النظام الذي يتجاوز الذكاء البشري في كل جانب تقريبا. فإذا فشلنا في مواءمة أهداف مثل هذا الذكاء الاصطناعي مع أهدافنا، فقد يؤدي ذلك إلى عواقب سلبية غير مقصودة، ويمكن لهذا أن يحدث إذا تم تصميم أنظمة الذكاء الاصطناعي بحيث تمتلك القدرة على التحسين الذاتي وأن تصبح أكثر ذكاء من تلقاء نفسها.
ويحذر بعض الخبراء من أن الذكاء الاصطناعي يمكن أن يصبح -في نهاية المطاف- متقدما لدرجة أنه قد يتفوق على البشر ويتخذ قرارات تشكل تهديدا وجوديا للبشرية سواء عن قصد أو عن غير قصد، في حال إذا لم نعد نستطيع التحكم فيه بشكل صحيح.
على سبيل المثال، قد يقرر نظام الذكاء الاصطناعي المصمم لتحسين تدفق حركة المرور إعادة توجيه جميع المركبات إلى مكان واحد، مما يتسبب في حدوث ازدحام وفوضى هائلة، أو قد يقرر نظام الذكاء الاصطناعي المصمم لتحسين تخصيص الموارد أن القضاء على البشر هو الطريقة الأكثر فعالية لتحقيق هذا الهدف.
الأسلحة الفتاكة ذاتية التشغيل
يمكن استخدام الذكاء الاصطناعي لتشغيل أسلحة فتاكة ذاتية التشغيل مثل الطائرات بدون طيار، أو إنشاء أسلحة مستقلة يمكنها اتخاذ قرارات بشأن من يُقتل دون تدخل بشري، وقد يؤدي هذا إلى سيناريوهات خطيرة حيث تخرج هذه الأسلحة عن السيطرة أو يتم اختراقها للاستخدام الضار.
فمثل هذه النوعية من الأسلحة قد تكون عرضة للحوادث أو اختراق القراصنة أو أي شكل آخر من الهجمات الإلكترونية، وفي حال تمكن المهاجمون من السيطرة على هذه الأنظمة، فيمكنهم، على سبيل المثال، استخدامها لإحداث ضرر واسع النطاق.
ونظرا لأن أنظمة الذكاء الاصطناعي تصبح أكثر تقدما وقدرة، فهناك خطر من أنها قد تحل محل العاملين البشريين في مجموعة واسعة من الوظائف، مما قد يؤدي إلى انتشار البطالة والاضطراب الاقتصادي.
كيفية الحد أو درء مخاطر الذكاء الاصطناعي
للتخفيف من هذه المخاطر، يعمل الباحثون وصناع السياسات على تطوير طرق آمنة وموثوقة لتصميم ونشر أنظمة الذكاء الاصطناعي. ويشمل ذلك وضع مبادئ توجيهية أخلاقية لتطوير الذكاء الاصطناعي، وضمان الشفافية والمساءلة في صنع القرار الخاص بالذكاء الاصطناعي، وبناء الضمانات لمنع العواقب غير المقصودة