الروبوتات المقاتلة بين الخيال والممكن.. هل تتحقق النبوءة؟

الروبوتات المقاتلة بين الخيال والممكن.. هل تتحقق النبوءة؟

كشف القتال متعدد الأسلحة في أوكرانيا عن ظاهرة لم يلاحظها أحد من قبل، تضع خبراء التكنولوجيا العسكرية والحرب الإلكترونية على حافة الهاوية، فقد بدأ الخبراء ذوو الخبرة في إدارة الأنظمة القتالية يلاحظون أن الذكاء الإصطناعي "المعتمد في الاسلحة"، يرتكب أحيانًا بعض الأخطاء، التي يتم خلالها تسليط عقوبة على الجنود على الأقل. بعد عدم اتباع لأوامر القادة أو إعادة برمجة نفسه لأغراض لا يتصورها المشغلون، وهو الأمر الأكثر إثارةً للصدمة بالنسبة للفنيين.



حاول موقع "نيوز ري" اكتشاف ما يمكن أن يؤدي إليه سلوك الذكاء الإصطناعي في حرب حديثة.

لوحظت محاولات مثل هذه "التمردات" عدة مرات خلال الأعمال العدائية بين الجيش الروسي وخصومه الأوكرانيين، عندما كانت الطائرات بدون طيار من كلا طرفي الصراع (تي بي- 2و"لانسات" ونماذج أخرى) تؤدي مهمة، حيث تمت برمجتها على تفادي أخطاء نماذج سابقة سقطت، لكنهم بدأوا في إظهار شيء مماثل لغريزة الحفاظ على الذات؛ فعلى سبيل المثال "هاجرت" طائرة الكاميكاز الأوكرانية بدون طيار من طراز "تي يو- 141" إلى كرواتيا في 10 آذار/ مارس، وكأنها لا تريد القيام بمهمة انتحارية.

وأعلنت مجموعة العمل السيبراني التابعة للأمم المتحدة (OEWG) أنها تعتزم عقد مؤتمر ثاني في تموز/ يوليو من هذا العام (عقد الإجتماع الأول في 28 آذار/ مارس - 1 نيسان/ أبريل) لمناقشة المشكلات التي لم تكن موجودة سابقًا إلا في الأدب الخيالي لستانيسلاف ليم أو إسحاق أزيموف.

وجمع خبراء (OEWG) بيانات كافية (من المحتمل أن يكون هناك المزيد بحلول تموز/ يوليو) تثبت ظاهرة تقلق المخططين العسكريين والمهندسين: استقلالية الروبوتات القتالية الملحوظة بشكل متزايد عن قادتهم؛ حيث تعرف هذه الأنظمة باللغة الإنجليزية lethal autonomous weapon systems، أي أنظمة الأسلحة الفتاكة ذاتية التشغيل (LAWS).



وقال جريجوري ألين؛ رئيس مشروع التحكم بالذكاء الاصطناعي الأمريكي، يوم الخميس: "نحن نحلل بعناية ما يحدث في ساحة المعركة من أجل تحديث الذكاء الاصطناعي والتعلم الآلي حتى يتمكن الذكاء الاصطناعي من التنبؤ بشكل أكثر دقة بالإجراءات المستقبلية للعدو"، مضيفًا: "قدرات الذكاء الاصطناعي في مجالات الاستخبارات والمراقبة والقتال تتزايد كل عام".

وعلى الرغم من أنه في الغالبية العظمى للحالات؛ فإن "الذكاء الاصطناعي في المجال العسكري" يصحح الأوامر في اتجاه أكثر دقةً وكفاءةً (على سبيل المثال، إجبار الطائرات بدون طيار على المناورة لتجنب الصواريخ الإعتراضية) فإن الجيش قلق من أي نشاط هاوي في صفوفه، كما أشار كاتب الخيال العلمي البولندي ستانيسلاف ليم في عام 1987 في روايته " السلام على الأرض"؛ فإن "الفعالية القتالية والذكاء هما شيئان مختلفان، على الأقل في ساحة المعركة".

وبالتالي؛ يخشى الخبراء في معهد ستوكهولم الدولي لأبحاث السلام (SIPRI) أنه إذا بدأ الاستقلال الذاتي في التطور (من الواضح أنه سيفعل ذلك مع تحسن أنظمة القتال الروبوتية)، فقد يزيل الذكاء الاصطناعي في مرحلة ما الأشخاص من القيادة ويقوم بعمليات قتالية؛ حسب تقديرهم.

ولا تزال الأنظمة المستقلة محدودة للغاية في التعرف على الأشياء واتخاذ القرارات المستقلة، خاصة في البيئات المتغيرة بسرعة والظروف الجوية السيئة. ومع ذلك؛ فإن زيادة درجة الاستقلالية ليست مهمة صعبة، كما حذر خبراء معهد ستوكهولم في الدراسة التي ألفوها في 147 صفحة، تحت عنوان: "تطوير أنظمة القتال المستقلة".



ومن الواضح لمتخصصي الأمن السيبراني أن الذكاء الاصطناعي - في مرحلته الحالية من التطور - هو تقنية هشة للغاية ومتقلبة، ترتكب أخطاءً باستمرار، مثل أخطاء الترجمة الكارثية إلى اللغات الأجنبية، عندما يتعلق الأمر بالتحكم في المفاعلات النووية أو أنظمة القتال.

وفي السجل الدولي للأمن السيبراني؛ الذي تم إنشاؤه في عام 2017، تم رصد أكثر من 1200 خطأ من هذا القبيل في الاعتبار اليوم (بدءًا من الحوادث التي ترتكبها السيارات بدون سائق إلى قرارات الموظفين الآليين الخاطئة).

ومع ذلك؛ يشير الخبراء إلى أن سعر الخطأ يرتفع إلى ما لا نهاية عندما يتعلق الأمر باتخاذ القرارات في المجال العسكري، خاصة عندما يتم قياس سرعة اعتمادها في ثوانٍ.

ويحذر بول شار؛ مدير مركز الأمن الأمريكي الجديد، من أن تكون عواقب نقل التحكم في صنع القرار من الإنسان إلى الذكاء الاصطناعي أثناء الحرب غير متوقعة وقد تكون كارثية، موضحًا أن إغراء تفويض سلطات القيادة العسكرية للآلات كبير، لأن هذا يعطي مزايا لا يمكن إنكارها على العدو، ومع ذلك؛ يمكن أن تؤدي أخطاء الذكاء الاصطناعي إلى حقيقة أن مسار الحرب سوف يخرج عن سيطرة الجانبين.

وفي كتابه No Man's Army الذي تحدث عن الأسلحة المستقلة ومستقبل الحرب؛ كتب شار أنه "إذا تمكنت أجهزة الكمبيوتر من تنفيذ مليارات العمليات في الثانية، فهذا يعني أنها يمكن أن ترتكب ملايين الأخطاء في نفس الوقت، وهو معدل لا يوجد فيه قائد على قيد الحياة يمكنه تصحيح سوء التقدير الكارثي المحتمل لـ "الجندي الإلكتروني" أو على الأقل إلغاء الأمر".



ويتمثل الخطأ الأكثر شيوعًا، والذي حدث مرارًا وتكرارًا مع الأسلحة "الذكية"، في الموقف عندما تخلط أنظمة الإنذار بين سرب من الطيور أو سحابة كثيفة بجسم معاد (طائرة او صاروخ) وتصدر أمرًا بشن هجوم مضاد؛ لذلك تم إلغاء هذه الأوامر الخاطئة وإبقاء الكلمة الأخيرة بيد الإنسان، لكن تطور الذكاء الاصطناعي يترك المجال مفتوحًا لمسألة "من الذي سيطبق رأيه في المستقبل": القائد أم الذكاء الاصطناعي الذي يمكنه حساب الخيارات بمائة خطوة للأمام.

يتم اليوم اتخاذ تدابير لمنع أنظمة القتال التي تعمل بالذكاء الاصطناعي من أن تصبح مستقلة للغاية؛ ففي الجيش الأمريكي، على سبيل المثال، يسري الأمر التوجيهي رقم 3000.09 الصادر في تشرين الثاني/نوفمبر 2012، الذي يتطلب أن تكون جميع أنظمة الأسلحة "الذكية" بدون استثناء مزودة بآليات تمنع اختراقها أو إطلاقها ذاتيًّا.

ويقول الأمر؛ يجب أن تمكّن أنظمة القتال المستقلة وشبه المستقلة القادة والمشغلين من ممارسة المستوى الضروري من السيطرة على استخدامها، كما يجب أن توفر هذه الإجراءات تأكيدًا على أن مثل هذه الأنظمة ستعمل كما هو متوقع في ظل ظروف اتصال حقيقي مع العدو، وفي المواقف الغامضة؛ يجب وقف إطلاق النار أو طلب اتخاذ مزيد من الإجراءات من القادة.

وقال خبير الروبوتات، فلاديمير فينيروف لموقع "نيوز ري": "لم تعد الروبوتات ذاتية التعلم مستقبلًا، بل حاضرًا، ولكن اليوم يستخلص المهندسون استنتاجاتهم على أساس دراسة أخطاء عينات العمل الفعلية لـ"آلات التفكير"".

وقال فينيروف، الذي يدير شركة ألفا روبوتيكس، إنه يتم تضمين خوارزميات التعلم الذاتي في النماذج الحالية لأنواع كثيرة من المعدات، بدءًا من آلات المحاسبة إلى المركبات بدون سائق، أي أن إنشاء طائرات بدون طيار أو دبابات يتحكم فيها الذكاء الاصطناعي أمر واقعي تمامًا لتقنيات اليوم. وبالتالي؛ فإن السماح أو عدم السماح بمثل هذه العينات في ساحة المعركة ليس مسألة تقنية، إنها مسألة تخطيط عسكري وسلامة أولئك الذين يستخدمون مثل هذه الأنظمة، ولكن مع تسليم السلطات إلى الذكاء الاصطناعي خطوة بخطوة؛ يضعف نظام "الحماية من الأحمق" (أو من المفارقات، كما في هذه الحالة، من "الذكي جدًا"، نظرًا لأننا نتحدث عن روبوت ذاتي التعلم)

هذا هو السبب في أنه خلال اجتماع فريق الأمن السيبراني التابع للأمم المتحدة المقرر عقده في حزيران/يوليو، من المقرر - من بين أمور أخرى - النظر في إمكانية تقديم مشروع معاهدة إلى الجمعية العامة للأمم المتحدة بشأن حظر أنظمة الأسلحة الذاتية.



بالمناسبة؛ يتم الترويج لهذه الفكرة بقوة من قبل الصين؛ حيث تطالب المجتمع الدولي بالتخلي عن تطوير وإنشاء مثل هذه الأنظمة "الذكية"، والتي يكون من المستحيل التراجع عن قراراتها من الخارج.

المصدر: موقع نيوز ري