مودي حكيم
رشقات التكنولوجيا.. ومستقبل حزب!
"دع العدو يجهز نفسه للبكاء والنحيب"، تصريح سابق للمرشح الأبرز لخلافة ابن عمه حسن نصر الله، هاشم صفي الدين رئيس المجلس التنفيذي لحزب الله، وعضو "مجلس الجهاد" الذي يشرف على العمليات العسكرية، الرجل الذي صنفته الولايات المتحدة من قبل كإرهابي.
مستقبل الحزب غامض بعد سلسلة ضربات نالت من قيادات الصف، الأول والثاني والثالث، والضرر من الصعب إصلاحه فى القريب، وإسرائيل تعتبر أنه قضى على العمود الفقري لقيادة الحزب، في الوقت الذي تستمر فيه إسرائيل فى غاراتها الجوية باستخدام الذكاء الاصطناعي! ومعلومات مسربة من داخل الحزب، أو من إيران!
فبعد اغتيال الرجل الثاني في حزب الله فؤاد شكر واليد اليمنى لنصر الله في الضاحية الجنوبية لبيروت. ثم اغتيال رئيس المكتب السياسي في حركة حماس إسماعيل هنية في طهران.. أعلنت إسرائيل منذ أيام عن مقتل حسن نصر الله الأمين العام لـ«حزب الله» على مدى اثنين وثلاثين عاماً وهو فى سن الخامسة والثلاثين فقط، وأصبح الرمز المعروف للجماعة التي كانت يوماً كياناً غامضاً أسسه «الحرس الثوري» الإيراني في 1982 لمحاربة قوات الاحتلال الإسرائيلي.
ونجح مقاتلوه في نهاية المطاف في إخراج القوات الإسرائيلية من جنوب لبنان عام 2000، وهو ما أنهى احتلالاً استمر 18 عاماً. ويمثل اغتياله أكبر ضربة يتلقاها «حزب الله»، الذي مني، بضربات قاسية استهدفت أبرز قياداته، منذ أندلاع حرب غزة.
ضربات موجعة لكل من حزب الله وحركة حماس وحزب الله، وأحرجت هيبة إيران من جديد. كما اغتالت إسرائيل الرجل الثاني في حزب الله فؤاد شكر واليد اليمني لنصرالله في الضاحية الجنوبية لبيروت. ثم اغتالت رئيس المكتب السياسي في حركة حماس إسماعيل هنية في طهران.
يبدو شهر سبتمبر، كان شهر تصفية قادة ومساعدي نصرالله فى حزب الله فقد استهدفت الغارات الجوية إبراهيم عقيل قائد العمليات فى الحزب، وكانت الولايات المتحدة قد عرضت مكافأة قدرها سبعة ملايين دولار لمن يدلي بمعلومات عن مكان وجوده وابراهيم قبيسي مسؤول قوة الصواريخ ، ومحمد سرور واسمه الحركي "أبو صلاح" قائد وحدة الطائرات من دون طيار فى حزب الله.. ومسؤول صواريخ«الحوثي»، وكان سرور أحد القادة وكبار المستشارين الذين أرسلهم «حزب الله» لتدريب «الحوثيين» في اليمن، كما كان يدير مشروعاً لإنتاج الطائرات المسيرة في لبنان. وكذا قُتل القيادي في «حزب الله» قائد قوة "الرضوان" أحمد وهبي منذ اسبوع في غارة جوية إسرائيلية في الضاحية الجنوبية في بيروت.. ليعلن الجيش الإسرائيلي، إن “معظم كبار قادة حزب الله قتلوا”، بعدما تم إعلان مقتل الأمين العام، حسن نصر الله.
تعيدنا الأحداث الأخيرة لأعادة الحديث عن دور أسلحة الذكاء الاصطناعي الجديدة فى الحروب. فى كتاب "الحرب والذكاء الاصطناعي ومستقبل الصراع" الذي نشر منذ شهرين لكريستيان هامبل، Kristian Humble، الأستاذ المشارك في القانون الدولي في كلية الحقوق وعلم الجريمة بجامعة جرينتش بلندن.
وقد نُشرت له العديد من المقالات حول مواضيع في إطار القانون الدولي بما في ذلك حقوق الإنسان والذكاء الاصطناعي والحق في الخصوصية والشعبوية والحرب الحديثة والعلاقات الدولية. وهو أيضًا مساهم في لجنة مجلس اللوردات الخاصة بالذكاء الاصطناعي في أنظمة الأسلحة.
استعرض الكتاب تأثير الذكاء الاصطناعي الآن على كل مجال من مجالات الحياة البشرية.
فقد شهد العقد الماضي زيادة كبيرة في استخدام الذكاء الاصطناعي، بما في ذلك برامج التعرف على الوجه والمركبات ذاتية القيادة ومحركات البحث وبرامج الترجمة. كما تزامنت هذه الاستخدامات المقبولة للذكاء الاصطناعي في المجتمع الحديث مع زيادة حضور الذكاء الاصطناعي في الحرب الحديثة.
يتوازى تسليح الذكاء الاصطناعي المتصاعد مع سباق التسلح النووي في الحرب الباردة، مع استبدال الأسلحة النووية بأنظمة الأسلحة الآلية. ومع ذلك، كان المجتمع الدولي والأمم المتحدة والقانون الدولي يكافحون للتكيف مع وتنظيم استخدام الأسلحة الآلية، والتي تغير بسرعة مشهد الحرب الحديثة.
بدأ المجتمع الدولي في ملاحظة الذكاء الاصطناعي وتأثيره على الحرب الحديثة في عام 2012، مع سلسلة من الوثائق التي توضح استخدام أنظمة الأسلحة الآلية.
وقد تضمنت هذه الوثائق توجيهات سياسية من وزارة الدفاع الأمريكية بشأن الاستقلالية في أنظمة الأسلحة وتقرير من هيومن رايتس ووتش وعيادة حقوق الإنسان الدولية بكلية الحقوق بجامعة هارفارد (تقرير هيومن رايتس ووتش-المركز الدولي لحقوق الإنسان لعام 2012) يدعو إلى حظر صريح للأسلحة الآلية.
أصبح تطوير واستخدام الأسلحة التي يمكنها القيام بوظائف مستقلة أثناء الصراع محور اهتمام الدول وشركات التكنولوجيا. في عام 2017، "حثت" رسالة مفتوحة من معهد الحياة المستقبلية إلى الأمم المتحدة، وقع عليها 126 من الرؤساء التنفيذيين ومؤسسي شركات الذكاء الاصطناعي والروبوتات، الدول على منع سباق التسلح لأنظمة الأسلحة المستقلة.
ومع ذلك، لا يوجد إطار تنظيمي قانوني دولي لمعالجة هذه المخاوف حول استخدام الذكاء الاصطناعي، وخاصة في سياق الصراع. الإطار القانوني الوحيد للذكاء الاصطناعي الموجود، والذي أنشأته المادة 26 من العهد الدولي الخاص بالحقوق المدنية والسياسية، يربط استخدام الذكاء الاصطناعي بالحق في الخصوصية فقط.
ما هو السلاح الآلي؟.. هناك تعريفات متنافسة لما يشكل الأسلحة الآلية، على الرغم من أن وزارة الدفاع البريطانية ووزارة الدفاع الأمريكية قد طورتا التعريفين الرئيسيين. في عام 2011، عرّفت وزارة الدفاع البريطانية الأسلحة الآلية بأنها "أنظمة قادرة على فهم النية والاتجاه على مستوى أعلى، أي تحقيق نفس مستوى الفهم الظرفي الذي يتمتع به الإنسان والقادرة على اتخاذ الإجراء المناسب لإحداث الحالة المرغوبة".
وعلى نحو مماثل، اقترحت وزارة الدفاع الأمريكية في عام 2023 نهجًا مختلفًا وعرّفت "الأسلحة الآلية بأنها قادرة بمجرد تنشيطها على تحديد الأهداف والاشتباك معها دون تدخل إضافي من مشغل بشري".
قدم تقرير هيومن رايتس ووتش-اللجنة الدولية لحقوق الإنسان لعام 2012 تعريفًا مشابهًا للمجتمع الدولي، حيث عرف الأسلحة الآلية بأنها "أسلحة مستقلة تمامًا يمكنها تحديد الأهداف والاشتباك معها دون تدخل بشري".
كما يوسع مركز كفاءة القوة الجوية المشتركة التابع لحلف شمال الأطلسي (JAPCC) مفهوم الأتمتة ليشمل "الوعي وتقرير المصير". وتشمل أمثلة الأسلحة الآلية أنظمة دفاعية مثل القبة الحديدية الإسرائيلية وMANTIS الألمانية فضلاً عن المركبات الوقائية النشطة مثل LEDS-150 السويدية.
كما يتعين على التعريف الجديد أن يشمل الأسلحة الآلية المستخدمة في المواقف غير الصراعية، مثل Super aEgis II الكورية الجنوبية، والتي تستخدم كجهاز مراقبة في وقت السلم على طول الحدود بين كوريا الجنوبية وكوريا الشمالية.
ومع ذلك، تكمن المشكلة الحقيقية في تحديد تعريفات مستقبلية لأنظمة الأسلحة الآلية. ولا ينبغي أن تشمل التعريفات فقط الأنظمة التي لم يتم حسابها بالفعل، مثل Super aEgis II، بل يجب أن تتوقع أيضًا أنظمة الأسلحة الآلية التي قد تظهر في المستقبل.
وعلى وجه الخصوص، يتعين على المجتمع الدولي أن يتفق على تعريف يمكن أن يشمل خوارزميات الإدخال المعرفي البشري التي تعتمد على الذكاء الاصطناعي، والتي تتمتع بقدرات اتخاذ القرار الشبيهة بالإنسان.
وعلى الرغم من هذه الحاجة، لم يتفق المجتمع الدولي بعد على لوائح أنظمة الأسلحة الآلية.
تتضم اتفاقية الأمم المتحدة بشأن الأسلحة التقليدية بروتوكولاً يحكمه فريق الخبراء الحكوميين، الذي يجتمع سنويًا لمناقشة تنفيذ بروتوكولات اتفاقية الأسلحة التقليدية وقضايا الأسلحة ذات الصلة. انتهى آخر اجتماع لفريق الخبراء الحكوميين، الذي عقد في مايو 2023، دون أي تقدم كبير بشأن أنظمة الأسلحة الآلية، حيث لم يتفق فريق الخبراء الحكوميين على أي ضمانات تنظيمية.
كما فشل مشروع تقريرهم في تعزيز الإطار القانوني. ومع ذلك، قدم التقرير حظرًا يركز على الحاجة إلى التحكم البشري في أنظمة الأسلحة الآلية بالإضافة إلى لوائح تركز حول تطوير أنظمة الأسلحة الآلية.
أصدرت اثنتان وخمسون دولة بيانًا مشتركًا لدعم مشروع التقرير، لكنها ذكرت أيضًا أن المسودة كانت معيارًا أدنى، وأكدت على الحاجة إلى إطار قانوني أكثر قوة وطموحًا. في اجتماعها في مايو 2023، قررت مجموعة الخبراء الحكوميين تنظيم مناقشات أطول حول تقنيات أنظمة الأسلحة الآلية الفتاكة الناشئة في مارس وأغسطس 2024. في حين قد تحدث تطورات أكثر أهمية في أحدث مناقشات فريق الخبراء الحكوميين، إلا أن الإطار القانوني لتنظيم تطوير ونشر أنظمة الأسلحة الآلية لم يظهر بعد.