الشرق الأوسط وشمال أفريقيا

  • ذعر من القتلة الآليين

    Neena Bhandari

    30/08/17

نقاط للقراءة السريعة

  • صانعو الذكاء الاصطناعي يحذرون من الإمكانات المدمرة للروبوتات القاتلة

  • الروبوتات القاتلة تمثل ’ثورة ثالثة‘ في التسليح بعد البارود والأسلحة النووية

  • اقتراح باتفاقية مماثلة لتلك المتعلقة بالأسلحة الكيميائية والبيولوجية

[سيدني] وجه مؤسسو شركات رائدة في الروبوتات والذكاء الاصطناعي من 26 دولة رسالة مفتوحة إلى الأمم المتحدة، تدعو القائمين على اتفاقية حظر أو تقييد استعمال أسلحة تقليدية معينة إلى جعل الروبوتات القاتلة محظورة.

تستطيع الروبوتات القاتلة والأسلحة ذاتية التشغيل أن تحدد الهدف وتهاجمه دون تدخل بشري. وتشمل الأسلحة الذاتية الطائرات المروحية المسلحة رباعية المحركات، والطائرات بدون طيار التي لا يتخذ فيها البشر القرارات، لكنها لا تشمل صواريخ كروز أو الطائرات بدون طيار الموجهة عن بعد.

تعدّ الرسالة التي صيغت في عام 2017، ووقعها 116 من كبار مؤسسي شركات الذكاء الاصطناعي، من بنات أفكار توبي والش، أستاذ الذكاء الاصطناعي بجامعة نيو ساوث ويلز في سيدني. طُرحت الرسالة خلال افتتاح المؤتمر الدولي المشترك المعني بالذكاء الصناعي الذي دام انعقاده ثلاثة أيام (من 21 إلى 23 أغسطس)، وكان من المقرر أن يتزامن مع الاجتماع الأول لفريق الخبراء الحكوميين التابع للأمم المتحدة، المعني بمنظومات الأسلحة الفتاكة ذاتية التشغيل، الذي أعيد تحديد موعده لينعقد في شهر نوفمبر.

”إذا صُنعت هذه الأسلحة، حتمًا سيقع بعضها في أيدي مَن لن يتورع عن استخدامها لتنفيذ مآرب شريرة“.

توبي والش، أستاذ الذكاء الاصطناعي بجامعة نيو ساوث ويلز في سيدني

تمثل الرسالة موقفًا مشتركًا ضد ’الثورة الثالثة‘ للتسليح بعد البارود والأسلحة النووية. ومن بين الموقعين على الرسالة إيلون ماسك، مؤسس شركات ’تسلا‘، و’سبيس إكس‘ و’أوبين إيه آي‘، ومصطفى سليمان، مؤسس ورئيس إدارة الذكاء الاصطناعي التطبيقي في شركة ’ديب مايند‘ التابعة لمحرك البحث الأشهر والأكبر، جوجل.

جاء في الرسالة: ”بصفتنا شركات تقوم ببناء التقنيات في مجالي الذكاء الاصطناعي والروبوتات، التي يمكن إعادة استخدامها لتطوير أسلحة ذاتية التشغيل، فإننا نشعر بمسؤولية خاصة لدق ناقوس هذا الخطر. ما إن يتم تطوير تلك الأسلحة الذاتية، فإنها ستفتح الباب نحو نزاعات مسلحة على نطاق أوسع من أي وقت مضى، وستتطور بشكل أسرع من قدرة البشر على الاستيعاب. وقد تكون تلك أسلحة في يد الإرهاب، أو أسلحة يستخدمها الطغاة المستبدون والإرهابيون ضد الأبرياء، أو أسلحةً معدّة للتصرف على نحو غير مرغوب فيه. فما إن يُفتح هذا الباب، حتى يصبح من الصعب إغلاقه“.

والش -وهو أحد الذين وقفوا وراء رسالة 2015 إلى الأمم المتحدة، ووقعها باحثو الذكاء الاصطناعي والروبوتات، وأيدها الفيزيائي البريطاني ستيفن هوكينج، والمؤسس المشارك لشركة أبل ستيف وزنياك، من بين آخرين- قال: في حين حذرت الرسالة السابقة من سباق التسلح، فإن الرسالة الحالية تهدف إلى منح زخم للمداولات بشأن هذا الموضوع. ”أنا أتوقع أثرًا إيجابيًّا للغاية؛ لأن الرسالة الأولى دفعت هذا البند إلى قمة جدول الأعمال في الأمم المتحدة“.

وفي ديسمبر 2016، وافقت بالإجماع 123 دولة من الدول الأعضاء في المؤتمر الاستعراضي للأمم المتحدة المعني باتفاقية حظر أو تقييد استعمال أسلحة تقليدية معينة على بدء مناقشات رسمية بشأن الأسلحة ذاتية التشغيل.

ويخبر والش شبكة SciDev.Net: ”المشكلة أشد إلحاحًا الآن. هذه الرسالة الجديدة تبين بوضوح تام أن مَن يدعمها ليس الباحثين والأكاديميين أمثالي فقط، ولكن الصناعة أيضًا وراءها. إننا نعيش في عالم غير مستقر على نحو متزايد، حيث تلعب الدول المارقة والمنظمات الإرهابية دورًا أكثر خطورة. إذا تم تصنيع هذه الأسلحة، حتمًا سيقع بعضها في أيدي من لن يرعوي عن استخدامها لتنفيذ مآرب شريرة“.

ويضيف والش: ”يمكن أن يساعد الذكاء الاصطناعي في معالجة العديد من المشكلات العالمية المُلحَّة، مثل عدم المساواة، والفقر، والتحديات الناجمة عن تغير المناخ، والأزمة المالية العالمية الجارية. بيد أن الجانب السلبي هو إمكانية أن تُستخدم التكنولوجيا نفسها أيضًا في الأسلحة الذاتية من أجل إضفاء الطابع الصناعي بصورة أكبر على الحروب. هذا هو السبب في أنني أدعو إلى حظر تفرضه الأمم المتحدة على مثل هذه الأسلحة، على غرار حظر الأسلحة الكيميائية وغيرها من الأسلحة“.

غير أن ماري آن وليامز -مديرة قسم الابتكار المسبب لاضطراب في السوق بجامعة سيدني للتكنولوجيا- تقول: ”إن حظر الروبوتات القاتلة وحده لن يُجدي ضد الدول المارقة والجماعات الإرهابية؛ لأنها لا تتقيد بحظر أو تلتزم بالقانون الدولي. إن طبيعة الأسلحة المدمرة آخذة في التغير؛ فهناك اتجاه متزايد لتصنيعها يدويًّا. يمكن للمرء طباعة بندقية بتقنية الطباعة ثلاثية الأبعاد، أو إلقاء قنبلة من طائرة بدون طيار تباع في الأسواق، أو تحويل السيارات العادية إلى أسلحة“.

ويتفق معظم الخبراء على ضرورة فرض المزيد من اللوائح التنظيمية.

يشير مايكل هاري -المحاضر في مجموعة المنظومات المعقدة في جامعة سيدني- إلى أن ”هناك سؤالًا آخر لا يقل أهمية، وهو يتمثل في احتمال أن تصبح الأنظمة الذاتية التشغيل غير العسكرية خطيرة، مثل برامج التداول في الأسواق المالية التي تعرِّض مليارات الدولارات للخطر. قريبًا، سيكون لدينا أيضًا أنظمة ذكاء اصطناعي ذاتية تتمتع بسمات نفسية بسيطة، ووعي بالعالم مماثل لوعي الحيوانات. قد تتعلم نظم الذكاء الاصطناعي هذه أن تصبح خطرة، تمامًا كما تعلَّم نظام الدردشة الآلي التابع لشركة (ميكروسوفت)، ويدعى ’تاي‘، أن يصبح معاديًا للمجتمع على تويتر“.


هذا الموضوع أُنتج عبر المكتب الإقليمي لموقع SciDev.Net بإقليم
 آسيا والمحيط الهادئ.