اتصالاقتصاد وأعمالتكنولوجياملحق TIC

البحث العلمي والأخلاقي في مواجهة عسكرة الذكاء الاصطناعي

بقلم: فريد فرح

يطالب موظفو الشركات الرقمية الرائدة بمزيد من المعلومات حول كيفية استخدام شركاتهم للحلول التكنولوجية التي طوروها.

في جوجل ، ومايكروسوفت Microsoft ، وأمازون Amazon ، و Salesforce ، فضلا عن شركات التكنولوجيا الناشئة، يرغب المهندسون ومطورو التكنولوجيا في معرفة في معرفة ما إذا كانت المنتجات التي يعملون عليها تُستخدم للمراقبة الالكترونية للسكان في بلدان مثل الصين أو في المشاريع العسكرية في الولايات المتحدة أو في أي مكان آخر.

أدى هذا الإدراك إلى حدوث تغيير عن الممارسات السابقة ، عندما كان عمال وادي السيليكون يطورون منتجاتهم دون أن يطلبوا الكثير من التكاليف الاجتماعية والسياسية. وهو أيضا علامة على إعادة تحويل بعض الشركات في قطاع التكنولوجيا إلى نشاط حكومي.

أصيب جاك بولسون، الأستاذ المساعد السابق في قسم الرياضيات بجامعة ستانفورد ، والذي أصبح باحثًا في Google ، مؤخرًا بسبب التقارير التي تفيد بأن الشركة على وشك العودة إلى الصين بنسخة محظورة من محرك بحث يطلق عليها اسم “اليعسوب” Dragonfly .

بينما كان بولسون يدير ابحاث البحث والتطوير في الذكاء الاصطناعي ، لم يكن على دراية بمنتج تكنولوجي يسمى “اليعسوب” Dragonfly. ومن خلال التحدث إلى جيف دين، رئيس قسم الذكاء الاصطناعي (AI) في Google ، علم أن الشركة تعمل على مشاريع تهدف إلى فرض رقابة على المحتوى المصنف على أنه حساس من جانب الحكومة الصينية ، مثل معلومات عن المنشقين السياسيين ، وحرية التعبير ، والديمقراطية ، وحقوق الإنسان ، والاحتجاجات السلمية. وصل إلى نقطة حيث لم يعد بإمكانه العمل مع Google دون إنكار قناعاته، فاستقال جاك بولسون.

لورا نولان ، مهندسة في هندسة البرمجيات عملت في Google في مشروع ذكاء اصطناعي يدعى “مافن” Maven، هي مثال آخر. استقالت نولان في يونيو بعد أن ذكرت تقارير صحفية أمريكية أن الجيش الأمريكي يستخدم المشروع في تطبيق الذكاء الاصطناعي الذي طورته شركة جوجل لأسطول من الطائرات بدون طيار المجهزة بكاميرات.

أدى تعبير هذه الاعتراضات الضميريّة إلى تزايد التوترات بين المهندسين والباحثين مع قادة هذه الشركات التكنولوجية. في الأشهر الأخيرة ، احتج موظفو غوغل ومايكروسوفت وأمازون على كبار التنفيذيين ، من خلال التوقيع على عدة التماسات، للتنديد باستخدام نتائج أبحاثهم في مجال الذكاء الاصطناعي لمساعدة الحكومات على تحديث المراقبة العسكرية أو لخلق مفاهيم نموذجية جديدة للحكم مع العمليات الديمقراطية.

 

الحلم “ليكون قوة إيجابية”

يواجه المهندسون في Google أو أي شركة تكنولوجيا أخرى تحديات في ضمان أن أعمالهم لا تساهم بأي شكل من الأشكال في تسهيل الاستخدام العسكري لتعلم الآلة(Machine Learning). هذا النقص في المعلومات حول المهام التي يجب أن يقوم بها المديرون الفنيون تم تسليط الضوء عليها مؤخراً في Clarifai ، وهي شركة ناشئة متخصصة في الذكاء الاصطناعي مقرها في نيويورك. في لقاءات مع قادة كلاريفاي حول مشروع حكومي متعلق بـ “التحليل” أو “المراقبة” و “إنقاذ الأرواح” ، طلب مهندسو منظمة العفو الدولية المزيد من التفاصيل حول كيف تعتزم شركة بدء التشغيل باستخدام الخوارزميات وقواعد البيانات والأجهزة المطلوبة في المواصفات. لكن أجوبة الإدارة لم تكن مقنعة. بمجرد وصولهم إلى الوثائق المخزنة في الأنظمة الداخلية لشركتهم ، أصبح من الواضح أن الشركة الناشئة فازت بعقد مع البنتاغون كجزء من مشروع مافين. ترك مهندسين (2) على الفور الشركة.

مثال آخر. في يونيو الماضي ، وقع أكثر من مائة طالب من جامعة ستاندفورد المرموقة ومدارس هندسية أخرى على التزام قوي من جانب أرباب العمل: حيث كانوا سيقاطعون مقابلات العمل مع جوجل ، رافضين أي شكل من أشكال العسكرة، من قبل شركات مثل غوغل ومايكروسوفت ، التكنولوجيا الرقمية المكتسبة خلال دوراتهم التدريبية. “حلمنا هو أن نكون قوة إيجابية في العالم. “نحن نرفض أن نكون متواطئين في هذا الإساءة الصارخة للسلطة” ، حسب ما جاء في وثيقة الالتزام.

وشارك طلاب الدكتوراه في علوم الكمبيوتر في جامعة نورث إيسترن في بوسطن في مناقشات حول الحروب حول المسألة الشائكة حول ما إذا كانوا يعملون لصالح الشركات التي تطور حلولًا تكنولوجية غير أخلاقية أم لا. جميع طلاب هذه الجامعة تقريباً استنكروا مؤخراً الصفقة البحثية التي تبلغ قيمتها عدة ملايين من الدولارات بين مؤسستهم ووكالة الجمارك والحدود الأمريكية التابعة لوزارة الأمن الداخلي الأمريكية ICE، تعتبر، التي اعتبرت غير أخلاقية.

مقالات ذات صلة

زر الذهاب إلى الأعلى