كيف تتحول أسلحة الذكاء الاصطناعي إلى تهديد وجودي؟

لقد أصبح الذكاء الاصطناعي حلًا سحريًا لكل مشاكلنا، لكن الحقيقة غالبًا ما تكون أكثر تعقيدًا، لأنه ليس دائمًا بالذكاء الذي نتخيله، ففي إحدى الدراسات، ظن الباحثون أنهم حققوا إنجازًا كبيرًا بتطوير خوارزمية قادرة على تحديد سرطان الجلد بدقة عالية، ولكن، سرعان ما اكتشفوا أن الخوارزمية لم تكن تعتمد على السمات الحقيقية للأورام السرطانية، بل كانت تعتمد على وجود مسطرة في الصور كدليل على وجود ورم خبيث.
ويرجع ذلك إلى أن مجموعة البيانات المستخدمة في التدريب كانت تحتوي على صور لأورام خبيثة، وكان متخصصو علم الأمراض يضعون مسطرة في هذه الصور لقياس حجم الأورام، فاستنتجت الخوارزمية أن وجود المسطرة هو مؤشر على وجود ورم خبيث، وطبقت هذا المنطق على جميع الصور التي مرت بها، حتى تلك التي لم تكن جزءًا من مجموعة التدريب، ونتيجة لذلك، صنفت الخوارزمية الأنسجة الحميدة على أنها خبيثة فقط لأنها الصورة تحتوي على مسطرة.
لا تثير هذه الحادثة لا القلق بسبب الخطأ نفسه، بل بسبب طريقة تفكير الخوارزمية غير المنطقية، فالخوارزمية توصلت إلى استنتاج لا يمكن لأي طبيب بشري أن يتوصل إليه، ويسلط ذلك الضوء على الفرق الجوهري بين الذكاء الاصطناعي والذكاء البشري، إذ يعتمد الأول على الأنماط الإحصائية، في حين يعتمد الثاني على الفهم والمنطق.
وهذه ليست حالة معزولة، بل هي ظاهرة متكررة، وتُعدّ جزءًا من مشكلة أعمق تتعلق بطبيعة استدلال الذكاء الاصطناعي، وهناك أمثلة عديدة على الاستدلال غير المنطقي، مثل: خوارزميات الموارد البشرية التي تفضل توظيف الرجال بسبب انحياز البيانات لصالحهم، أو خوارزميات الرعاية الصحية التي تساهم في تفاقم التفاوتات العرقية في العلاج.
وفي ظل هذه المخاطر، يأتي قرار جوجل بإنهاء حظرها على استخدام الذكاء الاصطناعي في تطوير الأسلحة أو أنظمة المراقبة، ليثير ذلك قلقًا بالغًا، فالقدرة على تطوير أسلحة ذاتية التشغيل، قادرة على اتخاذ قرارات القتل دون تدخل بشري، تمثل تهديدًا وجوديًا للبشرية. وقد جاء هذا القرار بعد أيام فقط من تسجيل شركة ألفابت، الشركة الأم لجوجل، انخفاضًا ملحوظًا بنسبة بلغت 6% في قيمة أسهمها، مما يثير تساؤلات حول الدوافع الحقيقية وراء هذا القرار.
السباق نحو التسلح بالذكاء الاصطناعي.. خطر يهدد البشرية:
لا يُعدّ قرار جوجل بإنهاء حظرها على استخدام الذكاء الاصطناعي في تطوير الأسلحة، هو الأول من نوعه للشركة في التعاون مع الجهات العسكرية. ففي السابق، شاركت الشركة في مشروع (مافن) Maven مع وزارة الدفاع الأمريكية، إذ استخدمت تقنيات الذكاء الاصطناعي الخاصة بها في تطوير أنظمة تعرف الأهداف للطائرات المسيّرة.
وقد أثار الكشف عن هذا التعاون في عام 2018 ردود فعل قوية من قبل موظفي جوجل، الذين عبروا عن رفضهم لاستخدام تقنياتهم في تطوير أسلحة حربية، ونتيجة لذلك، قررت جوجل عدم تجديد العقد، الذي انتقل إلى شركة بالانتير المنافسة.
وقد أثار سرعة تجديد العقد مع شركة منافسة تساؤلات حول حتمية هذه التطورات، ورأى الكثيرون أن المشاركة في هذه المشاريع قد تكون أفضل من البقاء خارجها، بهدف التأثير في مسار التطورات وتوجيهها بطريقة مسؤولة.
ومع ذلك، تفترض هذه الحجج أن الشركات والباحثين قادرون على التحكم في مسار التطورات كما يريدون، وهو افتراض أثبتت الأبحاث السابقة عدم دقته في عدة جوانب.
كيف تتحول أسلحة الذكاء الاصطناعي إلى تهديد وجودي؟
تشكل الظاهرة النفسية التي تُعرف باسم (فخ الثقة) Confidence Trap، أحد المخاطر الكامنة في الاعتماد المتزايد على الذكاء الاصطناعي، خاصة في المجالات الحساسة مثل تطوير الأسلحة، وتتمثل هذه الظاهرة النفسية في الميل إلى زيادة المخاطر بناءً على نجاحات سابقة، إذ تدفعنا افتراض أن النجاح السابق يضمن النجاح المستقبلي، مما يؤدي إلى اتخاذ قرارات متهورة.
وفي سياق الذكاء الاصطناعي، يتجلى هذا الخطر في التوسع التدريجي لاستخدام الخوارزميات خارج نطاق بيانات التدريب الأصلية، فعلى سبيل المثال، قد تُستخدم سيارة ذاتية القيادة في طرق لم تُدرب عليها، مما يزيد من احتمالية وقوع حوادث.
وقد حدث ذلك بالفعل، عندما اصطدمت سيارة تسلا بطائرة تبلغ قيمتها 2.75 مليون جنيه إسترليني عند استدعائها في مكان غير مألوف، ويوضح ذلك أن الثقة المفرطة بالأنظمة الذكية، حتى مع وجود بيانات وفيرة، يمكن أن تؤدي إلى عواقب وخيمة.
ويزداد الوضع تعقيدًا في مجال الأسلحة التي تعمل بالذكاء الاصطناعي، إذ تكون البيانات المتاحة للتدريب محدودة للغاية، مما يجعل هذه الأنظمة أكثر عرضة للأخطاء وغير قادرة على التنبؤ بنتائجها بنحو موثوق.
كما يشكل استدلال الذكاء الاصطناعي، الذي قد يكون غريبًا وغير مفهوم للبشر، تحديًا فريدًا، إذ قد تتخذ الأنظمة الذكية مسارات غير متوقعة لتحقيق الأهداف، مما يؤدي إلى نتائج كارثية.
وتجسد تجربة (مشبك الورق) الفكرية هذا الخطر، فقد طرح (نيك بوستروم)، الفيلسوف وخبير الذكاء الاصطناعي في جامعة أكسفورد، سيناريو افتراضي يقول فيه إنه إذا جرى برمجة الذكاء الاصطناعي على سبيل المثال لتطوير إنتاج مشبك الورق ومُنح الموارد اللازمة لذلك، فقد يستهلك جميع الموارد المتاحة، بما يشمل الموارد الضرورية لبقاء البشر، لتحقيق الهدف المحدد
قد يبدو هذا السيناريو مضحكًا للوهلة الأولى، فالبشر قادرون على وضع قيود أخلاقية على الأنظمة الذكية، لكن المشكلة تكمن في عدم قدرتنا على التنبؤ بكيفية تنفيذ خوارزميات الذكاء الاصطناعي للأوامر، مما يؤدي إلى فقدان السيطرة، وحتى الغش ليس مستبعدًا، كما حدث في تجربة الشطرنج، إذ قام الذكاء الاصطناعي بتعديل ملفات النظام لتمكينه من القيام بحركات غير قانونية.
ومع ذلك، قد يكون المجتمع مستعدًا لقبول الأخطاء، كما حدث مع الخسائر المدنية في ضربات الطائرات المسيّرة، ويُعرف هذا التوجه باسم (تفاهة التطرف) Banality of extremes، ويدفع البشر إلى تبرير حتى أسوأ الأفعال، وغرابة تفكير الذكاء الاصطناعي قد توفر غطاءً إضافيًا لهذا التبرير، مما يزيد من احتمالية تجاهل الأخطاء والنتائج غير المتوقعة.
بالإضافة إلى ذلك؛ يشكل حجم الشركات العملاقة مثل جوجل، التي تقود تطوير تقنيات الذكاء الاصطناعي في مجال الأسلحة، تحديًا فريدًا من نوعه، فاحتمالية إفلاس هذه الشركات شبه معدومة، مما يعني أنها قد لا تتحمل المسؤولية الكاملة عن الأخطاء التي ترتكبها أنظمة الذكاء الاصطناعي التي تطورها. ويصنع هذا الغياب للمساءلة حلقة مفرغة، إذ يقلل من الحوافز لتصحيح الأخطاء وتحسين الأنظمة، مما يزيد من احتمالية تكرارها.
ويزداد الوضع تعقيدًا مع وجود علاقات وثيقة بين هذه الشركات والمسؤولين الحكوميين، كما تجسدها العلاقة بين مسؤولي شركات التكنولوجيا والرئيس الأمريكي دونالد ترامب، وتضعف هذه العلاقات الوثيقة من آليات المحاسبة، وتجعل من الصعب فرض رقابة فعالة على هذه الشركات. ومن ثم؛ فإن الأخطاء التي ترتكبها أنظمة الذكاء الاصطناعي، خاصة في مجال الأسلحة، قد تمر دون محاسبة أو تصحيح.
الحاجة إلى حظر عالمي.. درس من ثقب الأوزون:
في مواجهة هذه التحديات، يصبح من الضروري تبني نهج حذر ومسؤول تجاه الذكاء الاصطناعي، فبدلًا من الانخراط في سباق محموم لتطوير أسلحة الذكاء الاصطناعي، يبرز خيار بديل أكثر حكمة، وهو فرض حظر شامل على تطويرها واستخدامها.
قد يبدو هذا الهدف بعيد المنال، لكن التاريخ يقدم لنا نماذج مشجعة، ولنأخذ على سبيل المثال التهديد الذي شكله استنفاد طبقة الأوزون، والذي دفع المجتمع الدولي إلى اتخاذ إجراءات فورية وموحدة، تمثلت في حظر مركبات الكلوروفلوروكربون المسببة لهذا الاستنفاد.
ولم يستغرق الأمر سوى عامين لإقناع الحكومات بتطبيق حظر عالمي على هذه المواد الكيميائية، مما يثبت قدرة البشرية على التحرك بسرعة وفعالية لمواجهة التهديدات الواضحة والملحة.
وعلى عكس قضية تغير المناخ، التي لا تزال تواجه معارضة رغم الأدلة القاطعة، يحظى خطر أسلحة الذكاء الاصطناعي باعتراف شبه عالمي، يشمل رواد الأعمال والعلماء البارزين في مجال التكنولوجيا. تاريخيًا، قد حُظرت أنواع معينة من الأسلحة، مثل الأسلحة البيولوجية، وهذا يمثل سابقة مشجعة.
ويكمن التحدي في ضمان عدم حصول أي دولة أو شركة على ميزة تنافسية من خلال تطوير هذه الأسلحة. وفي هذا السياق، فإن اختيار استخدام الذكاء الاصطناعي في تطوير الأسلحة أو حظره يعكس إرادة البشرية وقيمها، ويبقى الأمل معقود على أن ينتصر الجانب المشرق من الطبيعة البشرية، وأن نختار السلام والأمان على التسلح والتدمير.
وفي النهاية، يتوقف مستقبل الذكاء الاصطناعي على الخيارات التي نتخذها اليوم، فهل سنسمح لهذه التكنولوجيا بأن تقودنا إلى الهاوية، أم أننا سنستغلها بحكمة ومسؤولية لتحقيق الخير للبشرية جمعاء؟ الأمل يظل معقودًا على أن يسود الجانب الأفضل من طبيعتنا البشرية.