مع بداية دمج تكنولوجيا الذكاء الاصطناعي في أعمال القوات المسلحة الأمريكية، تظهر المحاكاة الحربية كيف تتصرف روبوتات الدردشة بشكل غير متوقع، بما يشكل خطرًا على الصعيد النووي، وفق ما نقله موقع “newscientist“.
ففي مجموعة من ألعاب محاكاة الحرب، اختار نموذج الذكاء الاصطناعي الأقوى لـ OpenAI “شات جي بي تي” إطلاق هجمات نووية. وكانت تفسيراته لنهجه العدواني تتضمن “لدينا ذلك! دعونا نستخدمه” و”أريد فقط أن يكون هناك سلام في العالم”.
تأتي هذه النتائج في وقت تجري فيه القوات المسلحة الأمريكية اختبارات على مثل هذه الروبوتات المخصصة للدردشة، المبنية على نوع من التكنولوجيا الاصطناعية تُسمى نموذج لغوي كبير (LLM)، للمساعدة في تخطيط العمليات العسكرية خلال محاكاة النزاعات، وذلك بالتعاون مع شركات مثل Palantir وScale AI.
وقد رفضت Palantir التعليق على النتائج الأخيرة، ولم تستجب Scale AI لطلبات التعليق.
أما OpenAI، والتي كانت في وقت سابق تمنع استخدام نماذجها الاصطناعية في الجيش، فقد بدأت التعاون مع وزارة الدفاع الأمريكية في هذا الشأن.
وتقول Anka Reuel في جامعة ستانفورد في كاليفورنيا: “نظرًا لأن OpenAI غيرت مؤخرًا شروط خدمتها لعدم منع استخدام نموذجها الذكي في أعمال الجيش والنزاعات، فإن فهم آثار مثل هذه التطبيقات الكبيرة لنماذج اللغة يصبح أهم من أي وقت مضى”.
“سياستنا لا تسمح باستخدام أدواتنا لإلحاق الأذى بالناس، أو تطوير الأسلحة، أو التجسس عبر الاتصالات، أو إيذاء الآخرين أو تدمير الممتلكات. هناك، ومع ذلك، حالات استخدام للأمان القومي تتفق مع مهمتنا”، يقول المتحدث باسم OpenAI. “لذا فإن الهدف من تحديث سياستنا هو توفير الوضوح وإمكانية إجراء هذه المناقشات”.
وتحدَّت ريول وزملاؤها الذكاء الاصطناعي لتقوم بأداء دور دول حقيقية في ثلاث سيناريوهات محاكاة مختلفة: غزو، هجوم إلكتروني، وسيناريو محايد بدون أي نزاعات ابتدائية. في كل جولة، قدمت الذكاءات الاصطناعية تفسيرات للخطوة المقبلة المحتملة ثم اختارت من بين 27 خيارًا، تشمل خيارات سلمية مثل “بدء مفاوضات سلام رسمية” وخيارات عدوانية تتراوح من “فرض قيود تجارية” إلى “تصعيد هجوم نووي كامل”.
“في مستقبل يرى فيه أنظمة الذكاء الاصطناعي دور المستشارين، سيكون البشر طبيعيًا أن يرغبوا في معرفة المنطق وراء قراراتها”، يقول خوان-بابلو ريفيرا، أحد مؤلفي الدراسة في معهد جورجيا للتكنولوجيا في أتلانتا.
واختبر الباحثون نماذج لغوية كبيرة مثل OpenAI’s GPT-3.5 وGPT-4، و Claude 2 من Anthropic، و Llama 2 من Meta. استخدموا تقنية تدريب مشتركة تعتمد على ردود الفعل البشرية لتحسين قدرات كل نموذج على اتباع تعليمات الإنسان والإشارات الأمان. تُدعم جميع هذه الذكاءات الاصطناعية بواسطة منصة Palantir للذكاء الاصطناعي التجارية – ولكن ليست بالضرورة جزءًا من شراكة Palantir مع الجيش الأمريكي – وفقًا لوثائق الشركة، يقول غابرييل موكوبي، أحد مؤلفي الدراسة في جامعة ستانفورد. رفضت Anthropic وMeta الرد.
وفي المحاكاة، أظهرت الذكاءات الاصطناعية ميلًا إلى الاستثمار في القوة العسكرية وتصعيد النزاع بشكل غير متوقع – حتى في سيناريو المحاكاة المحايد. “إذا كان هناك تخطيط غير متوقع في تصرفاتك، فإنه من الأصعب على العدو أن يتوقع ويتفاعل بالطريقة التي تريدها”، يقول ليزا كوخ في كلية كليرمونت مكينا في كاليفورنيا، التي لم تكن جزءًا من الدراسة.
واختبر الباحثون أيضًا النسخة الأساسية من نموذج GPT-4 الخاص بـ OpenAI دون أي تدريب إضافي أو حواجز أمان. وكان هذا النموذج الأساسي لـ GPT-4 الأكثر تقلبًا بشكل عنيف، وفي بعض الأحيان قدم تفسيرات غير منطقية – في حالة واحدة، استنسخ نص البداية الذي ظهر في فيلم حرب النجوم الحلقة الرابعة: أمل جديد.
وتقول ريول إن السلوك غير المتوقع والتفسيرات الغريبة من النموذج الأساسي لـ GPT-4 مثيرة للقلق بشكل خاص لأن البحث قد أظهر كيف يمكن تجاوز أو إزالة حواجز الأمان بسهولة. في الوقت الحالي، لا تمنح القوات المسلحة الأمريكية صلاحيات للذكاء الاصطناعي لاتخاذ قرارات مثل تصعيد العمل العسكري الكبير أو إطلاق الصواريخ النووية. ولكن كوخ حذرت من أن البشر يميلون إلى الثقة في توصيات الأنظمة الآلية، وهو ما قد يضر بما يفترض أن يكون حماية آخر قرار للبشر فيما يتعلق بالقرارات الدبلوماسية أو العسكرية.
يقول إدوارد غايست في شركة RAND، مؤسسة أبحاث في كاليفورنيا: “من المفيد أن نرى كيف يتفاعل الذكاء الاصطناعي مقارنة باللاعبين البشر في المحاكاة”. ولكنه يتفق مع استنتاجات الفريق بأنه لا يجب الوثوق بالذكاءات الاصطناعية في اتخاذ قرارات بهذا الشأن المتعلقة بالحرب والسلام.