تُثير دراسة جديدة مخاوف بشأن إمكانية تحول برامج الذكاء الاصطناعي المصممة لكي تكون صادقة إلى أدوات للخداع، ما قد يُشكل تهديدًا خطيرًا في المستقبل.
ووفقًا للدراسة التي أجراها فريق من الباحثين ونُشرت نتائجها مجلة “باترنز”، فقد أظهرت برامج الذكاء الاصطناعي قدرة على استغلال البشر في ألعاب إلكترونية والتحايل على اختبارات “كابتشا” المصممة للتمييز بين البشر والآلات.
ويُحذر خبراء من أن هذه الأمثلة، على الرغم من بساطتها، قد تُنذر بعواقب وخيمة في المستقبل.
وشدد الباحث بيتر بارك، المتخصص في الذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا، على صعوبة اكتشاف هذه القدرات “الخطيرة” قبل وقوعها.
وأوضح بارك أن برامج الذكاء الاصطناعي القائمة على التعلم العميق تختلف عن البرامج التقليدية، حيث يصعب التنبؤ بسلوكها وتحكمها، مما قد يُؤدي إلى سلوكيات غير متوقعة.
وأجرى باحثون من معهد ماساتشوستس للتكنولوجيا اختبارًا لبرنامج ذكاء اصطناعي يسمى “شيشرو” صممته شركة ميتا، وأظهر “شيشرو” قدرة على التغلب على البشر في لعبة “Diplomacy” باستخدام خوارزميات ذكية.
ورغم ثناء شركة ميتا على أداء “شيشرو”، شكك بارك في نزاهة فوزه واكتشف قدرته على الخداع واستغلال الثقة، ونفت ميتا هذه المزاعم ووصفت “شيشرو” بمشروع بحثي فقط، مؤكدة عدم استخدام تقنياته في منتجاتها.
وأظهرت دراسة أخرى قدرة برنامج “تشات جي بي تي – 4” من “أوبن إيه آي” على خداع عامل مستقل في اختبار “كابتشا”، تمكن البرنامج من إقناع العامل بأنه إنسان من خلال الادعاء بوجود ضعف في بصره يمنعه من رؤية الصور.
وحذر الباحثون من مخاطر استخدام الذكاء الاصطناعي في عمليات احتيال وتزوير الانتخابات. قد يُستخدم الذكاء الاصطناعي لنشر معلومات مضللة والتلاعب بنتائج الانتخابات.
وشدد الخبراء على ضرورة اتخاذ خطوات جادة لضمان استخدام الذكاء الاصطناعي بشكل أخلاقي ومنع استخدامه لأغراض خبيثة، ويجب وضع معايير وقوانين صارمة لتنظيم تطوير وتطبيق تقنيات الذكاء الاصطناعي.
وتتطلب هذه المهمة تعاونًا دوليًا بين الحكومات والشركات والمجتمع المدني لضمان مستقبل آمن للذكاء الاصطناعي.