مع اقتراب عمليات التصويت في أكثر من 50 دولة هذا العام، حيث يسعى العالم لتحقيق أكبر مظهر ديمقراطي في تاريخه، يثير التقدم الحديث في مجال الذكاء الاصطناعي المخاوف بشأن إفساد العمليات الانتخابية وتهديدها بقدرته على “التزييف العميق”، وفق صحيفة “إندبندنت” البريطانية.
من بين الذين شعروا بهذا القلق كان الرئيس التنفيذي لشركة OpenAI، المطورة لمنصة ChatGPT، سام ألتمان، الذي أدلى بشهادته في الكونغرس في مايو الماضي، وقال إنه “قلق” إزاء قدرة الذكاء الاصطناعي التوليدي على تعريض نزاهة الانتخابات للخطر من خلال “التضليل التفاعلي الفردي”.
لذا، أعلنت OpenAI عن استراتيجيتها لمنع سوء استخدام تقنيتها في نشر معلومات غير صحيحة والتدخل في العمليات الانتخابية.
تتعلق إحدى المخاوف الرئيسية بالصور العميقة المزيفة التي يمكن إنشاؤها باستخدام أدوات مثل Dall-E من OpenAI، حيث يمكن أن يتم تلاعب هذه الصور لتشويه صورة السياسيين أو إنشاء صور مزيفة تمامًا. ويشمل نوع آخر من الذكاء الاصطناعي الذي يثير قلقًا المولدات النصية مثل ChatGPT، التي يمكنها إنشاء نصوص إنسانية مقنعة.
وفي تدوينة على مدونتها، أكدت OpenAI أنها تتخذ إجراءات لضمان سلامة منصتها، من خلال رفع دقة المعلومات الانتخابية، وفرض سياسات دقيقة، وتعزيز الشفافية. وقد جمعت الشركة فريقًا من مختلف التخصصات للتحقيق في أي استخدام محتمل لتقنيتها ومعالجته.
وأضافت الشركة أنها اتخذت إجراءات لمنع Dall-E من توليد صور لأشخاص حقيقيين، ولكن هناك قلق من أن شركات الذكاء الاصطناعي الأخرى قد لا تكون قد اتخذت إجراءات مشابهة.
وقال سام ألتمان، الرئيس التنفيذي لشركة OpenAI، إنهم يعملون على تطوير طرق جديدة لتحديد الصور المنشأة بواسطة الذكاء الاصطناعي، ويتعاونون مع التحالف من أجل مصداقية المحتوى لوضع علامات على الصور المزيفة.
وإضافة إلى ذلك، وجهت OpenAI المستخدمين الأمريكيين إلى موقع CanIVote.org للحصول على معلومات موثوقة حول التصويت كجزء من جهودها لمنع سوء الاستخدام، بينما تعهدت بالعمل على تطوير طرق جديدة لتحديد مصداقية المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي.