أخبارنا المغربية - وكالات
عادت قصة المؤثرة الأوكرانية أولغا ليوك إلى الواجهة، مع تصاعد النقاش حول مخاطر التزييف العميق بواسطة الذكاء الصناعي. فوجئت ليوك بأن وجهها وصوتها يُستخدمان في حسابات متعددة على وسائل التواصل الاجتماعي، بعضها يروج لمنتجات وأخرى تدلي بآراء سياسية، دون علمها أو موافقتها. ووجدت نفسها مقلدة ومتابعة من مئات الآلاف، مما أدى إلى صدمة وذهول كبيرين لديها.
لم يسلم المؤثر الأمريكي غوردون هاوليت، الذي يتابعه 24 مليون شخص، من التزييف هو الآخر. اكتشف أن حسابات وروابط تستخدم صورته وصوته للترويج لأدوية، مما أزعجه بشدة وأثار قلقه من إمكانية استخدام الذكاء الصناعي لتزوير هويته ووضع الكلمات في فمه دون إذنه. تتوالى التقارير عن عمليات احتيال بملايين الدولارات باستخدام تقنيات التزييف العميق، حيث تم تسجيل مكالمات مزعومة لقادة وزعماء ثبت فيما بعد أنها مزيفة.
يحذر خبراء الأمن السيبراني منذ سنوات من مخاطر التزييف العميق، وهو المحتوى المولد عبر الذكاء الاصطناعي أو المتلاعب به بطريقة تبدو أصلية. رغم وجود أدوات تقنية لكشف التزييف العميق، إلا أنها تفقد فعاليتها كلما ابتعد المنتج عن المصدر، مما يسهل إضافة ضوضاء ووسائل تشتيت لتضليل أدوات الكشف. ينتشر نوع من الاحتيال بواسطة تطبيقات الذكاء الاصطناعي يُعرف بـ"احتيال التزييف" أو "التلاعب الصوتي"، مما يزيد من تعقيد المشكلة.
التصاعد في استخدام التزييف العميق يثير مخاوف جدية حول النزاهة المعلوماتية والأمن الشخصي، ويهدد بتقويض الثقة في الوسائط الرقمية والإعلام. لا تقتصر خطورة التزييف العميق على الأفراد فقط، بل تمتد لتشمل تأثيرات عميقة على الشركات والمؤسسات والمجتمعات والدول بشكل عام. يعزز هذا الوضع الحاجة إلى تطوير أدوات فعالة للكشف عن التزييف العميق وتوعية الجمهور حول مخاطر هذه التكنولوجيا المتقدمة.