TRENDING
في عملية احتيال.. آلان ديلون ضحية الذكاء الاصطناعي!

أكدت شركة "ميتا" أنها أنشأت نماذجًا تهدف تحديدًا إلى رصد أي محتوى يلقى انتشارًا بفضل استخدامه صور مشاهير، بطريقة غير قانونية، وذلك بعد كشف إحدى عمليات الاحتيال الإعلانية التي تمت باستخدام صورة الفنان الفرنسي آلان ديلون الذي توفي 18 آب (أغسطس) الجاري، لاستقطاب مستخدمي الإنترنت إلى أحد المتاجر الإلكترونية في عملية احتيال تم تصفّحها أكثر من مليوني مرة على شبكات التواصل الاجتماعي.

وتم انتحال هوية "ديلون" باستخدام صوته وصورته في مقطع فيديو نُشِر عبر حساب في منصة "x" يحارب عمليات الاحتيال عبر الإنترنت!
ويقول الصوت المفبرك للفنان في مقطع الفيديو: "إذا كنت تشاهد هذا الفيديو، فأنا مُتّ أصلاً، وسأعطيك مئة ألف يورو إذا لم تتمكن من الفوز في المتجر الخاص بي عبر الإنترنت".

الجدير ذكره أن هناك مقاطع فيديو أخرى تنتحل صفة الفنان وتعيد توجيه مستخدمي الإنترنت إلى المتجر نفسه، رغم تعطيل الإعلان الكاذب الأساسي.

وفيما تغذّي ظاهرة "المحتوى المزيّف" باستخدام الذكاء الاصطناعي موجة من المعلومات المضللة يشعر القيمون على الحملات الرئاسية الأميركية بالقلق. وهو ما دفع شركة "ميتا" للتأكيد بأنّ مقطع الفيديوالذي يحتال على المستخدمين بصورة وصوت "ديلون" مخالف لقواعد المنصة بعدم نشر إعلانات تتضمّن صورًا لشخصيات عامة بطريقة مضللة من أجل الاحتيال على متصفحي الإنترنت.

يقرأون الآن