«الجزيرة» - وكالات:
حذرت منظمة خيرية لمكافحة إساءة معاملة الأطفال من احتمال إقبال متحرشين بالأطفال على استخدام تقنيات الذكاء الاصطناعي لتوليد صور عارية للصغار، وذلك بهدف ابتزازهم.
وأفادت مؤسسة مراقبة الإنترنت، بأنها عثرت على دليل إرشادي على شبكة الإنترنت المظلم (Dark Web)، يتضمن قسما يحث المجرمين على استخدام برامج «التعرية» لإزالة الملابس من الصور التي يرسلها لهم الأطفال وهم يرتدون الملابس الداخلية فقط، و»يمكن استخدام الصورة التي تم التلاعب بها لابتزاز الطفل وإكراهه على إرسال مواد إباحية أكثر خطورة».
وقالت المؤسسة الخيرية التي تعمل على إيجاد وإزالة مواد الاعتداء الجنسي على الأطفال عبر الإنترنت، العام الماضي: «هذا هو الدليل الأول الذي رأيناه على أن الجناة ينصحون ويشجعون بعضهم البعض على استخدام تقنيات الذكاء الاصطناعي لهذه الأغراض».
وسبق أن حذرت الجمعية الخيرية من ارتفاع حالات الابتزاز الجنسي، حيث يتم التلاعب بالضحايا لإرسال صور جنسية لأنفسهم ثم يتم تهديدهم بنشر تلك الصور ما لم يدفعوا المال.
ويتباهى مؤلف الدليل الذي يقع في حوالي 200 صفحة، بأنه «نجح في ابتزاز» فتيات يبلغن من العمر 13 عاما لإرسال صور عارية عبر الإنترنت.
وقالت المؤسسة إنها أرسلت الدليل الذي عثرت عليه إلى وكالة الجرائم الوطنية في المملكة المتحدة، مبينة أن عام 2023 كان «أكثر الأعوام تطرفا على الإطلاق».
وكشفت أنها عثرت على أكثر من 275 ألف صفحة ويب لمحتويات تتضمن اعتداءات جنسية على الأطفال العام الماضي، وهو أعلى رقم تسجله، مشيرة إلى تحديد كمية قياسية من المواد التي تندرج ضمن «الفئة أ»، والتي يمكن أن تشمل أشد الصور وحشية بما في ذلك الاغتصاب والسادية وممارسة الجنس مع الحيوانات.
وقالت المؤسسة إن أكثر من 62 ألف صفحة تحتوي على محتوى من «الفئة أ»، مقارنة بـ51 ألفا في العام السابق، 2022.
وكشفت أنها عثرت على 2401 صورة لمواد اعتداء جنسي على الأطفال منتجة ذاتيا، وهي المواد التي يتم فيها استغلال الضحايا أو تهديدهم لتصوير الانتهاكات الجنسية بحق أنفسهم، وقد تم إنتاج هذه الصور من قبل أطفال تتراوح أعمارهم بين 3 و 6 سنوات.