بعد الـDeepFake ومشاكله.. إغلاق تطبيق DeepNude لأنه أكثر خطرًا

 
قام المسئولين عن تطبيق DeepNude الذى يستخدم تقنية الذكاء الاصطناعى لإنشاء صور عارية مزيفة للنساء بإغلاق التطبيق بسبب مخاوف من سوء الاستخدام، وتعرضه للهجوم الشديد والانتقادات، وبعد ساعات من انتشار فيروس به.
 
ووفقًا لموقع “gadgetsnow ” الهندى، أبلغ العديد من الاشخاص عن مشكلات فى تنزيل التطبيق الذى كان متاحًا لنظامى التشغيل Windows و Linux بعد أن تعرض الموقع لإقبال كبير من المستخدمين.
 لم يتوقع الفريق هذا الاقبال وحاولوا فى البداية السيطرة على الأمور، قبل أن يقرروا إغلاقه تمامًا، وقال المسئولين فى تغريدة “مرحبًا! DeepNude غير متصل بالإنترنت الآن، لأننا لم نكن نتوقع هذا العدد، كما أن خوادمنا بحاجة إلى تعزيز، نحن فريق صغير ونحتاج إلى إصلاح بعض الأخطاء.”
 ويذكر أن تطبيق DeepNude يقوم بالتلاعب تقنيًا بصور النساء، وقد جعل الفريق التطبيق متاحًا فى نسختين، نسخة مجانية تجريبية بعلامة مائية، ونسخة أخرى مدفوعة بقيمة 50 دولار، وقال المؤسسون: “لقد أنشأنا هذا المشروع للترفيه على المستخدمين منذ أشهر، وكنا نظن أننا نسيطر على الأمور”.
وأضافوا: “على الرغم من أخذ الحذر وإضافة العلامة المائية، لازال وجود احتمال إساءة استخدام الناس لها مرتفع للغاية، ونحن لا نريد كسب المال بهذه الطريقة، بجانب أنه بالتأكيد ستتم مشاركة بعض نسخDeepNude على الويب، لكننا لا نريد أن يبيعه أحد غيرنا، وسيكون تنزيل البرنامج من مصادرأخرى أو مشاركته بأى وسيلة أخرى ضد شروط موقعنا على الويب، والعالم ليس جاهزًا بعد لـ DeepNude”.
 
 
 

Similar Posts