اخبار عالمية

يمكن أن تكون الإباحية المزيفة العميقة مشكلة متنامية وسط سباق الذكاء الاصطناعي

[ad_1]

الأسترالية نويل مارتن تقف لالتقاط صورة يوم الخميس 9 مارس 2023 في نيويورك. عثرت الفتاة البالغة من العمر 28 عامًا على مواد إباحية مزيفة عن نفسها قبل 10 سنوات عندما استخدمت Google يومًا ما بدافع الفضول للبحث عن صورة لها. (AP Photo / Andres Kudacki)

بقلم HALLELUYA HADERO (أسوشيتد برس)

نيويورك – يمكن استخدام صور الذكاء الاصطناعي لإنشاء أعمال فنية ، أو تجربة الملابس في غرف القياس الافتراضية أو المساعدة في تصميم الحملات الإعلانية.

لكن الخبراء يخشون من أن الجانب المظلم للأدوات التي يسهل الوصول إليها يمكن أن يؤدي إلى تفاقم الأمر الذي يؤذي النساء في المقام الأول: المواد الإباحية المزيفة غير التوافقية.

Deepfakes هي مقاطع فيديو وصور تم إنشاؤها رقميًا أو تعديلها باستخدام الذكاء الاصطناعي أو التعلم الآلي. بدأت المواد الإباحية التي تم إنشاؤها باستخدام التكنولوجيا في الانتشار عبر الإنترنت منذ عدة سنوات عندما قام مستخدم Reddit بمشاركة مقاطع وضعت وجوه المشاهير الإناث على أكتاف الممثلين الإباحيين.

منذ ذلك الحين ، نشر منشئو المحتوى المزيف العميق مقاطع فيديو وصورًا مماثلة تستهدف المؤثرين على الإنترنت والصحفيين وغيرهم من أصحاب الملفات الشخصية العامة. يوجد الآلاف من مقاطع الفيديو على عدد كبير من مواقع الويب. وقد عرض البعض على المستخدمين فرصة إنشاء صورهم الخاصة ، مما يسمح أساسًا لأي شخص بتحويل أي شخص يريده إلى تخيلات جنسية دون موافقته ، أو استخدام التكنولوجيا لإلحاق الأذى بزملائه السابقين.

يقول الخبراء إن المشكلة نمت حيث أصبح من السهل صنع التزييف العميق والجذاب بصريًا. ويقولون إن الأمر قد يزداد سوءًا مع تطوير أدوات الذكاء الاصطناعي التوليدية التي تتدرب على مليارات الصور من الإنترنت وتنشر محتوى جديدًا باستخدام البيانات الموجودة.

قال آدم دودج ، مؤسس EndTAB ، وهي مجموعة تقدم التدريب على إساءة استخدام التكنولوجيا ، “الحقيقة هي أن التكنولوجيا ستستمر في الانتشار ، وستستمر في التطور ، وستظل سهلة مثل الضغط على الزر”. . “وطالما يحدث ذلك ، سيستمر الناس بلا شك … في إساءة استخدام هذه التكنولوجيا لإيذاء الآخرين ، في المقام الأول من خلال العنف الجنسي عبر الإنترنت ، والمواد الإباحية المزيفة ، والصور العارية الكاذبة.”

اختبرت نويل مارتن ، من مدينة بيرث الأسترالية ، هذه الحقيقة. عثرت الفتاة البالغة من العمر 28 عامًا على مواد إباحية مزيفة عن نفسها قبل 10 سنوات عندما استخدمت Google يومًا ما بدافع الفضول للبحث عن صورة لها. حتى يومنا هذا ، تقول مارتن إنها لا تعرف من أنشأ الصور أو مقاطع الفيديو المزيفة لها وهي تمارس الجنس والتي ستجدها لاحقًا. تشتبه في أن شخصًا ما ربما التقط صورة منشورة على صفحتها على وسائل التواصل الاجتماعي أو في أي مكان آخر وحولها إلى مواد إباحية.

مرعوبًا ، اتصل مارتن بمواقع مختلفة على مدار عدة سنوات في محاولة لإزالة الصور. لم يستجب البعض. قام آخرون بإزالته ، لكنها سرعان ما عثرت عليه مرة أخرى.

قال مارتن: “لا يمكنك الفوز”. “هذا شيء سيكون موجودًا دائمًا. يبدو الأمر وكأنني دمرتك إلى الأبد.

قال إنه كلما تحدث أكثر ، ازدادت حدة المشكلة. حتى أن بعض الناس أخبروها أن طريقة ارتدائها للصور ونشرها على وسائل التواصل الاجتماعي ساهمت في التنمر ، وألقي باللوم عليها بشكل أساسي على الصور وليس على المبدعين.

[ad_2]
Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى