اخبار عالمية

يمكن أن تكون الإباحية المزيفة العميقة مشكلة متنامية وسط سباق الذكاء الاصطناعي

[ad_1]

نيويورك (AP) – يمكن استخدام صور الذكاء الاصطناعي لخلق الفنجرب الملابس في غرف القياس الافتراضية أو المساعدة تصميم الحملات الإعلانية.

لكن الخبراء يخشون الجانب المظلم من الأدوات التي يسهل الوصول إليها يمكن أن تؤدي إلى تفاقم الأمر الذي يؤذي النساء في المقام الأول: المواد الإباحية المزيفة بدون موافقة.

Deepfakes هي مقاطع فيديو وصور تم إنشاؤها رقميًا أو تعديلها باستخدام الذكاء الاصطناعي أو التعلم الآلي. بدأت المواد الإباحية التي تم إنشاؤها باستخدام التكنولوجيا في الانتشار عبر الإنترنت منذ عدة سنوات عندما قام مستخدم Reddit بمشاركة مقاطع وضعت وجوه المشاهير الإناث على أكتاف الممثلين الإباحيين.

منذ ذلك الحين ، نشر منشئو المحتوى المزيف العميق مقاطع فيديو وصورًا مماثلة تستهدف المؤثرين على الإنترنت والصحفيين وغيرهم من أصحاب الملفات الشخصية العامة. يوجد الآلاف من مقاطع الفيديو على عدد كبير من مواقع الويب. وقد عرض البعض على المستخدمين فرصة إنشاء صورهم الخاصة ، مما يسمح أساسًا لأي شخص بتحويل أي شخص يريده إلى تخيلات جنسية دون موافقته ، أو استخدام التكنولوجيا لإلحاق الأذى بزملائه السابقين.

يقول الخبراء إن المشكلة نمت حيث أصبح من السهل صنع التزييف العميق والجذاب بصريًا. ويقولون إن الأمر قد يزداد سوءًا مع تطوير أدوات الذكاء الاصطناعي التوليدية التي تتدرب على مليارات الصور من الإنترنت وتنشر محتوى جديدًا باستخدام البيانات الموجودة.

قال آدم دودج ، مؤسس EndTAB ، وهي مجموعة تقدم التدريب على إساءة استخدام التكنولوجيا ، “الحقيقة هي أن التكنولوجيا ستستمر في الانتشار ، وستستمر في التطور ، وستظل سهلة مثل الضغط على الزر”. . “وطالما يحدث ذلك ، سيستمر الناس بلا شك … في إساءة استخدام هذه التكنولوجيا لإيذاء الآخرين ، في المقام الأول من خلال العنف الجنسي عبر الإنترنت ، والمواد الإباحية المزيفة ، والصور العارية الكاذبة.”

اختبرت نويل مارتن ، من مدينة بيرث الأسترالية ، هذه الحقيقة. عثرت الفتاة البالغة من العمر 28 عامًا على مواد إباحية مزيفة عن نفسها قبل 10 سنوات عندما استخدمت Google يومًا ما بدافع الفضول للبحث عن صورة لها. حتى يومنا هذا ، تقول مارتن إنها لا تعرف من أنشأ الصور أو مقاطع الفيديو المزيفة لها وهي تمارس الجنس والتي ستجدها لاحقًا. تشتبه في أن شخصًا ما ربما التقط صورة منشورة على صفحتها على وسائل التواصل الاجتماعي أو في أي مكان آخر وحولها إلى مواد إباحية.

مرعوبًا ، اتصل مارتن بمواقع مختلفة على مدار عدة سنوات في محاولة لإزالة الصور. لم يستجب البعض. قام آخرون بإزالته ، لكنها سرعان ما عثرت عليه مرة أخرى.

قال مارتن: “لا يمكنك الفوز”. “هذا شيء سيكون موجودًا دائمًا. يبدو الأمر وكأنني دمرتك إلى الأبد.

قال إنه كلما تحدث أكثر ، ازدادت حدة المشكلة. حتى أن بعض الناس أخبروها أن طريقة ارتدائها للصور ونشرها على وسائل التواصل الاجتماعي ساهمت في التنمر ، وألقي باللوم عليها بشكل أساسي على الصور وليس على المبدعين.

في النهاية ، حول مارتن انتباهه إلى التشريع ، حيث دعا إلى قانون وطني في أستراليا من شأنه أن يفرض غرامة على الشركات بقيمة 555 ألف دولار أسترالي (370،706 دولارًا أمريكيًا) إذا فشلت في الامتثال لإشعارات الإزالة من منظمي السلامة عبر الإنترنت.

لكن حكم الإنترنت يكاد يكون مستحيلًا عندما يكون لدى البلدان قوانينها الخاصة للمحتوى الذي يتم إنشاؤه أحيانًا على الجانب الآخر من العالم. تقول مارتن ، التي تعمل حاليًا محامية وباحثة قانونية في جامعة أستراليا الغربية ، إنها تعتقد أنه يجب السيطرة على المشكلة من خلال نوع من الحلول العالمية.

وفي الوقت نفسه ، تقول بعض نماذج الذكاء الاصطناعي إنها تقيد بالفعل الوصول إلى الصور الصريحة.

تقول شركة OpenAI إنها أزالت المحتوى الصريح من البيانات المستخدمة لتدريب أداة التصوير DALL-E ، مما حد من قدرة المستخدمين على إنشاء مثل هذه الصور. تقوم الشركة أيضًا بتصفية الطلبات وتقول إنها تمنع المستخدمين من إنشاء صور AI للمشاهير والسياسيين البارزين. يحظر نموذج Midjourney ، وهو نموذج آخر ، استخدام كلمات رئيسية معينة ويشجع المستخدمين على إبلاغ الوسطاء بالصور التي بها مشكلات.

وفي الوقت نفسه ، أصدرت شركة Startup Stability AI تحديثًا في نوفمبر يلغي القدرة على إنشاء صور واضحة باستخدام مصور Stable Diffusion. جاءت هذه التغييرات بعد تقارير تفيد بأن بعض المستخدمين كانوا يصنعون صورًا عارية مستوحاة من المشاهير باستخدام التكنولوجيا.

قال المتحدث باسم منظمة العفو الدولية في الاستقرار موتيز بشارة إن المرشح يستخدم مجموعة من الكلمات الرئيسية وتقنيات أخرى مثل التعرف على الصور لاكتشاف العري وإرجاع صورة ضبابية. ولكن من الممكن للمستخدمين العبث بالبرنامج وبناء ما يريدون حيث تقوم الشركة بإصدار كودها للجمهور. وقال بشارة إن رخصة منظمة العفو الدولية “Stability AI” “تمتد لتشمل تطبيقات الطرف الثالث القائمة على Stable Diffusion” وتحظر بشكل صارم “أي إساءة استخدام لأغراض غير قانونية أو غير أخلاقية”.

قامت بعض شركات وسائل التواصل الاجتماعي أيضًا بتشديد قواعدها لتوفير حماية أفضل لمنصاتها من المواد الضارة.

قال TikTok الشهر الماضي إنه يجب وضع علامات على جميع مقاطع التزييف العميق أو المحتوى الذي تم التلاعب به والذي يصور مشاهد واقعية للإشارة إلى أنها مزيفة أو تم تغييرها بأي شكل من الأشكال ، وأن التزييف العميق للشخصيات الشابة والخاصة لم يعد مسموحًا به. في السابق ، كانت الشركة قد حظرت المحتوى الجنسي الصريح و التزييف العميق الذي يخدع المشاهدين حول أحداث العالم الحقيقي والتسبب في ضرر.

كما قامت منصة الألعاب Twitch مؤخرًا بتحديث سياساتها بشأن صور التزييف العميق الصريحة بعد أن تبين أن أحد المشغلين المعروفين باسم Atrioc يمتلك موقعًا إباحيًا مزيفًا مفتوحًا في متصفحه أثناء البث المباشر في أواخر يناير. أظهر الموقع صورًا مزيفة لمنصات Twitch الأخرى.

قامت Twitch بالفعل بحظر التزييف العميق الصريح ، ولكن الآن بعد أن أظهر لمحة عن هذا المحتوى ، حتى لو كان المقصود منه التعبير عن الغضب ، “ستتم إزالته وينتج عنه تطبيق” ، كما كتبت الشركة في منشور بالمدونة. ويُعد الترويج للمواد أو إنشائها أو مشاركتها عن قصد أساسًا للحظر الفوري.

حاولت شركات أخرى أيضًا حظر التزييف العميق على منصاتها ، لكن إبعادها يتطلب الاجتهاد.

قالت Apple و Google مؤخرًا إنهما أزالا تطبيقًا من متاجر التطبيقات الخاصة بهما كان يشغّل مقاطع فيديو مزيفة لممثلات موحية جنسيًا لتسويق المنتج. البحث في المواد الإباحية المزيفة ليس شائعًا ، لكن تقرير عام 2019 الصادر عن شركة الذكاء الاصطناعي DeepTrace Labs وجد أنه تم تسليحها بالكامل تقريبًا ضد النساء وأن الأشخاص الأكثر استهدافًا هم الممثلات الغربيات ، يليهن مطربات K. – بوب من كوريا الجنوبية.

نفس التطبيق الذي تمت إزالته بواسطة Google و Apple كان يعرض إعلانات على منصة Meta ، والتي تشمل Facebook و Instagram و Messenger. قال المتحدث باسم Meta داني ليفر في بيان إن سياسة الشركة تقيد كل من الذكاء الاصطناعي وغير المدعوم بالذكاء الاصطناعي الذي ينشئ محتوى للبالغين ويقيّد الإعلان على صفحات التطبيق على منصاتها.

في فبراير ، بدأت Meta ، بالإضافة إلى مواقع للبالغين مثل OnlyFans و Pornhub ، المشاركة في أداة عبر الإنترنت ، تسمى خذها، والذي يسمح للمراهقين بالإبلاغ عن الصور ومقاطع الفيديو الإباحية لأنفسهم على الإنترنت. يتم تشغيل موقع التقارير من خلال الصور العادية والمحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي ، والذي أصبح مصدر قلق متزايد لمجموعات سلامة الأطفال.

“عندما يسأل الناس قيادتنا العليا ما هي الصخور المنحدرة من التل الذي نشعر بالقلق حياله. الأول هو التشفير من طرف إلى طرف وما يعنيه ذلك لحماية الطفل. وقال جافين بورتنوي ، المتحدث باسم المركز الوطني للأطفال المفقودين والمستغلين ، الذي يدير أداة Take It Down ، “والثاني هو الذكاء الاصطناعي وبالتحديد التزييف العميق”.

قال بورتنوي: “لم نتمكن من صياغة إجابة مباشرة بعد”.

[ad_2]
Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى