تكنولوجيا

جرائم الإنترنت: انتبه لما تقوله لمساعد روبوت المحادثة الخاص بك… | روبوت الدردشة

[ad_1]

ج.تتصدر المخاوف بشأن القدرات المتزايدة لبرامج الدردشة المدربة على نماذج اللغات الكبيرة ، مثل OpenAI’s GPT-4 و Google’s Bard و Bing Chat من Microsoft ، عناوين الأخبار. يحذر الخبراء من قدرتها على نشر المعلومات الخاطئة على نطاق هائل ، فضلاً عن المخاطر الوجودية التي قد يشكلها تطورها على البشرية. كما لو أن هذا لم يكن مقلقًا بدرجة كافية ، فقد تم فتح مجال ثالث مثير للقلق ، يتضح من الحظر الأخير على ChatGPT في إيطاليا لأسباب تتعلق بالخصوصية.

أثار منظم البيانات الإيطالي مخاوف بشأن النموذج الذي يستخدمه OpenAI ، مالك ChatGPT ، وأعلن أنه سيحقق فيما إذا كانت الشركة قد انتهكت قوانين حماية البيانات الأوروبية الصارمة.

يمكن أن تكون روبوتات الدردشة مفيدة للعمل والمهام الشخصية ، لكنها تجمع الكثير من البيانات. يشكل الذكاء الاصطناعي أيضًا مخاطر أمنية متعددة ، بما في ذلك القدرة على مساعدة المجرمين في تنفيذ هجمات إلكترونية أكثر إقناعًا وفعالية.

هل روبوتات المحادثة هي مصدر قلق أكبر للخصوصية من محركات البحث؟

يدرك معظم الناس مخاطر الخصوصية التي تشكلها محركات البحث مثل Google ، لكن الخبراء يعتقدون أن روبوتات المحادثة يمكن أن تستهلك المزيد من البيانات. يمكن لطبيعتها التحادثية أن تفاجئ الناس وتشجعهم على تقديم معلومات أكثر مما كانوا سيُدخلون في محرك بحث. يحذر علي وزيري ، المدير القانوني لفريق البيانات والخصوصية في شركة المحاماة لويس سيلكين ، من أن “الأسلوب البشري يمكن أن ينزع سلاح المستخدمين”.

غالبًا ما تجمع Chatbots النصوص والصوت ومعلومات الجهاز ، بالإضافة إلى البيانات التي يمكن أن تكشف عن موقعك ، مثل عنوان IP الخاص بك. مثل محركات البحث ، تقوم روبوتات المحادثة بجمع بيانات مثل نشاط وسائل التواصل الاجتماعي ، والتي يمكن ربطها بعنوان بريدك الإلكتروني ورقم هاتفك ، كما يقول الدكتور لوسيان تيبي ، العميد المشارك في جامعة سيتي من برمنغهام. “مع تحسن معالجة البيانات ، تزداد أيضًا الحاجة إلى مزيد من المعلومات وأي شيء على الويب يصبح لعبة عادلة.”

بينما تقول الشركات التي تقف وراء روبوتات المحادثة أن بياناتك ضرورية للمساعدة في تحسين الخدمات ، يمكن أيضًا استخدامها للإعلان المستهدف. يقول جيك مور ، مستشار الأمن السيبراني العالمي في شركة البرمجيات ESET ، في كل مرة تطلب المساعدة من روبوت محادثة يعمل بالذكاء الاصطناعي ، تقوم الحسابات الدقيقة بتغذية الخوارزمية لتكوين ملف تعريف للأشخاص. “يتم تحليل هذه المعرفات ويمكن استخدامها لاستهدافنا بالإعلانات”.

هذا بدأ يحدث بالفعل. أعلنت Microsoft أنها تستكشف فكرة جلب الإعلانات إلى Bing Chat. كما أصبح معروفًا مؤخرًا أن موظفي Microsoft يمكنهم قراءة محادثات روبوتات الدردشة الخاصة بالمستخدمين وقامت الشركة الأمريكية بتحديث سياسة الخصوصية الخاصة بها لتعكس ذلك.

يقول رون موسكونا ، الشريك في شركة Dorsey & Whitney القانونية ، إن سياسة الخصوصية في ChatGPT “لا تفتح الباب للاستغلال التجاري للبيانات الشخصية”. وتضيف أن السياسة “تعد بحماية بيانات الأشخاص” وعدم مشاركتها مع أطراف ثالثة.

ومع ذلك ، بينما توافق Google أيضًا على عدم مشاركة المعلومات مع أطراف ثالثة ، فإن سياسة الخصوصية الأوسع لشركة التكنولوجيا تسمح لها باستخدام البيانات لتقديم إعلانات موجهة للمستخدمين.

كيف يمكنك استخدام روبوتات المحادثة بشكل خاص وآمن؟

من الصعب استخدام روبوتات المحادثة بشكل خاص وآمن ، ولكن هناك طرقًا للحد من كمية البيانات التي تجمعها. من الجيد ، على سبيل المثال ، استخدام VPN مثل ExpressVPN أو NordVPN لإخفاء عنوان IP الخاص بك.

يقول ويل ريتشموند كوجان ، المتخصص في البيانات والخصوصية والذكاء الاصطناعي في شركة Freeths للمحاماة ، إن هذه التقنية جديدة جدًا وغير مكررة في هذه المرحلة للتأكد من أنها خاصة وآمنة. ويقول إنه يجب توخي الحذر الشديد قبل مشاركة أي معلومات ، خاصة إذا كانت المعلومات سرية أو متعلقة بالعمل.

يقول Moscona إن طبيعة روبوت المحادثة تعني أنه سيكشف دائمًا عن معلومات حول المستخدم ، بغض النظر عن كيفية استخدام الخدمة. “حتى إذا كنت تستخدم chatbot من خلال حساب مجهول أو VPN ، فإن المحتوى الذي تقدمه بمرور الوقت يمكن أن يكشف عن معلومات كافية لتحديد هويتك أو تتبعها.”

لكن شركات التكنولوجيا التي تقف إلى جانب منتجات chatbot الخاصة بها تقول إنه يمكنك استخدامها بأمان. تقول Microsoft إن دردشة Bing الخاصة بها “تراعي كيفية استخدامها لبياناتك” لتوفير تجربة جيدة و “دعم سياسات وحماية بحث Bing التقليدي”.

تحمي Microsoft الخصوصية من خلال تقنية مثل التشفير وتخزن فقط المعلومات وتحتفظ بها طالما كانت مطلوبة. توفر Microsoft أيضًا التحكم في بيانات البحث الخاصة بك من خلال لوحة معلومات خصوصية Microsoft.

تقول شركة OpenAI ، منشئ ChatGPT ، إنها دربت النموذج على رفض الطلبات غير الملائمة. ويضيف متحدث باسم “نحن نستخدم أدوات الإشراف الخاصة بنا لتحذير أو حظر أنواع معينة من المحتوى غير الآمن والحساس”.

ماذا عن استخدام روبوتات المحادثة للمساعدة في مهام العمل؟

يمكن أن تكون روبوتات الدردشة مفيدة في العمل ، لكن الخبراء يوصون بالمتابعة بحذر لتجنب المبالغة ولتجنب خرق اللوائح مثل اللائحة العامة لحماية البيانات العامة (GDPR) الخاصة بالاتحاد الأوروبي. مع وضع ذلك في الاعتبار ، قامت شركات مثل JP Morgan و Amazon بحظر أو تقييد استخدام ChatGPT من قبل الموظفين.

الخطر كبير لدرجة أن المطورين أنفسهم ينصحون بعدم استخدامه. تنص الأسئلة الشائعة حول ChatGPT على أنه “لا يمكننا إزالة إعلانات معينة من سجلك”. “الرجاء عدم مشاركة أي معلومات حساسة في محادثاتك.”

يقول موسكونا إن استخدام أدوات روبوت الدردشة المجانية لأغراض تجارية “قد يكون غير حكيم”. “لا يقدم الإصدار المجاني من ChatGPT ضمانات واضحة لا لبس فيها حول كيفية حماية أمان الدردشات أو سرية المدخلات والمخرجات الناتجة عن برنامج chatbot. على الرغم من أن شروط الاستخدام تقر بملكية المستخدم وأن سياسة الخصوصية تعد بحماية المعلومات الشخصية ، إلا أنها غامضة بشأن أمن المعلومات.

تقول Microsoft إن Bing يمكنه المساعدة في مهام العمل ، ولكن “لا نوصي بإدخال معلومات حساسة للشركة في أي خدمة للمستهلكين.”

إذا كان يجب عليك استخدام واحدة ، ينصح الخبراء بالحذر. يقول نيك نيكولاس ، الرئيس التنفيذي لشركة استشارات البيانات Covelent: “اتبع سياسات أمان شركتك ولا تشارك المعلومات الحساسة أو السرية مطلقًا”.

تقدم Microsoft منتجًا يسمى Copilot للاستخدام المؤسسي ، والذي يفترض سياسات الأمان والامتثال والخصوصية الأكثر صرامة للشركة لمنتج Microsoft 365 Enterprise الخاص بها.

كيف يمكنني اكتشاف البرامج الضارة أو رسائل البريد الإلكتروني أو أي محتوى ضار آخر تم إنشاؤه بواسطة جهات فاعلة سيئة أو منظمة العفو الدولية؟

مع اندماج روبوتات المحادثة بشكل أكبر في الإنترنت والشبكات الاجتماعية ، ستزداد فرص الوقوع ضحية للبرامج الضارة أو رسائل البريد الإلكتروني الضارة. حذر المركز الوطني للأمن السيبراني في المملكة المتحدة (NCSC) من مخاطر روبوتات الدردشة الذكية ، قائلاً إن التكنولوجيا التي تدعمها يمكن استخدامها في الهجمات الإلكترونية.

يقول الخبراء إن ChatGPT ومنافسيها لديهم القدرة على السماح للجهات السيئة ببناء عمليات بريد إلكتروني تصيدية أكثر تعقيدًا. على سبيل المثال ، سيكون إنشاء رسائل بريد إلكتروني بلغات متعددة أمرًا بسيطًا ، وبالتالي فإن العلامات الواضحة للرسائل الاحتيالية ، مثل سوء القواعد النحوية والإملائية ، ستكون أقل وضوحًا.

مع وضع ذلك في الاعتبار ، ينصح الخبراء بمزيد من اليقظة أكثر من أي وقت مضى قبل النقر فوق الروابط أو تنزيل المرفقات من مصادر غير معروفة. كالمعتاد ، ينصح نيكولاس باستخدام برامج الأمان وتحديثها للحماية من البرامج الضارة.

قد تكون اللغة خالية من العيوب ، لكن محتوى برنامج الدردشة الآلي غالبًا ما يحتوي على أخطاء واقعية أو معلومات قديمة ، وقد يكون هذا علامة على مرسل غير بشري. يمكنك أيضًا أن يكون لديك أسلوب كتابة رقيق وصيغة ، ولكن هذا يمكن أن يساعد بدلاً من إعاقة روبوت الممثل السيئ عند محاولة الظهور على أنه اتصال رسمي.

تظهر الخدمات التي تدعم الذكاء الاصطناعي بسرعة ، ومع تطورها ، ستزداد المخاطر سوءًا. يقول الخبراء إن أمثال ChatGPT يمكن استخدامها لمساعدة مجرمي الإنترنت في كتابة برامج ضارة ، وهناك مخاوف من تسرب المعلومات الحساسة التي يتم إدخالها في الخدمات التي تدعم الدردشة إلى الإنترنت. يمكن للأشكال الأخرى للذكاء الاصطناعي التوليدي (الذكاء الاصطناعي القادر على إنتاج محتوى مثل الصوت أو النص أو الصور) أن تتيح للمجرمين فرصة إنشاء ما يسمى بمقاطع الفيديو المزيفة بشكل أكثر واقعية عن طريق تقليد موظف بنك يطلب كلمة مرور ، على سبيل المثال.

ومن المفارقات أن البشر هم الأفضل في اكتشاف هذه الأنواع من التهديدات التي يدعمها الذكاء الاصطناعي. يقول ريتشموند كوجان: “إن أفضل حماية ضد البرمجيات الخبيثة والعوامل السيئة للذكاء الاصطناعي هي يقظتك”.

[ad_2]
Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى