يستخدم الكثير منا ChatGPT بشكل تافه ، ولكنه يأتي مع مشكلات خطيرة تتعلق بالأمان والخصوصية تحتاج إلى معرفتها.

في كانون الثاني (يناير) 2023 ، بعد شهرين فقط من إطلاقه ، أصبح ChatGPT (المحولات التوليدية المدربة مسبقًا) التطبيق الأسرع نموًا على الإطلاق ، حيث حشد أكثر من 100 مليون مستخدم.

قد يكون روبوت الدردشة المتقدم الخاص بـ OpenAI قد أعاد تنشيط اهتمام الجمهور بالذكاء الاصطناعي ، لكن القليل منهم فكر بجدية في المخاطر الأمنية المحتملة المرتبطة بهذا المنتج.

ChatGPT: التهديدات والمشكلات الأمنية

قد تكون التكنولوجيا التي تقوم عليها ChatGPT وروبوتات المحادثة الأخرى متشابهة ، لكن ChatGPT تندرج في فئة خاصة بها. هذه أخبار رائعة إذا كنت تنوي استخدامها كنوع من المساعد الشخصي ، ولكنك تقلق إذا كنت تعتقد أن الجهات الفاعلة في التهديد يستخدمها أيضًا.

يمكن لمجرمي الإنترنت استخدام ChatGPT لكتابة البرامج الضارةوإنشاء مواقع ويب احتيالية وإنشاء رسائل بريد إلكتروني للتصيد الاحتيالي وإنشاء أخبار مزيفة وما إلى ذلك. لهذا السبب ، قد يكون ChatGPT مخاطرة أكبر للأمن السيبراني من الفائدة ، مثل كمبيوتر نائم ضعها في تحليل.

في الوقت نفسه ، هناك مخاوف جدية من أن ChatGPT نفسها بها بعض نقاط الضعف التي لم تتم معالجتها. على سبيل المثال ، في مارس 2023 ، ظهرت تقارير حول تمكن بعض المستخدمين من عرض عناوين محادثات الآخرين. مثل

instagram viewer
الحافة في ذلك الوقت ، أوضح الرئيس التنفيذي لشركة OpenAI Sam Altman أن "خطأ في مكتبة مفتوحة المصدر" تسبب في حدوث المشكلة.

هذا يؤكد فقط على مدى أهمية ذلك تقييد ما تشاركه مع ChatGPT، والتي تجمع كمية هائلة من البيانات بشكل افتراضي. تعلمت شركة Samsung العملاقة في مجال التكنولوجيا هذا الأمر بالطريقة الصعبة ، عندما قامت مجموعة من الموظفين الذين كانوا يستخدمون chatbot كمساعد بتسريب معلومات سرية إليه عن طريق الخطأ.

هل يعد ChatGPT تهديدًا لخصوصيتك؟

الأمان والخصوصية ليسا نفس الشيء، لكنها مرتبطة ارتباطًا وثيقًا وغالبًا ما تتقاطع. إذا كان ChatGPT يمثل تهديدًا أمنيًا ، فهو يمثل أيضًا تهديدًا للخصوصية ، والعكس صحيح. لكن ماذا يعني هذا من الناحية العملية؟ ما هي سياسات الخصوصية والأمان في ChatGPT؟

تم حذف مليارات الكلمات من الإنترنت لإنشاء قاعدة بيانات ChatGPT الواسعة. قاعدة البيانات هذه في حالة توسع مستمر ، حيث يقوم ChatGPT بتخزين ما يشاركه المستخدمون. مؤسسة غير ربحية مقرها الولايات المتحدة الفطرة السليمة منح ChatGPT درجة تقييم الخصوصية بنسبة 61٪ ، مع ملاحظة أن chatbot يجمع معلومات التعريف الشخصية (PII) ، وغيرها من البيانات الحساسة. يتم تخزين معظم هذه البيانات أو مشاركتها مع جهات خارجية معينة.

على أي حال ، يجب أن تكون حذرًا عند استخدام ChatGPT ، على وجه الخصوص إذا كنت تستخدمه للعمل، أو لمعالجة المعلومات الحساسة. كقاعدة عامة ، يجب ألا تشارك الروبوت ما لا تريد أن يعرفه الجمهور.

معالجة المخاطر الأمنية المرتبطة بـ ChatGPT

سيتم تنظيم الذكاء الاصطناعي في مرحلة ما ، لكن من الصعب تخيل عالم لا يشكل فيه تهديدًا أمنيًا. مثل كل التقنيات ، يمكن - وسوف - أن يساء استخدامها.

في المستقبل ، ستصبح روبوتات الدردشة جزءًا لا يتجزأ من محركات البحث والمساعدين الصوتيين والشبكات الاجتماعية ، وفقًا لـ البرامج الضارة. وسيكون لهم دور يلعبونه في مختلف الصناعات ، من الرعاية الصحية والتعليم إلى التمويل والترفيه.

سيؤدي هذا إلى تغيير جذري في الأمن كما نعرفه. ولكن كما لاحظ Malwarebytes أيضًا ، يمكن استخدام ChatGPT والأدوات المماثلة بواسطة متخصصي الأمن السيبراني أيضًا ؛ على سبيل المثال للبحث عن الأخطاء في البرامج أو "الأنماط المشبوهة" في نشاط الشبكة.

رفع مستوى الوعي هو المفتاح

ما الذي سيكون بإمكان ChatGPT بعد خمس أو 10 سنوات من الآن؟ يمكننا فقط التكهن ، ولكن ما نعرفه على وجه اليقين هو أن الذكاء الاصطناعي لن يذهب إلى أي مكان.

مع ظهور روبوتات محادثة أكثر تقدمًا ، سيتعين على الصناعات بأكملها تعديلها وتعلم كيفية استخدامها بطريقة مسؤولة. وهذا يشمل صناعة الأمن السيبراني ، والتي يتم تشكيلها بالفعل بواسطة الذكاء الاصطناعي. يعد رفع مستوى الوعي حول المخاطر الأمنية المرتبطة بالذكاء الاصطناعي أمرًا أساسيًا ، وسيساعد في ضمان تطوير هذه التقنيات واستخدامها بطريقة أخلاقية.