قام موظفو Samsung عن طريق الخطأ بتسريب بيانات الشركة الخاصة عبر ChatGPT - مثال على سبب كون الذكاء الاصطناعي يمثل تهديدًا كبيرًا لخصوصيتك وأمنك.

أصبح ChatGPT مشكلة أمنية وخصوصية رئيسية لأن الكثير منا يشاركنا معلوماتنا الخاصة عنه بدون وعي. يسجل ChatGPT كل محادثة تجريها معه ، بما في ذلك أي بيانات شخصية تشاركها. ومع ذلك ، لن تعرف هذا ما لم تكن قد تعمقت في سياسة خصوصية OpenAI وشروط الخدمة وصفحة الأسئلة الشائعة لتجميعها معًا.

يعتبر تسريب معلوماتك الخاصة أمرًا خطيرًا بدرجة كافية ، ولكن نظرًا لأن الشركات الضخمة تستخدم ChatGPT لمعالجة المعلومات كل يوم ، فقد يكون هذا بداية كارثة تسرب البيانات.

قامت Samsung بتسريب المعلومات السرية عبر ChatGPT

وفق جزمودو، قام موظفو Samsung بتسريب معلومات سرية عن طريق الخطأ عبر ChatGPT في ثلاث مناسبات منفصلة في غضون 20 يومًا. هذا مجرد مثال واحد على مدى سهولة تعرض الشركات للمعلومات الخاصة للخطر.

يتعرض موقع ChatGPT لانتقادات علنية بسبب مشكلات الخصوصية الخاصة به ، لذلك من الإشراف الكبير أن تسمح Samsung بحدوث ذلك. حتى أن بعض الدول حظرت ChatGPT لحماية مواطنيها حتى يتم تحسين خصوصيتها ، لذلك قد تعتقد أن الشركات ستكون أكثر حرصًا بشأن كيفية استخدام موظفيها لها.

instagram viewer

لحسن الحظ ، يبدو أن عملاء Samsung آمنون - في الوقت الحالي على الأقل. تتعلق البيانات المخترقة فقط بممارسات العمل الداخلية ، وبعض التعليمات البرمجية الخاصة التي تم استكشافها وإصلاحها ، ومحاضر اجتماع الفريق ، وكلها مقدمة من قبل الموظفين. ومع ذلك ، كان من السهل على الموظفين تسريب المعلومات الشخصية للمستهلكين ، وهي مسألة وقت فقط قبل أن نرى شركة أخرى تفعل ذلك بالضبط. إذا حدث هذا ، يمكن أن نتوقع أن نرى زيادة هائلة في عمليات التصيد الاحتيالي وسرقة الهوية.

هناك طبقة أخرى من المخاطر هنا أيضًا. إذا استخدم الموظفون ChatGPT للبحث عن الأخطاء كما فعلوا مع تسرب Samsung ، فسيتم أيضًا تخزين الرمز الذي يكتبونه في مربع الدردشة على خوادم OpenAI. قد يؤدي ذلك إلى حدوث انتهاكات لها تأثير كبير على الشركات التي تعمل على استكشاف المنتجات والبرامج التي لم يتم طرحها. قد ينتهي بنا الأمر إلى رؤية معلومات مثل خطط العمل التي لم يتم إصدارها والإصدارات المستقبلية والنماذج الأولية المتسربة ، مما يؤدي إلى خسائر ضخمة في الإيرادات.

كيف يحدث تسريب بيانات ChatGPT؟

سياسة خصوصية ChatGPT يوضح أنه يسجل محادثاتك ويشارك السجلات مع الشركات الأخرى ومدربي الذكاء الاصطناعي. عندما يكتب شخص ما (على سبيل المثال ، موظف Samsung) معلومات سرية في مربع الحوار ، يتم تسجيلها وحفظها على خوادم ChatGPT.

من المستبعد جدًا أن يكون الموظفون قد فعلوا ذلك عن قصد ، ولكن هذا هو الجزء المخيف. تحدث معظم انتهاكات البيانات بسبب خطأ بشري. غالبًا ما يكون هذا بسبب فشل الشركة في تثقيف موظفيها حول مخاطر الخصوصية لاستخدام أدوات مثل الذكاء الاصطناعي.

على سبيل المثال ، إذا قاموا بلصق قائمة جهات اتصال كبيرة في الدردشة وطلبوا من منظمة العفو الدولية عزل أرقام هواتف العملاء عن البيانات ، فإن ChatGPT لديها هذه الأسماء وأرقام الهواتف في سجلاتها. معلوماتك الخاصة تحت رحمة الشركات التي لم تشاركها معها ، والتي قد لا تحميها بشكل كافٍ للحفاظ على سلامتك. هناك بعض الأشياء التي يمكنك القيام بها حافظ على سلامتك بعد خرق البيانات، ولكن يجب أن تكون الشركات مسؤولة عن منع التسريبات.

أخلاق القصة: لا تخبر ChatGPT أسرارك

يمكنك استخدام ChatGPT بأمان لمئات من المهام المختلفة ، ولكن تنظيم المعلومات السرية ليس من بينها. يجب أن تكون حريصًا على تجنب كتابة أي شيء شخصي في مربع الدردشة ، بما في ذلك اسمك وعنوانك وبريدك الإلكتروني ورقم هاتفك. من السهل ارتكاب هذا الخطأ ، لذا يجب أن تكون حريصًا على التحقق من مطالباتك للتأكد من عدم حدوث أي شيء عن طريق الخطأ.

يوضح لنا تسريب Samsung مدى حقيقة مخاطر تسرب البيانات المتعلقة بـ ChatGPT. لسوء الحظ ، سنرى المزيد من هذه الأنواع من الأخطاء ، ربما مع تأثيرات أكبر بكثير ، حيث يصبح الذكاء الاصطناعي جزءًا أساسيًا من عمليات معظم الشركات.