المزيد والمزيد من الشركات تحظر ChatGPT في مكان العمل ، لكن ما وراء الحظر؟
على الرغم من قدراتها الرائعة ، فقد حظرت العديد من الشركات الكبرى موظفيها من استخدام ChatGPT.
في مايو 2023 ، حظرت Samsung استخدام ChatGPT وأدوات الذكاء الاصطناعي الأخرى. ثم ، في يونيو 2023 ، تبعه بنك الكومنولث الأسترالي ، جنبًا إلى جنب مع شركات مثل Amazon و Apple و JPMorgan Chase & Co. كما حظرت بعض المستشفيات وشركات المحاماة والوكالات الحكومية الموظفين من استخدام الدردشة
إذن ، لماذا تحظر المزيد والمزيد من الشركات ChatGPT؟ فيما يلي خمسة أسباب رئيسية.
1. تسريبات البيانات
يتطلب ChatGPT كمية كبيرة من البيانات للتدريب والعمل بفعالية. تم تدريب روبوت المحادثة باستخدام كميات هائلة من البيانات المستمدة من الإنترنت ، ولا يزال يتم تدريبه.
وفق صفحة مساعدة OpenAI، كل جزء من البيانات ، بما في ذلك تفاصيل العميل السرية ، والأسرار التجارية ، والأعمال الحساسة المعلومات التي تغذيها إلى chatbot عرضة للمراجعة من قبل المدربين ، الذين قد يستخدمون بياناتك لتحسينها أنظمتهم.
تخضع العديد من الشركات للوائح صارمة لحماية البيانات. ونتيجة لذلك ، فإنهم يتوخون الحذر بشأن مشاركة البيانات الشخصية مع كيانات خارجية ، لأن ذلك يزيد من مخاطر تسرب البيانات.
علاوة على ذلك ، لا تقدم OpenAI أي حماية مضمونة للبيانات وضمان السرية. في مارس 2023 ، أكد أوبن إيه آي خطأ يسمح لبعض المستخدمين بمشاهدة عناوين الدردشة في سجلات المستخدمين النشطين الآخرين. على الرغم من أن هذا الخطأ تم إصلاحه و أطلق OpenAI برنامج مكافأة الأخطاء، لا تضمن الشركة سلامة وخصوصية بيانات المستخدم.
تختار العديد من المؤسسات تقييد الموظفين من استخدام ChatGPT لتجنب تسرب البيانات ، مما قد يضر بسمعتهم ، ويؤدي إلى خسائر مالية ، ويضع عملائهم وموظفيهم في مكانه مخاطرة.
2. مخاطر الأمن السيبراني
بينما ليس من الواضح ما إذا كانت ChatGPT معرضة حقًا لمخاطر الأمن السيبراني، هناك احتمال أن يؤدي نشره داخل مؤسسة ما إلى ظهور نقاط ضعف محتملة يمكن للمهاجمين الإلكترونيين استغلالها.
إذا قامت شركة بدمج ChatGPT وكانت هناك نقاط ضعف في نظام أمان روبوت الدردشة ، فقد يتمكن المهاجمون من استغلال الثغرات الأمنية وحقن أكواد البرامج الضارة. أيضًا ، تعد قدرة ChatGPT على توليد ردود شبيهة بالبشر بمثابة بيضة ذهبية لمهاجمي التصيد الاحتيالي الذين يمكنهم القيام بذلك عبر حساب أو انتحال صفة كيانات شرعية لخداع موظفي الشركة لمشاركة معلومات حساسة معلومة.
3. إنشاء روبوتات محادثة مخصصة
على الرغم من ميزاته المبتكرة ، يمكن لـ ChatGPT إنتاج معلومات خاطئة ومضللة. نتيجة لذلك ، أنشأت العديد من الشركات روبوتات دردشة AI لأغراض العمل. على سبيل المثال ، طلب بنك الكومنولث الأسترالي من موظفيه استخدام Gen.ai بدلاً من ذلك ، وهو روبوت محادثة للذكاء الاصطناعي (AI) يستخدم معلومات CommBank لتقديم إجابات.
طورت شركات مثل Samsung و Amazon نماذج متقدمة للغة الطبيعية ، بحيث يمكن للشركات بسهولة إنشاء ونشر روبوتات محادثة مخصصة بناءً على النصوص الموجودة. باستخدام روبوتات المحادثة الداخلية هذه ، يمكنك منع العواقب القانونية والسمعة المرتبطة بسوء التعامل مع البيانات.
4. عدم وجود تنظيم
في الصناعات التي تخضع فيها الشركات لبروتوكولات وعقوبات تنظيمية ، يعد افتقار ChatGPT للإرشادات التنظيمية بمثابة علامة حمراء. بدون شروط تنظيمية دقيقة تحكم استخدام ChatGPT ، يمكن أن تواجه الشركات عواقب قانونية خطيرة عند استخدام روبوت الدردشة بالذكاء الاصطناعي لعملياتها.
بالإضافة إلى ذلك ، يمكن أن يؤدي الافتقار إلى التنظيم إلى تقليل مساءلة الشركة وشفافيتها. قد يتم الخلط بين معظم الشركات حول شرح عمليات صنع القرار والتدابير الأمنية الخاصة بنموذج لغة الذكاء الاصطناعي لعملائهم.
تقوم الشركات بتقييد ChatGPT ، خوفًا من الانتهاكات المحتملة لقوانين الخصوصية واللوائح الخاصة بالصناعة.
5. الاستخدام غير المسؤول من قبل الموظفين
في العديد من الشركات ، يعتمد بعض الموظفين فقط على استجابات ChatGPT لإنشاء المحتوى وأداء واجباتهم. وهذا يولد الكسل في بيئة العمل ويقوي الإبداع والابتكار.
يمكن أن يعيق الاعتماد على الذكاء الاصطناعي قدرتك على التفكير النقدي. يمكن أن يؤدي ذلك أيضًا إلى الإضرار بمصداقية الشركة ، حيث يوفر ChatGPT غالبًا بيانات غير دقيقة وغير موثوقة.
على الرغم من أن ChatGPT أداة قوية ، إلا أن استخدامها لمعالجة الاستفسارات المعقدة التي تتطلب خبرة خاصة بالمجال يمكن أن يضر بتشغيل الشركة وكفاءتها. قد لا يتذكر بعض الموظفين التحقق من صحة الردود المقدمة من روبوت الدردشة AI والتحقق منها ، والتعامل مع الردود على أنها حل واحد يناسب الجميع.
للتخفيف من مثل هذه المشكلات ، تفرض الشركات حظرًا على برنامج chatbot حتى يتمكن الموظفون من التركيز على مهامهم وتقديم حلول خالية من الأخطاء للمستخدمين.
حظر ChatGPT: أفضل أمانًا من عذرًا
تشير الشركات التي تحظر ChatGPT إلى مخاطر الأمن السيبراني والمعايير الأخلاقية للموظفين وتحديات الامتثال التنظيمي. إن عدم قدرة ChatGPT على التخفيف من هذه التحديات مع توفير حلول صناعية تشهد على حدودها وتحتاج إلى مزيد من التطور.
في غضون ذلك ، تتحول الشركات إلى روبوتات محادثة بديلة أو ببساطة تمنع الموظفين من استخدامها ChatGPT لتجنب انتهاكات البيانات المحتملة والأمان غير الموثوق به والبروتوكولات التنظيمية المرتبطة بـ روبوت الدردشة.