سواء كنت تستخدم ChatGPT أو chatbot آخر، يجب أن تكون على دراية بالتهديدات المحتملة التي تضع خصوصية بياناتك موضع شك.

لقد كانت روبوتات الدردشة موجودة منذ سنوات، ولكن ظهور نماذج اللغات الكبيرة، مثل ChatGPT وGoogle Bard، أعطى صناعة روبوتات الدردشة فرصة جديدة للحياة.

يستخدم الملايين من الأشخاص الآن روبوتات الدردشة المدعمة بالذكاء الاصطناعي في جميع أنحاء العالم، ولكن هناك بعض المخاطر والمخاوف المهمة المتعلقة بالخصوصية والتي يجب وضعها في الاعتبار إذا كنت تريد تجربة إحدى هذه الأدوات.

1. جمع البيانات

لا يستخدم معظم الأشخاص برامج الدردشة الآلية فقط لإلقاء التحية. تم تصميم روبوتات الدردشة الحديثة لمعالجة الأسئلة والطلبات المعقدة والرد عليها، حيث يقوم المستخدمون غالبًا بتضمين الكثير من المعلومات في مطالباتهم. حتى لو كنت تطرح سؤالاً بسيطًا فقط، فأنت لا تريد حقًا أن يتجاوز محادثتك.

وفق قسم الدعم في OpenAI، يمكنك حذف سجلات دردشة ChatGPT وقتما تشاء، وسيتم بعد ذلك مسح هذه السجلات نهائيًا من أنظمة OpenAI بعد 30 يومًا. ومع ذلك، ستحتفظ الشركة بسجلات معينة للدردشة وتراجعها إذا تم وضع علامة عليها باعتبارها تحتوي على محتوى ضار أو غير لائق.

instagram viewer

يقوم برنامج Chatbot الشهير الآخر الذي يعمل بتقنية الذكاء الاصطناعي، وهو Claude، بتتبع محادثاتك السابقة أيضًا. مركز الدعم الأنثروبي ينص على أن كلود يتتبع "مطالباتك ومخرجاتك في المنتج لتزويدك بتجربة منتج متسقة مع مرور الوقت وفقًا لضوابطك." أنت يمكنه حذف محادثاتك مع Claude، وبالتالي ينسى ما كنت تتحدث عنه، ولكن هذا لا يعني أن Anthropic ستحذف سجلاتك من موقعه على الفور أنظمة.

وهذا بالطبع يطرح السؤال: هل يتم الاحتفاظ ببياناتي أم لا؟ هل يستخدم ChatGPT أو برامج الدردشة الأخرى بياناتي؟

لكن المخاوف لا تتوقف هنا.

كيف يتعلم ChatGPT؟

ومن أجل توفير المعلومات، يتم تدريب النماذج اللغوية الكبيرة بكميات هائلة من البيانات. وفق التركيز على العلوم، تم تغذية ChatGPT-4 وحده بـ 300 مليار كلمة من المعلومات خلال فترة تدريبه. هذا لا يؤخذ مباشرة من بعض الموسوعات. بدلاً من ذلك، يستخدم مطورو برامج الدردشة الآلية كميات كبيرة من المعلومات من الإنترنت لتدريب نماذجهم. يمكن أن يشمل ذلك بيانات من الكتب والأفلام والمقالات وإدخالات ويكيبيديا ومنشورات المدونات والتعليقات وحتى مواقع المراجعة.

ضع في اعتبارك أنه وفقًا لسياسة خصوصية مطور برنامج الدردشة الآلية، قد لا يتم استخدام بعض المصادر المذكورة أعلاه في التدريب.

انتقد الكثيرون ChatGPT، زاعمين أنه بمثابة كابوس فيما يتعلق بالخصوصية لا يمكن الوثوق بـ ChatGPT. اذا لماذا هذة الحالة؟

هذا هو المكان الذي تصبح فيه الأمور ضبابية بعض الشيء. إذا سألت ChatGPT-3.5 مباشرة عما إذا كان لديه حق الوصول إلى مراجعات المنتجات أو تعليقات المقالات، فستحصل على نتيجة سلبية مؤكدة. كما ترون في لقطة الشاشة أدناه، ينص GPT-3.5 على أنه لم يتم منحه حق الوصول إلى تعليقات مقالات المستخدم أو مراجعات المنتجات في التدريب الخاص به.

وبدلاً من ذلك، تم تدريبه باستخدام "مجموعة متنوعة من النصوص من الإنترنت، بما في ذلك مواقع الويب والكتب والمقالات وغيرها من المواد المكتوبة المتاحة للجمهور حتى سبتمبر 2021".

لكن هل ينطبق الأمر نفسه على GPT-4؟

عندما سألنا GPT-4، قيل لنا أن "OpenAI لم تستخدم مراجعات مستخدمين محددة، أو بيانات شخصية، أو تعليقات على المقالات" خلال فترة تدريب برنامج الدردشة الآلية. بالإضافة إلى ذلك، أخبرنا GPT-4 أن استجاباته يتم إنشاؤها من "أنماط في البيانات التي تم تدريبه عليها، والتي تتكون بشكل أساسي من الكتب والمقالات والنصوص الأخرى من الإنترنت".

عندما قمنا بالتحقق أكثر، ادعى GPT-4 أن بعض محتوى الوسائط الاجتماعية قد يتم تضمينه بالفعل في بيانات التدريب الخاصة به، لكن المبدعين سيظلون مجهولين دائمًا. ذكر GPT-4 على وجه التحديد أنه "حتى لو كان المحتوى من منصات مثل Reddit جزءًا من بيانات التدريب، [ليس لديه] إمكانية الوصول إلى تعليقات أو منشورات أو أي بيانات محددة يمكن ربطها بفرد ما مستخدم."

جزء آخر ملحوظ من استجابة GPT-4 هو كما يلي "لم تقم OpenAI بإدراج كل مصدر بيانات مستخدم بشكل صريح." ل بالطبع، سيكون من الصعب على OpenAI إدراج مصادر بقيمة 300 مليار كلمة، لكن هذا يترك مساحة لـ المضاربة.

في مقالة آرس تكنيكاذُكر أن ChatGPT يجمع "المعلومات الشخصية التي يتم الحصول عليها دون موافقة". وفي نفس المقال، تم ذكر التكامل السياقي، وهو مفهوم يشير إلى استخدام معلومات شخص ما فقط في السياق الذي كانت عليه تستخدم في البداية. إذا انتهك ChatGPT هذه السلامة السياقية، فقد تكون بيانات الأشخاص معرضة للخطر.

نقطة أخرى مثيرة للقلق هنا هي امتثال OpenAI لـ اللائحة العامة لحماية البيانات (GDPR). هذه لائحة يفرضها الاتحاد الأوروبي من أجل حماية بيانات المواطنين. أطلقت العديد من الدول الأوروبية، بما في ذلك إيطاليا وبولندا، تحقيقات في ChatGPT بسبب المخاوف بشأن امتثالها للقانون العام لحماية البيانات. لفترة قصيرة، تم حظر ChatGPT في إيطاليا بسبب مخاوف تتعلق بالخصوصية.

وقد هددت شركة OpenAI بالانسحاب من الاتحاد الأوروبي في الماضي بسبب لوائح الذكاء الاصطناعي المخطط لها، ولكن تم التراجع عن ذلك منذ ذلك الحين.

قد يكون ChatGPT أكبر برنامج دردشة آلي يعمل بالذكاء الاصطناعي اليوم، لكن مشكلات خصوصية برنامج chatbot لا تبدأ وتنتهي مع هذا المزود. إذا كنت تستخدم برنامج دردشة مشبوهًا بسياسة خصوصية باهتة، فقد يتم إساءة استخدام محادثاتك، أو قد يتم استخدام معلومات حساسة للغاية في بيانات التدريب الخاصة به.

2. سرقة البيانات

مثل أي أداة أو منصة عبر الإنترنت، فإن روبوتات الدردشة معرضة للجرائم الإلكترونية. حتى لو بذل برنامج الدردشة الآلية كل ما في وسعه لحماية المستخدمين وبياناتهم، فهناك دائمًا احتمال أن يتمكن أحد المتسللين الأذكياء من التسلل إلى أنظمته الداخلية.

إذا كانت خدمة chatbot معينة تخزن معلوماتك الحساسة، مثل تفاصيل الدفع الخاصة باشتراكك المميز الاشتراك أو بيانات الاتصال أو ما شابه ذلك، فمن الممكن أن تتم سرقتها واستغلالها في حالة حدوث هجوم إلكتروني يحدث.

وينطبق هذا بشكل خاص إذا كنت تستخدم برنامج دردشة أقل أمانًا ولم يستثمر مطوروه في الحماية الأمنية الكافية. لا يمكن اختراق الأنظمة الداخلية للشركة فحسب، بل قد يتعرض حسابك الخاص لخطر الاختراق إذا لم يكن به تنبيهات تسجيل دخول أو طبقة مصادقة.

الآن بعد أن أصبحت روبوتات الدردشة المدعمة بالذكاء الاصطناعي تحظى بشعبية كبيرة، فمن الطبيعي أن يتدفق مجرمو الإنترنت لاستخدام هذه الصناعة في عمليات الاحتيال الخاصة بهم. تمثل مواقع الويب والمكونات الإضافية المزيفة لـ ChatGPT مشكلة كبيرة منذ أن وصل برنامج الدردشة الآلي الخاص بـ OpenAI إلى الاتجاه السائد في عام أواخر عام 2022، مع وقوع الأشخاص في عمليات احتيال والتخلي عن معلومات شخصية تحت ستار الشرعية و يثق.

في مارس 2023، أفادت MUO عن أ ملحق ChatGPT Chrome المزيف لسرقة تسجيلات الدخول إلى Facebook. يمكن للمكون الإضافي استغلال الباب الخلفي لفيسبوك لاختراق الحسابات البارزة وسرقة ملفات تعريف الارتباط الخاصة بالمستخدم. وهذا مجرد مثال واحد على العديد من خدمات ChatGPT الزائفة المصممة لخداع الضحايا غير المعروفين.

3. عدوى البرامج الضارة

إذا كنت تستخدم chatbot مشبوه دون أن تدرك ذلك، فقد تجد أن chatbot يزودك بروابط لمواقع ويب ضارة. ربما يكون برنامج الدردشة الآلي قد نبهك إلى هدية مغرية، أو قدم مصدرًا لأحد بياناته. إذا كان لدى مشغلي الخدمة نوايا غير مشروعة، فقد يكون الهدف الأساسي من النظام الأساسي هو نشر البرامج الضارة وعمليات الاحتيال عبر الروابط الضارة.

وبدلاً من ذلك، قد يقوم المتسللون باختراق خدمة chatbot شرعية واستخدامها لنشر البرامج الضارة. إذا كان برنامج الدردشة الآلي هذا مخصصًا للأشخاص، فسيتعرض الآلاف، أو حتى الملايين من المستخدمين، لهذه البرامج الضارة. حتى أن تطبيقات ChatGPT المزيفة موجودة على متجر تطبيقات Apple، لذا من الأفضل التعامل بحذر.

بشكل عام، يجب ألا تنقر أبدًا على أي روابط يقدمها برنامج الدردشة الآلي من قبل تشغيله من خلال موقع فحص الارتباط. قد يبدو هذا مزعجًا، ولكن من الأفضل دائمًا التأكد من أن الموقع الذي يتم توجيهك إليه لا يحتوي على تصميم ضار.

بالإضافة إلى ذلك، يجب عليك عدم تثبيت أي مكونات إضافية أو ملحقات لـ chatbot دون التحقق من شرعيتها أولاً. قم بإجراء القليل من البحث حول التطبيق لمعرفة ما إذا كان قد تمت مراجعته جيدًا، وقم أيضًا بإجراء بحث عن مطور التطبيق لمعرفة ما إذا كنت تجد أي شيء مشبوه.

روبوتات الدردشة ليست محصنة ضد قضايا الخصوصية

مثل معظم أدوات الإنترنت في الوقت الحاضر، تعرضت برامج الدردشة الآلية لانتقادات متكررة بسبب المخاطر المحتملة المتعلقة بالأمن والخصوصية. سواء أكان الأمر يتعلق بمزود برامج الدردشة الآلية عندما يتعلق الأمر بسلامة المستخدم، أو المخاطر المستمرة للهجمات الإلكترونية وعمليات الاحتيال، من المهم أن تعرف ما الذي تجمعه خدمة chatbot عنك، وما إذا كانت تستخدم الأمان الكافي مقاسات.