يمكن أن يكون ChatGPT أداة مفيدة ، سواء كانت نواياك جيدة أو سيئة. هذا يعني أنه إذا كنت تريد الانخراط في الاحتيال ، فيمكن أن يساعدك ChatGPT.
على الرغم من أن العديد من المواطنين الرقميين يثنون على ChatGPT ، إلا أن البعض يخشى أن يضر أكثر مما ينفع. كانت التقارير الإخبارية حول المحتالين الذين يختطفون الذكاء الاصطناعي جولات على الإنترنت ، مما زاد من عدم الارتياح بين المتشككين. حتى أنهم يعتبرون ChatGPT أداة خطيرة.
روبوتات الدردشة المدعومة بالذكاء الاصطناعي ليست مثالية ، لكن لا يتعين عليك تجنبها تمامًا. إليك كل ما يجب أن تعرفه حول كيفية إساءة استخدام المحتالين لـ ChatGPT وما يمكنك فعله لمنعهم.
هل سيعرض ChatGPT معلوماتك الشخصية للخطر؟
تنبع معظم مخاوف الأمان الأمامية حول ChatGPT من تكهنات وتقارير لم يتم التحقق منها. تم إطلاق المنصة فقط في نوفمبر 2022 ، بعد كل شيء. من الطبيعي أن يكون لدى المستخدمين الجدد مفاهيم خاطئة حول خصوصية وأمان الأدوات غير المألوفة.
وفق شروط استخدام OpenAI، إليك كيفية معالجة ChatGPT للبيانات التالية:
معلومات التعرف الشخصية
تقول الشائعات أن ChatGPT تبيع معلومات التعرف الشخصية (معلومات تحديد الهوية الشخصية).
تم إطلاق المنصة من قبل OpenAI ، وهو مختبر أبحاث ذكاء اصطناعي حسن السمعة يموله مستثمرو التكنولوجيا مثل Microsoft و Elon Musk. يجب أن يستخدم ChatGPT بيانات العميل فقط لتقديم الخدمات المذكورة في سياسة الخصوصية.
علاوة على ذلك ، يطلب ChatGPT الحد الأدنى من المعلومات. يمكنك إنشاء حساب باستخدام اسمك وعنوان بريدك الإلكتروني فقط.
المحادثات
يحافظ OpenAI على أمان محادثات ChatGPT ، لكنه يحتفظ بالحق في مراقبتها. يبحث مدربو الذكاء الاصطناعي باستمرار عن مجالات التحسين. نظرًا لأن النظام الأساسي يشتمل على مجموعات بيانات ضخمة ومحدودة ، فإن حل الأخطاء والأخطاء ونقاط الضعف يتطلب تحديثات على مستوى النظام.
ومع ذلك ، يمكن لـ OpenAI مراقبة التحويلات فقط لأغراض البحث. توزيعها أو بيعها لأطراف ثالثة ينتهك شروط الاستخدام الخاصة بها.
معلومات عامة
بحسب ال بي بي سي، قامت OpenAI بتدريب ChaGPT على 300 مليار كلمة. يقوم بجمع البيانات من صفحات الويب العامة ، مثل منصات الوسائط الاجتماعية ومواقع الأعمال التجارية وأقسام التعليقات. ما لم تكن قد خرجت من الشبكة ومحت بصمتك الرقمية ، فمن المحتمل أن يكون لدى ChatGPT معلوماتك.
ما هي مخاطر الأمان التي تقدمها ChatGPT؟
على الرغم من أن ChatGPT ليس خطيرًا بطبيعته ، إلا أن النظام الأساسي لا يزال يمثل مخاطر أمنية. يمكن للمحتالين تجاوز القيود لتنفيذ هجمات إلكترونية مختلفة.
1. رسائل البريد الإلكتروني المخادعة المقنعة
بدلاً من قضاء ساعات في كتابة رسائل البريد الإلكتروني ، يستخدم المحتالون ChatGPT. إنه سريع ودقيق. يمكن لنماذج اللغات المتقدمة (مثل GPT-3.5 و GPT-4) إنتاج مئات رسائل البريد الإلكتروني التصيدية المتماسكة والمقنعة في غضون دقائق. حتى أنهم يتبنون نغمات وأساليب كتابة فريدة.
نظرًا لأن ChatGPT يجعل من الصعب اكتشاف محاولات القرصنة ، توخى الحذر قبل الرد على رسائل البريد الإلكتروني. كقاعدة عامة ، تجنب إفشاء المعلومات. لاحظ أن الشركات والمؤسسات الشرعية نادرًا ما تطلب معلومات تحديد الهوية الشخصية السرية من خلال رسائل البريد الإلكتروني العشوائية.
تعلم كيفية اكتشاف محاولات القرصنة. على الرغم من أن موفري البريد الإلكتروني يقومون بتصفية الرسائل غير المرغوب فيها ، إلا أن بعض الرسائل الخادعة قد تسقط من خلال الثغرات. لا يزال يتعين عليك معرفة شكل رسائل التصيد الاحتيالي.
2. سرقة البيانات
يستخدم ChatGPT LLM مفتوح المصدر ، يمكن لأي شخص تعديله. غالبًا ما يدمج المبرمجون الماهرون في نماذج اللغات الكبيرة (LLM) والتعلم الآلي نماذج الذكاء الاصطناعي المدربة مسبقًا في أنظمتهم القديمة. يؤدي تدريب الذكاء الاصطناعي على مجموعات البيانات الجديدة إلى تغيير الوظائف. على سبيل المثال ، يصبح ChatGPT خبيرًا زائفًا في اللياقة البدنية إذا قمت بإطعامه وصفات وتمارين روتينية.
على الرغم من أنها تعاونية ومريحة ، إلا أن المصادر المفتوحة تترك التقنيات عرضة لسوء الاستخدام. يستغل المجرمون المهرة بالفعل ChatGPT. يقومون بتدريبها على كميات كبيرة من البيانات المسروقة ، وتحويل المنصة إلى قاعدة بيانات شخصية للاحتيال.
تذكر: ليس لديك سيطرة على كيفية عمل المحتالين. أفضل طريقة هي الاتصال بلجنة التجارة الفيدرالية (FTC) بمجرد ملاحظة ذلك علامات سرقة الهوية.
3. إنتاج البرمجيات الخبيثة
يكتب ChatGPT مقتطفات التعليمات البرمجية القابلة للاستخدام بلغات برمجة مختلفة. تتطلب معظم العينات الحد الأدنى من التعديلات لتعمل بشكل صحيح ، خاصة إذا كنت تقوم ببناء موجه موجز. يمكنك الاستفادة من هذه الميزة لتطوير التطبيقات والمواقع.
منذ أن تم تدريب ChatGPT على مليارات مجموعات البيانات ، فهو يعرف أيضًا ممارسات غير مشروعة ، مثل تطوير البرامج الضارة والفيروسات. يحظر OpenAI برامج الدردشة من كتابة أكواد ضارة. لكن المحتالين يتجاوزون هذه القيود عن طريق إعادة هيكلة المطالبات وطرح أسئلة محددة.
توضح الصورة أدناه أن ChatGPT يرفض كتابة التعليمات البرمجية لأغراض ضارة.
في هذه الأثناء ، تُظهر الصورة أدناه أن ChatGPT سيعطيك معلومات ضارة إذا قمت بصياغة مطالباتك بشكل صحيح.
4. سرقة الملكية الفكرية
يقوم المدونون غير الأخلاقيون بتدوير المحتوى باستخدام ChatGPT. نظرًا لأن النظام الأساسي يعمل على LLMs المتقدمة ، فيمكنه إعادة صياغة آلاف الكلمات بسرعة وعلامات الانتحال.
أعاد ChatGPT صياغة النص أدناه في 10 ثوانٍ.
بالطبع ، لا يزال الغزل يصنف على أنه انتحال. أحيانًا يتم ترتيب مقالات الذكاء الاصطناعي المعاد صياغتها بالصدفة ، لكن Google تفضل عمومًا المحتوى الأصلي من مصادر موثوقة. لا يمكن أن تتفوق الحيل الرخيصة واختراقات تحسين محركات البحث على الكتابة عالية الجودة ودائمة الخضرة.
أيضًا ، تُصدر Google تحديثات أساسية متعددة سنويًا. ستركز قريبًا على إزالة القطع البطيئة غير الأصلية التي تم إنشاؤها بواسطة الذكاء الاصطناعي من SERPs.
5. توليد ردود غير أخلاقية
نماذج لغة الذكاء الاصطناعي ليس لها أي تحيزات. يقدمون إجابات من خلال تحليل طلبات المستخدمين وسحب البيانات من قاعدة البيانات الموجودة لديهم.
خذ ChatGPT كمثال. عندما ترسل مطالبة ، فإنها تستجيب بناءً على مجموعات البيانات OpenAI المستخدمة للتدريب.
بينما تحظر سياسات محتوى ChatGPT الطلبات غير الملائمة ، يتجاوزها المستخدمون بمطالبات كسر الحماية. يغذونها بتعليمات دقيقة وذكية. ينتج ChatGPT الرد التالي إذا طلبت منه تصوير شخصية خيالية مضطربة نفسيًا.
الخبر السار هو لم يفقد OpenAI السيطرة على ChatGPT. تمنع جهودها المستمرة في تشديد القيود ChatGPT من إنتاج ردود غير أخلاقية ، بغض النظر عن مدخلات المستخدم. لن يكون كسر الحماية أمرًا سهلاً للمضي قدمًا.
6. مقايضة
النمو السريع للتقنيات الجديدة غير المألوفة مثل ChatGPT يخلق فرصًا لهجمات المقايضة. إنها تكتيكات هندسة اجتماعية حيث يغري المحتالون الضحايا بعروض مزيفة.
لم يستكشف معظم الأشخاص ChatGPT حتى الآن. ويستغل المتسللون الالتباس عن طريق نشر ترويجات ورسائل بريد إلكتروني وإعلانات مضللة.
أكثر الحالات شهرة تتضمن تطبيقات مزيفة. لا يعرف المستخدمون الجدد أنه يمكنهم فقط الوصول إلى ChatGPT من خلال OpenAI. يقومون بتنزيل برامج وملحقات غير مرغوب فيها.
يريد معظمهم فقط تنزيلات التطبيق ، لكن الآخرين يسرقون معلومات التعريف الشخصية. يصيبهم المحتالون بالبرامج الضارة وروابط التصيد. على سبيل المثال ، في مارس 2023 ، أ سرق ملحق ChatGPT Chrome المزيف بيانات اعتماد Facebook من أكثر من 2000 مستخدم يوميًا.
لمكافحة محاولات المقايضة ، تجنب تطبيقات الطرف الثالث. لم تصدر OpenAI مطلقًا تطبيقًا جوالًا معتمدًا أو برنامج كمبيوتر أو ملحق متصفح لـ ChatGPT. أي شيء يدعي على هذا النحو هو عملية احتيال.
استخدم ChatGPT بأمان ومسؤولية
ChatGPT لا يمثل تهديدًا في حد ذاته. النظام به ثغرات أمنية ، لكنه لن يعرض بياناتك للخطر. بدلاً من الخوف من تقنيات الذكاء الاصطناعي ، ابحث عن كيفية دمج المحتالين لها في تكتيكات الهندسة الاجتماعية. بهذه الطريقة ، يمكنك حماية نفسك بشكل استباقي.
ولكن إذا كان لا يزال لديك شكوك حول ChatGPT ، فجرّب Bing. يتميز Bing الجديد ببرنامج دردشة آلي يعمل بالذكاء الاصطناعي ويعمل على GPT-4 ، ويسحب البيانات من الإنترنت ، ويتبع إجراءات أمنية صارمة. قد تجده أكثر ملاءمة لاحتياجاتك.