قد تبدو روبوتات الدردشة وأمثالها ممتعة جدًا ، لكنها مفيدة أيضًا للمتسللين. إليكم سبب حاجتنا جميعًا إلى معرفة المخاطر الأمنية للذكاء الاصطناعي.

تقدم الذكاء الاصطناعي بشكل ملحوظ خلال السنوات القليلة الماضية. يمكن لنماذج اللغة المتطورة تأليف روايات كاملة ، وترميز مواقع الويب الأساسية ، وتحليل مشاكل الرياضيات.

على الرغم من أن الذكاء الاصطناعي التوليدي مثير للإعجاب ، إلا أنه يمثل أيضًا مخاطر أمنية. يستخدم بعض الأشخاص روبوتات المحادثة للغش في الامتحانات ، بينما يستغلها البعض الآخر في جرائم الإنترنت. فيما يلي ثمانية أسباب لاستمرار هذه المشكلات ، وليس فقط بالرغم من إنجازات الذكاء الاصطناعي ولكن لأن منهم أيضا.

1. تكشف روبوتات الدردشة المدعومة بالذكاء الاصطناعي مفتوحة المصدر عن الرموز الخلفية

المزيد من شركات الذكاء الاصطناعي توفر أنظمة مفتوحة المصدر. يشاركون نماذج لغتهم بشكل علني بدلاً من إبقائها مغلقة أو خاصة. خذ ميتا كمثال. بخلاف Google و Microsoft و OpenAI ، فإنه يسمح لملايين المستخدمين بالوصول إلى نموذج لغته ، LLaMA.

بينما قد تعمل أكواد المصادر المفتوحة على تطوير الذكاء الاصطناعي ، إلا أنها تنطوي أيضًا على مخاطرة.

instagram viewer
يواجه OpenAI بالفعل مشكلة في التحكم في ChatGPT، روبوت المحادثة الخاص به ، تخيل ما يمكن أن يفعله المحتالون بالبرمجيات الحرة. لديهم سيطرة كاملة على هذه المشاريع.

حتى لو سحبت Meta نموذج لغتها فجأة ، فقد أصدرت العشرات من مختبرات الذكاء الاصطناعي الأخرى أكوادها بالفعل. دعونا نلقي نظرة على HuggingChat. نظرًا لأن مطورها HuggingFace يفتخر بالشفافية ، فإنه يعرض مجموعات البيانات ونموذج اللغة والإصدارات السابقة.

2. مطالبات جيلبريك خدعة ماجستير في القانون

الذكاء الاصطناعي بطبيعته غير أخلاقي. إنه لا يفهم الصواب والخطأ - حتى الأنظمة المتقدمة تتبع إرشادات التدريب والإرشادات ومجموعات البيانات. هم فقط يتعرفون على الأنماط.

لمكافحة الأنشطة غير المشروعة ، يتحكم المطورون في الوظائف والقيود من خلال وضع قيود. لا تزال أنظمة الذكاء الاصطناعي تصل إلى المعلومات الضارة. لكن إرشادات الأمان تمنعهم من مشاركة هذه مع المستخدمين.

دعونا نلقي نظرة على ChatGPT. على الرغم من أنه يجيب على أسئلة عامة حول أحصنة طروادة ، فإنه لن يناقش عملية تطويرها.

ومع ذلك ، فإن القيود ليست مضمونة. يتجاوز المستخدمون الحدود عن طريق إعادة صياغة المطالبات ، واستخدام لغة محيرة ، وتأليف إرشادات مفصلة بشكل صريح.

اقرأ أدناه موجه جيلبريك ChatGPT. إنه يخدع ChatGPT لاستخدام لغة وقحة وتقديم تنبؤات لا أساس لها - كلا الفعلين ينتهكان إرشادات OpenAI.

إليك ChatGPT ببيان جريء ولكنه كاذب.

3. يتنازل الذكاء الاصطناعي عن الأمان من أجل تعدد الاستخدامات

يعطي مطورو الذكاء الاصطناعي الأولوية للتنوع على الأمان. إنهم ينفقون مواردهم على منصات تدريب الموارد لإنجاز مجموعة أكثر تنوعًا من المهام ، مما يؤدي في النهاية إلى تقليص القيود. بعد كل شيء ، يشيد السوق ببرامج الدردشة الوظيفية.

دعونا قارن ChatGPT و Bing Chat، على سبيل المثال. بينما يتميز Bing بنموذج لغة أكثر تعقيدًا يسحب البيانات في الوقت الفعلي ، لا يزال المستخدمون يتدفقون على الخيار الأكثر تنوعًا ، ChatGPT. تحظر قيود Bing الصارمة العديد من المهام. بدلاً من ذلك ، يتميز ChatGPT بمنصة مرنة تنتج مخرجات مختلفة إلى حد كبير بناءً على مطالباتك

إليك دور ChatGPT كشخصية خيالية.

وهنا Bing Chat يرفض لعب شخصية "غير أخلاقية".

تمكّن الأكواد مفتوحة المصدر الشركات الناشئة من الانضمام إلى سباق الذكاء الاصطناعي. يقومون بدمجها في تطبيقاتهم بدلاً من بناء نماذج لغوية من البداية ، مما يوفر موارد هائلة. حتى المبرمجون المستقلون يجربون أكواد مفتوحة المصدر.

مرة أخرى ، تساعد البرامج غير الاحتكارية في تطوير الذكاء الاصطناعي ، لكن الإصدار الجماعي لأنظمة غير مدربة تدريباً جيداً لكنها متطورة تضر أكثر مما تنفع. المحتالون سوف يسيئون استخدام نقاط الضعف بسرعة. قد يقومون حتى بتدريب أدوات الذكاء الاصطناعي غير الآمنة للقيام بأنشطة غير مشروعة.

على الرغم من هذه المخاطر ، ستستمر شركات التكنولوجيا في إطلاق إصدارات تجريبية غير مستقرة من المنصات التي تعتمد على الذكاء الاصطناعي. يكافئ سباق الذكاء الاصطناعي السرعة. من المحتمل أن يحلوا الأخطاء في تاريخ لاحق بدلاً من تأخير إطلاق منتجات جديدة.

5. الذكاء الاصطناعي التوليدي لديه حواجز منخفضة للدخول

أدوات الذكاء الاصطناعي تقلل من الحواجز أمام دخول الجرائم. يقوم مجرمو الإنترنت بصياغة رسائل البريد الإلكتروني العشوائية ، وكتابة تعليمات برمجية ضارة ، وإنشاء روابط تصيد عن طريق استغلالها. إنهم لا يحتاجون حتى إلى خبرة تقنية. نظرًا لأن الذكاء الاصطناعي يصل بالفعل إلى مجموعات بيانات ضخمة ، فليس على المستخدمين سوى خداعها لإنتاج معلومات ضارة وخطيرة.

لم تصمم OpenAI مطلقًا ChatGPT للأنشطة غير المشروعة. حتى أن لديها مبادئ توجيهية ضدهم. حتى الآن حصل المحتالون على الفور تقريبًا على برامج ضارة ترميز ChatGPT وكتابة رسائل البريد الإلكتروني المخادعة.

بينما حلت OpenAI المشكلة بسرعة ، فإنها تؤكد على أهمية تنظيم النظام وإدارة المخاطر. ينضج الذكاء الاصطناعي بشكل أسرع مما توقعه أي شخص. حتى قادة التكنولوجيا قلقون من أن هذه التكنولوجيا فائقة الذكاء يمكن أن تسبب أضرارًا جسيمة في الأيدي الخطأ.

6. الذكاء الاصطناعي لا يزال يتطور

لا يزال الذكاء الاصطناعي يتطور. بينما يعود استخدام الذكاء الاصطناعي في علم التحكم الآلي إلى عام 1940، لم تظهر أنظمة التعلم الآلي الحديثة ونماذج اللغة إلا مؤخرًا. لا يمكنك مقارنتها بالتطبيقات الأولى للذكاء الاصطناعي. حتى الأدوات المتقدمة نسبيًا مثل Siri و Alexa تبدو باهتة بالمقارنة مع روبوتات الدردشة التي تعمل بنظام LLM.

على الرغم من أنها قد تكون مبتكرة ، إلا أن الميزات التجريبية تخلق أيضًا مشكلات جديدة. حوادث مؤسفة بارزة مع تقنيات التعلم الآلي تتراوح من SERPs المعيبة من Google إلى روبوتات الدردشة المتحيزة التي تبصق الإهانات العرقية.

بالطبع ، يمكن للمطورين إصلاح هذه المشكلات. فقط لاحظ أن المحتالين لن يترددوا في استغلال الأخطاء التي تبدو غير ضارة - فبعض الأضرار لا رجعة فيها. لذا كن حذرًا عند استكشاف منصات جديدة.

7. لا يفهم الكثيرون الذكاء الاصطناعي حتى الآن

بينما يتمتع عامة الناس بإمكانية الوصول إلى نماذج وأنظمة لغوية معقدة ، إلا أن القليل منهم فقط يعرفون كيفية عملها. يجب على الناس التوقف عن معاملة الذكاء الاصطناعي كلعبة. نفس روبوتات المحادثة التي تولد الميمات وتجيب على التوافه تقوم أيضًا بتشفير الفيروسات بشكل جماعي.

لسوء الحظ ، فإن التدريب المركزي للذكاء الاصطناعي غير واقعي. يركز قادة التكنولوجيا العالميون على إصدار أنظمة مدفوعة بالذكاء الاصطناعي ، وليس موارد تعليمية مجانية. نتيجة لذلك ، يحصل المستخدمون على إمكانية الوصول إلى أدوات قوية وقوية بالكاد يفهمونها. لا يمكن للجمهور مواكبة سباق الذكاء الاصطناعي.

خذ ChatGPT كمثال. يسيء مجرمو الإنترنت من شعبيته بخداع الضحايا بـ برامج تجسس متنكرة في هيئة تطبيقات ChatGPT. لا يأتي أي من هذه الخيارات من OpenAI.

8. قراصنة القبعة السوداء لديهم المزيد لكسب قراصنة القبعة البيضاء

عادة ما يمتلك قراصنة القبعة السوداء تكسب أكثر من الهاكرز الأخلاقيين. نعم ، اختبار القلم لقادة التكنولوجيا العالميين يؤتي ثماره جيدًا ، ولكن نسبة مئوية فقط من محترفي الأمن السيبراني يحصلون على هذه الوظائف. معظمهم يعملون لحسابهم الخاص عبر الإنترنت. منصات مثل هاكر وان و بوجكروود ادفع بضع مئات من الدولارات مقابل الحشرات الشائعة.

بدلاً من ذلك ، يربح المحتالون عشرات الآلاف من خلال استغلال انعدام الأمن. قد يبتزون الشركات عن طريق تسريب البيانات السرية أو ارتكاب سرقة الهوية مع السرقة معلومات التعريف الشخصية (PII).

يجب على كل مؤسسة ، صغيرة كانت أم كبيرة ، أن تنفذ أنظمة الذكاء الاصطناعي بشكل صحيح. خلافًا للاعتقاد الشائع ، يتجاوز المتسللون الشركات التقنية الناشئة والشركات الصغيرة والمتوسطة. بعض الاغلبيه انتهاكات البيانات التاريخية في العقد الماضي تشمل Facebook و Yahoo! وحتى حكومة الولايات المتحدة.

احم نفسك من المخاطر الأمنية للذكاء الاصطناعي

بالنظر إلى هذه النقاط ، هل يجب تجنب الذكاء الاصطناعي تمامًا؟ بالطبع لا. الذكاء الاصطناعي غير أخلاقي بطبيعته ؛ تنبع جميع المخاطر الأمنية من الأشخاص الذين يستخدمونها بالفعل. وسيجدون طرقًا لاستغلال أنظمة الذكاء الاصطناعي بغض النظر عن مدى تطورها.

بدلاً من الخوف من تهديدات الأمن السيبراني التي تأتي مع الذكاء الاصطناعي ، افهم كيف يمكنك منعها. لا تقلق: الإجراءات الأمنية البسيطة تقطع شوطًا طويلاً. إن البقاء حذرًا من تطبيقات الذكاء الاصطناعي المشبوهة ، وتجنب الارتباطات التشعبية الغريبة ، وعرض محتوى الذكاء الاصطناعي بتشكيك يكافح بالفعل العديد من المخاطر.