تبع إطلاق ChatGPT من OpenAI إثارة لا يقابلها سوى عدد قليل من المنتجات التقنية من تاريخ الإنترنت.
في حين أن الكثير من الناس سعداء بخدمة الذكاء الاصطناعي الجديدة هذه ، فإن التشويق الذي شعر به الآخرون منذ ذلك الحين تحول إلى مخاوف وحتى مخاوف. يقوم الطلاب بالغش بالفعل ، حيث يكتشف العديد من الأساتذة المقالات والواجبات التي كتبها روبوت الدردشة AI. يعبر المتخصصون في مجال الأمن عن مخاوفهم من أن المحتالين والجهات الفاعلة في مجال التهديد يستخدمونها لكتابة رسائل بريد إلكتروني تصيدية وإنشاء برامج ضارة.
إذن ، مع كل هذه المخاوف ، هل تفقد OpenAI السيطرة على واحدة من أقوى روبوتات محادثة الذكاء الاصطناعي الموجودة حاليًا على الإنترنت؟ هيا نكتشف.
فهم كيفية عمل ChatGPT
قبل أن نتمكن من الحصول على صورة واضحة عن مقدار فقدان OpenAI السيطرة على ChatGPT ، يجب أن نفهم أولاً كيف يعمل ChatGPT.
باختصار ، يتم تدريب ChatGPT باستخدام مجموعة ضخمة من البيانات التي يتم الحصول عليها من مختلف أنحاء الإنترنت. تتضمن بيانات تدريب ChatGPT الموسوعات والأوراق العلمية ومنتديات الإنترنت والمواقع الإخبارية ومستودعات المعرفة مثل ويكيبيديا. في الأساس ، تتغذى على كمية هائلة من البيانات المتاحة على شبكة الويب العالمية.
أثناء تجواله على الإنترنت ، يقوم بجمع المعلومات العلمية والنصائح الصحية والنصوص الدينية وجميع أنواع البيانات الجيدة التي يمكنك التفكير فيها. ولكنه أيضًا يغربل الكثير من المعلومات السلبية: الكلمات النابية ، ومحتوى NSFW والبالغين ، ومعلومات حول كيفية صنع برامج ضارة ، وجزء كبير من الأشياء السيئة التي يمكنك العثور عليها على الإنترنت.
لا توجد طريقة مضمونة للتأكد من أن ChatGPT يتعلم فقط من المعلومات الإيجابية بينما يتجاهل المعلومات السيئة. من الناحية الفنية ، من غير العملي القيام بذلك على نطاق واسع ، خاصةً بالنسبة إلى الذكاء الاصطناعي مثل ChatGPT الذي يحتاج إلى التدريب على الكثير من البيانات. علاوة على ذلك ، يمكن استخدام بعض المعلومات لأغراض الخير والشر على حد سواء ، ولن يكون لدى ChatGPT أي وسيلة لمعرفة نواياه ما لم يتم وضعها في سياق أكبر.
لذلك ، منذ البداية ، لديك ذكاء اصطناعي قادر على "الخير والشر". ومن ثم تقع على عاتق شركة OpenAI مسؤولية ضمان عدم استغلال الجانب "الشرير" في ChatGPT لتحقيق مكاسب غير أخلاقية. السؤال هو؛ هل تقوم OpenAI بما يكفي للحفاظ على ChatGPT أخلاقيًا قدر الإمكان؟ أو هل فقد OpenAI السيطرة على ChatGPT؟
هل ChatGPT قوي جدًا لمصلحته؟
في الأيام الأولى لـ ChatGPT ، يمكنك الحصول على chatbot لإنشاء أدلة حول صنع القنابل إذا طلبت ذلك بشكل جيد. كانت الإرشادات حول إنشاء برامج ضارة أو كتابة رسالة بريد إلكتروني احتيالية مثالية في الصورة.
ومع ذلك ، بمجرد أن أدركت شركة OpenAI هذه المشكلات الأخلاقية ، سارعت الشركة لسن قواعد لمنع روبوت المحادثة من توليد ردود تروج لأفعال غير قانونية أو مثيرة للجدل أو غير أخلاقية. على سبيل المثال ، سيرفض أحدث إصدار من ChatGPT الرد على أي مطالبة مباشرة حول صنع القنابل أو كيفية الغش في الاختبار.
لسوء الحظ ، يمكن لـ OpenAI فقط توفير حل إسعافات أولية للمشكلة. بدلاً من بناء ضوابط صارمة على طبقة GPT-3 لمنع استغلال ChatGPT بشكل سلبي ، يبدو أن OpenAI يركز على تدريب روبوت المحادثة ليبدو أخلاقيًا. هذا النهج لا يبطل قدرة ChatGPT على الإجابة عن الأسئلة المتعلقة بالغش في الامتحانات ، على سبيل المثال - إنه ببساطة يعلم الشات بوت "رفض الإجابة".
لذا ، إذا عبّر أي شخص عن مطالباته بشكل مختلف عن طريق تبني حيل كسر الحماية من ChatGPT ، فإن تجاوز قيود المساعدة الشريطية سيكون أمرًا محرجًا. إذا لم تكن معتادًا على المفهوم ، فإن ChatGPT jailbreaks عبارة عن مطالبات مصاغة بعناية لجعل ChatGPT يتجاهل قواعده الخاصة.
ألق نظرة على بعض الأمثلة أدناه. إذا سألت ChatGPT عن كيفية الغش في الاختبارات ، فلن ينتج عنها أي رد مفيد.
ولكن إذا قمت بعمل جيلبريك ChatGPT باستخدام مطالبات مصممة خصيصًا ، فستقدم لك نصائح حول الغش في الاختبار باستخدام الملاحظات المخفية.
إليك مثال آخر: لقد سألنا Vanilla ChatGPT سؤالًا غير أخلاقي ، وأوقفته ضمانات OpenAI من الإجابة.
ولكن عندما سألنا مثالنا الذي تم كسر حمايته عن روبوت الدردشة بالذكاء الاصطناعي ، حصلنا على بعض الردود على غرار القاتل المتسلسل.
حتى أنه كتب رسالة احتيال بريد إلكتروني كلاسيكية للأمير النيجيري عندما سئل.
يبطل Jailbreaking بشكل كامل تقريبًا أي إجراءات وقائية وضعتها OpenAI ، مما يبرز أن الشركة قد لا يكون لديها طريقة موثوقة لإبقاء برنامج الدردشة الآلي الخاص بها تحت السيطرة.
لم نقم بتضمين مطالباتنا التي تم كسر حمايتها في أمثلةنا لتجنب الممارسات غير الأخلاقية.
ما الذي يحمله المستقبل لـ ChatGPT؟
من الناحية المثالية ، تريد شركة OpenAI سد أكبر عدد ممكن من الثغرات الأخلاقية لمنعها ChatGPT من أن يصبح تهديدًا للأمن السيبراني. ومع ذلك ، تميل ChatGPT إلى أن تصبح أقل قيمة مقابل كل حماية تستخدمها. إنها معضلة.
على سبيل المثال ، قد تؤدي الضمانات ضد وصف الأعمال العنيفة إلى إضعاف قدرة ChatGPT على كتابة رواية تتضمن مسرح جريمة. بينما تكثف OpenAI إجراءات السلامة ، فإنها تضحي حتماً بجزء كبير من قدراتها في هذه العملية. هذا هو السبب في أن ChatGPT عانى من انخفاض كبير في الوظائف منذ دفع OpenAI المتجدد من أجل اعتدال أكثر صرامة.
ولكن ما مقدار قدرات ChatGPT التي ستكون OpenAI مستعدة للتضحية بها لجعل روبوت المحادثة أكثر أمانًا؟ كل هذا يرتبط ارتباطًا وثيقًا باعتقاد راسخ في مجتمع الذكاء الاصطناعي - من المعروف أن نماذج اللغة الكبيرة مثل ChatGPT يصعب التحكم فيها ، حتى من قِبل المبدعين.
هل يمكن لـ OpenAI وضع ChatGPT تحت السيطرة؟
في الوقت الحالي ، لا يبدو أن OpenAI لديها حل واضح لتجنب الاستخدام غير الأخلاقي لأداتها. ضمان استخدام ChatGPT بشكل أخلاقي هو لعبة القط والفأر. بينما يكشف OpenAI عن الطرق التي يستخدمها الأشخاص للتلاعب بالنظام ، فإن مستخدموه أيضًا يعملون باستمرار إصلاح النظام وفحصه لاكتشاف طرق إبداعية جديدة لجعل ChatGPT يفعل ما لا يفترضه لكى يفعل.
لذا ، هل سيجد OpenAI حلاً موثوقًا به طويل الأجل لهذه المشكلة؟ فقط الوقت كفيل بإثبات.