يُعد الذكاء الاصطناعي التوليدي أمرًا رائعًا ، لكنه دائمًا ما يقدم معلوماته بسلطة مطلقة. وهو شيء عظيم إلا إذا كان يهلوس الحقيقة.
هلوسة الذكاء الاصطناعي (AI) تبدو محيرة. ربما تفكر ، "أليست الهلوسة ظاهرة بشرية؟" حسنًا ، نعم ، اعتادت أن تكون مجرد إنسان الظاهرة حتى بدأ الذكاء الاصطناعي في إظهار الخصائص البشرية مثل التعرف على الوجه والتعلم الذاتي والكلام تعرُّف.
لسوء الحظ ، اتخذ الذكاء الاصطناعي بعض السمات السلبية ، بما في ذلك الهلوسة. إذاً ، هل الهلوسة بالذكاء الاصطناعي تشبه نوع الهلوسة التي يعاني منها البشر؟
ما هو هلوسة الذكاء الاصطناعي؟
تحدث هلوسة الذكاء الاصطناعي عندما يولد نموذج الذكاء الاصطناعي مخرجات مختلفة عما هو متوقع. لاحظ أن بعض نماذج الذكاء الاصطناعي مدربة لتوليد مخرجات لا علاقة لها عن قصد بأي مدخلات (بيانات) في العالم الحقيقي.
على سبيل المثال، أفضل مولدات تحويل النص إلى الفن بالذكاء الاصطناعي، مثل DALL-E 2 ، يمكن أن تولد بشكل إبداعي صورًا جديدة يمكننا تمييزها على أنها "هلوسة" لأنها لا تستند إلى بيانات من العالم الحقيقي.
هلوسة الذكاء الاصطناعي في نماذج معالجة اللغات الكبيرة
لنفكر في الشكل الذي ستبدو عليه هلوسة الذكاء الاصطناعي في نموذج معالجة لغة كبير مثل ChatGPT. قد تؤدي هلوسة ChatGPT إلى قيام الروبوت بإعطائك حقيقة غير صحيحة مع بعض التأكيد ، بحيث يمكنك بطبيعة الحال أن تأخذ هذه الحقائق على أنها حقيقة.
بعبارات بسيطة ، إنها عبارات مختلقة بواسطة روبوت المحادثة الذكي اصطناعيًا. هذا مثال:
في مزيد من الاستعلام ، ظهر ChatGPT مع هذا:
هلوسة الذكاء الاصطناعي في رؤية الكمبيوتر
لنفكر في مجال آخر من مجالات الذكاء الاصطناعي يمكنه تجربة هلوسة الذكاء الاصطناعي: الرؤية الحاسوبية. يُظهر الاختبار أدناه مونتاج 4 × 4 مع كيانين متشابهين إلى حد كبير. الصور عبارة عن مزيج من رقائق البطاطس وأوراق الشواء.
التحدي هو اختيار رقائق البطاطس دون اصطدام أي أوراق في المونتاج. قد تبدو هذه الصورة صعبة لجهاز الكمبيوتر ، وقد لا يتمكن من التمييز بين رقائق البطاطس وأوراق الشواء.
إليك مونتاج آخر بمزيج من صور كعكة خيط البودل ولحم الخنزير. من المرجح أن يكون الكمبيوتر غير قادر على التفريق بينهما ، وبالتالي خلط الصور.
لماذا تحدث هلوسة الذكاء الاصطناعي؟
يمكن أن تحدث الهلوسة بالذكاء الاصطناعي بسبب أمثلة معادية - إدخال البيانات التي تخدع تطبيق AI لتصنيفها بشكل خاطئ. على سبيل المثال ، عند تدريب تطبيقات الذكاء الاصطناعي ، يستخدم المطورون البيانات (صورة أو نص أو غيرها) ؛ إذا تم تغيير البيانات أو تشويهها ، فإن التطبيق يفسر الإدخال بشكل مختلف ، مما يعطي مخرجات خاطئة.
في المقابل ، لا يزال بإمكان الإنسان التعرف على البيانات وتحديدها بدقة على الرغم من التشوهات. يمكننا تمييز هذا على أنه حدس - سمة بشرية لا تمتلكها منظمة العفو الدولية بعد. شاهد كيف ينخدع الذكاء الاصطناعي بأمثلة معادية في هذا الفيديو:
فيما يتعلق بالنماذج الكبيرة القائمة على اللغة مثل ChatGPT وبدائله، قد تنشأ الهلوسة من فك التشفير غير الدقيق من المحولات (نموذج التعلم الآلي).
في الذكاء الاصطناعي ، المحول هو نموذج التعلم العميق الذي يستخدم الانتباه الذاتي (العلاقات الدلالية بين الكلمات في جملة) لإنتاج نص مشابه لما يكتبه الإنسان باستخدام وحدة فك التشفير (المدخلات والمخرجات) تسلسل.
لذا يمكن للمحولات ، وهي نموذج تعلم آلي شبه خاضع للإشراف ، إنشاء نص جديد (مخرجات) من مجموعة كبيرة من البيانات النصية المستخدمة في التدريب (الإدخال). يقوم بذلك من خلال التنبؤ بالكلمة التالية في سلسلة بناءً على الكلمات السابقة.
فيما يتعلق بالهلوسة ، إذا تم تدريب نموذج لغوي على بيانات وموارد غير كافية وغير دقيقة ، فمن المتوقع أن يكون الناتج مختلقًا وغير دقيق. قد يولد نموذج اللغة قصة أو سرد بدون تناقضات منطقية أو روابط غير واضحة.
في المثال أدناه ، طُلب من ChatGPT إعطاء كلمة مشابهة لكلمة "revolt" وتبدأ بحرف "b". ها هو ردها:
لمزيد من التحقيق ، استمر في إعطاء إجابات خاطئة ، بمستوى عالٍ من الثقة.
فلماذا يتعذر على ChatGPT إعطاء إجابة دقيقة لهذه المطالبات؟
يمكن أن يكون نموذج اللغة غير مجهز للتعامل مع مطالبات معقدة مثل هذه أو تلك لا يمكن تفسير الموجه بدقة ، مع تجاهل المطالبة بإعطاء كلمة مماثلة بكلمة معينة الأبجدية.
كيف تكتشف هلوسة الذكاء الاصطناعي؟
من الواضح الآن أن تطبيقات الذكاء الاصطناعي لديها القدرة على الهلوسة - توليد استجابات بخلاف ذلك من الناتج المتوقع (حقيقة أو حقيقة) دون أي نية خبيثة. ويعود اكتشاف وهلوسة الذكاء الاصطناعي إلى مستخدمي هذه التطبيقات.
فيما يلي بعض الطرق لاكتشاف هلوسة الذكاء الاصطناعي أثناء استخدام تطبيقات الذكاء الاصطناعي الشائعة:
1. نماذج معالجة اللغة الكبيرة
على الرغم من ندرة حدوث ذلك ، إذا لاحظت وجود خطأ نحوي في المحتوى الناتج عن نموذج معالجة كبير ، مثل ChatGPT ، فمن المفترض أن يثير ذلك حاجبًا ويجعلك تشك في حدوث هلوسة. وبالمثل ، عندما لا يبدو المحتوى الناتج عن النص منطقيًا ، أو يرتبط بالسياق المحدد ، أو يتطابق مع بيانات الإدخال ، يجب أن تشك في وجود هلوسة.
يمكن أن يساعد استخدام الحكم البشري أو الفطرة السليمة في اكتشاف الهلوسة ، حيث يمكن للبشر تحديد بسهولة عندما لا يكون النص منطقيًا أو يتبع الواقع.
2. الرؤية الحاسوبية
بصفتها فرعًا من فروع الذكاء الاصطناعي والتعلم الآلي وعلوم الكمبيوتر ، تعمل رؤية الكمبيوتر على تمكين أجهزة الكمبيوتر من التعرف على الصور ومعالجتها مثل عيون الإنسان. استخدام الشبكات العصبية التلافيفية، فهم يعتمدون على الكمية الهائلة من البيانات المرئية المستخدمة في تدريبهم.
سيؤدي الانحراف عن أنماط البيانات المرئية المستخدمة في التدريب إلى الهلوسة. على سبيل المثال ، إذا لم يتم تدريب الكمبيوتر على صور كرة التنس ، فيمكنه تحديدها على أنها برتقالية خضراء. أو إذا تعرف الكمبيوتر على حصان بجانب تمثال بشري على أنه حصان بجانب إنسان حقيقي ، فقد حدثت هلوسة بالذكاء الاصطناعي.
لذا لتحديد هلوسة رؤية الكمبيوتر ، قارن الناتج الناتج بما يتوقع أن يراه الإنسان [العادي].
3. سيارات ذاتية القيادة
بفضل الذكاء الاصطناعي ، تتسلل السيارات ذاتية القيادة تدريجياً إلى سوق السيارات. قام رواد مثل Tesla Autopilot و Ford's BlueCruise بتأييد مشهد السيارات ذاتية القيادة. يمكنك التحقق كيف وماذا يرى الطيار الآلي تسلا لفهم كيفية تشغيل الذكاء الاصطناعي للسيارات ذاتية القيادة.
إذا كنت تمتلك واحدة من هذه السيارات ، فأنت تريد أن تعرف ما إذا كانت سيارتك التي تعمل بالذكاء الاصطناعي تسبب الهلوسة. ستكون إحدى العلامات ما إذا كانت سيارتك تبدو وكأنها تنحرف عن أنماط سلوكها الطبيعي أثناء القيادة. على سبيل المثال ، إذا كانت السيارة تفرامل أو تنحرف فجأة دون أي سبب واضح ، فقد تكون مركبتك التي تعمل بالذكاء الاصطناعي هلوسة.
يمكن لأنظمة الذكاء الاصطناعي أن تسبب الهلوسة أيضًا
يعاني البشر ونماذج الذكاء الاصطناعي من الهلوسة بشكل مختلف. عندما يتعلق الأمر بالذكاء الاصطناعي ، تشير الهلوسة إلى نواتج خاطئة تبعد أميالاً عن الواقع أو لا معنى لها في سياق موجه معين. على سبيل المثال ، قد يعطي روبوت محادثة AI استجابة غير صحيحة نحويًا أو منطقيًا أو يخطئ في التعرف على كائن بسبب الضوضاء أو العوامل الهيكلية الأخرى.
هلوسات الذكاء الاصطناعي لا تنتج عن العقل الواعي أو اللاوعي ، كما تلاحظ عند البشر. بل ينتج عن عدم كفاية أو عدم كفاية البيانات المستخدمة في تدريب وبرمجة نظام الذكاء الاصطناعي.