انتقل Tay AI من Microsoft من ذكاء اصطناعي واعد إلى كارثة كاملة في أقل من يوم واحد. هذا ما تعلمته الشركة.
أصبحت روبوتات الدردشة التي تعمل بالذكاء الاصطناعي مثل ChatGPT بشكل متزايد جزءًا لا يتجزأ من التكنولوجيا الحديثة ، ولكنها غير معروفة للكثيرين ، لم يكن الذكاء الاصطناعي التوليدي دائمًا جيدًا كما هو عليه اليوم. في الواقع ، في عام 2016 ، أظهر لنا chatbot Tay من صنع Microsoft مدى السرعة التي يمكن أن يأتي بها الذكاء الاصطناعي بنتائج عكسية.
دعونا نستكشف ما كان عليه روبوت الدردشة للذكاء الاصطناعي من Microsoft ، ولماذا فشل ، والخلافات ، والدروس التي تعلمتها الشركة بعد فشلها الكارثي.
ماذا كان Microsoft Tay؟
Tay كان روبوت محادثة AI تم تطويره بواسطة Microsoft وتم إتاحته عبر Twitter في 23 مارس 2016. تم تطوير برنامج الدردشة الآلي للأطفال الذين تتراوح أعمارهم بين 18 و 24 عامًا في الولايات المتحدة "لأغراض ترفيهية" و "تجربة وإجراء بحث حول فهم المحادثة".
لم يكن المقصود من Tay أن يكون روبوت محادثة متطورًا مثل ChatGPT ، ولكنه روبوت ذكي للذكاء الاصطناعي على Twitter يمكنك إجراء محادثات معه - نوعًا ما الذكاء الاصطناعي الخاص بي على Snapchat، ولكن من أجل التنشئة الاجتماعية.
لماذا أغلقت Microsoft Tay؟
قامت Microsoft بإزالة Tay في غضون 24 ساعة من بدء البث المباشر - لسبب وجيه. بعد تقديم Tay مباشرة تقريبًا ، بدأ مستخدمو Twitter في إساءة استخدام الخدمة عن طريق تغذية chatbot المعلومات الخاطئة ، وتعليمها مصطلحات مهينة ، ودفعها إلى أن تكون أكثر هجومًا بشكل متزايد فقط لمعرفة إلى أي مدى سيتوجه.
وذهب بعيد بالفعل. في غضون ساعات من إطلاقه ، كان تاي يغرد بعضًا من أكثر الإهانات العنصرية هجومًا ، وينشر خطاب الكراهية ، ويروج للنازية ، بل ويلهم "حربًا عرقية". ييكيس! من الواضح أن Microsoft كانت تمر بوقت عصيب ، ولم يكن بإمكانها السماح باستمرار الخدمة.
في نشر على مدونة Microsoft الرسمية، نائب رئيس شركة مايكروسوفت بيتر لي ردد نفس الشيء:
نأسف بشدة للتغريدات المسيئة والمؤذية غير المقصودة من Tay ، والتي لا تمثل هويتنا أو ما نمثله ، ولا كيف صممنا Tay. تاي الآن غير متصل بالإنترنت وسنتطلع إلى إعادة تاي فقط عندما نكون واثقين من قدرتنا على توقع النوايا الخبيثة التي تتعارض مع مبادئنا وقيمنا بشكل أفضل.
كارثة تاي هي مجرد واحدة من العديد مخاطر الذكاء الاصطناعي وتذكير قوي لماذا يجب أن يتم تطويره بأكبر قدر من الحذر والرقابة.
6 دروس تعلمتها مايكروسوفت بعد تاي
كانت Tay كارثة كاملة ، لكنها علمت Microsoft أيضًا بعض الدروس المهمة عندما يتعلق الأمر بتطوير أدوات الذكاء الاصطناعي. ولما يستحق الأمر ، فمن الأفضل أن تعلمت Microsoft دروسها عاجلاً وليس آجلاً ، مما سمح لها بالتغلب على Google وتطوير الإصدار الجديد متصفح Bing مدعوم بالذكاء الاصطناعي.
فيما يلي بعض هذه الدروس:
1. الإنترنت مليء بالمتصيدون
الإنترنت مليء بالمتصيدون ، وهذا ليس بالأخبار بالضبط ، أليس كذلك؟ على ما يبدو ، كان الأمر كذلك بالنسبة لمايكروسوفت في عام 2016. نحن لا نقول إن بناء روبوت محادثة "لأغراض ترفيهية" تستهدف الأشخاص الذين تتراوح أعمارهم بين 18 و 24 عامًا له علاقة بمعدل إساءة استخدام الخدمة. ومع ذلك ، لم تكن بالتأكيد الفكرة الأذكى أيضًا.
يريد الناس بطبيعة الحال اختبار حدود التقنيات الجديدة ، وفي النهاية فإن مهمة المطور هي حساب هذه الهجمات الضارة. بطريقة ما ، يعمل المتصيدون الداخليون كآلية للتغذية المرتدة لضمان الجودة ، ولكن هذا لا يعني أن روبوت الدردشة يجب أن يُفقد دون وضع الضمانات المناسبة قبل الإطلاق.
2. لا يمكن للذكاء الاصطناعي التفريق بشكل بديهي بين الخير والشر
مفهوم الخير والشر شيء لا يفهمه الذكاء الاصطناعي بشكل بديهي. يجب أن تتم برمجتها لمحاكاة معرفة ما هو صواب وما هو خطأ ، وما هو أخلاقي وغير أخلاقي ، وما هو طبيعي وما هو غريب.
تأتي هذه الصفات بشكل أو بآخر بشكل طبيعي للبشر كمخلوقات اجتماعية ، لكن الذكاء الاصطناعي لا يمكنه تشكيل أحكام مستقلة ، أو الشعور بالتعاطف ، أو الشعور بالألم. هذا هو السبب في أنه عندما كان مستخدمو تويتر يغذون تاي بكل أنواع الدعاية ، تابع الروبوت ببساطة - غير مدرك لأخلاقيات المعلومات التي كان يجمعها.
3. لا تدرب نماذج الذكاء الاصطناعي باستخدام محادثات الناس
تم إنشاء Tay من خلال "التنقيب عن البيانات العامة ذات الصلة واستخدام الذكاء الاصطناعي والتحرير الذي طوره فريق من بينهم الكوميديون الارتجاليون. "تدريب نموذج الذكاء الاصطناعي باستخدام محادثات الناس على الإنترنت أمر مروع فكرة.
وقبل إلقاء اللوم على Twitter ، اعلم أن النتيجة ربما كانت هي نفسها بغض النظر عن النظام الأساسي. لماذا؟ لأن الناس ببساطة ليسوا أفضل ذواتهم على الإنترنت. يصبحون عاطفيين ، ويستخدمون كلمات عامية ، ويستخدمون عدم الكشف عن هويتهم ليكونوا شائنين.
4. الذكاء الاصطناعي يفتقر إلى الحس السليم ولا يصاب بالسخرية
يبدو الذكاء الاصطناعي اليوم أكثر سهولة (أو بعبارة أكثر دقة ، فهو أفضل في محاكاة الحدس) ولكنه لا يزال يعاني أحيانًا من التعرف على السخرية وشخصيات الكلام. كان هذا صحيحًا بشكل أكبر في عام 2016. ما هو واضح للبشر ليس واضحًا للذكاء الاصطناعي ؛ بعبارة أخرى ، تفتقر إلى الحس السليم.
لا تفهم أنظمة الذكاء الاصطناعي مثل Tay سبب كون البشر على ما نحن عليه ، والتصرف بالطريقة التي نتصرف بها ، وغرابة الأطوار لدى كل فرد. قد تتصرف وتبدو إنسانية بدرجة مدهشة ، لكن البرمجة الجيدة يمكن أن تذهب إلى أبعد من ذلك.
5. يجب برمجة AI لرفض الطلبات غير الصالحة
الذكاء الاصطناعي سريع التأثر ويجب برمجته لرفض الطلبات التي تعزز الضرر. حتى اليوم ، بعد كل ما أحرزناه من تقدم في معالجة اللغة الطبيعية ، لا يزال الناس يجدون ثغرات لغوية جعل روبوتات الدردشة بالذكاء الاصطناعي مثل ChatGPT "هلوسة" وتقديم النتائج التي كان من المفترض أن تكون مقيدة.
النقطة المهمة هنا هي أن الذكاء الاصطناعي مطيع تمامًا ، وربما يكون هذا هو أعظم نقاط قوته وضعفه. كل شيء لا تريد أن يفعله روبوت المحادثة يجب أن تتم برمجته يدويًا فيه.
6. لا يجب ترك روبوتات المحادثة المدعومة بالذكاء الاصطناعي بدون إشراف
حتى يتمكن الذكاء الاصطناعي من تنظيم نفسه ، لا يمكن تركه بدون إشراف. يمكنك التفكير في الذكاء الاصطناعي اليوم مثل طفل معجزة ؛ إنها رائعة من بعض النواحي ، لكنها لا تزال طفلة مع ذلك. إذا تُركت دون رقابة ، سيستغل الناس نقاط ضعفها - وكان تاي خير مثال على ذلك.
الذكاء الاصطناعي هو أداة ، تمامًا مثل الإنترنت ، ولكن معدل وحجم الأشياء التي يمكن أن تأتي بنتائج عكسية مع الذكاء الاصطناعي أكبر بكثير مما شهدناه خلال الأيام الأولى للإنترنت.
يحتاج الذكاء الاصطناعي إلى رقابة وتنظيم مستمرين
إن Tay ليس برنامج الدردشة الوحيد الذي أصبح شاردًا - فقد كانت هناك العديد من الحالات الأخرى المشابهة له تمامًا. ولكن ما جعلها تبرز هو السرعة المطلقة التي تم بها - وحقيقة أنها صُنعت بواسطة عملاق تقني مثل Microsoft.
تُظهر أمثلة مثل هذه مدى الحرص الذي يجب أن نتحلى به عند تطوير أدوات الذكاء الاصطناعي ، خاصةً عندما يُقصد استخدامها من قبل الأشخاص العاديين.