سواء كانت بيانات سيئة أو مستخدمين سيئين ، فإن الذكاء الاصطناعي الذي تم إنشاؤه باستخدام التعلم الآلي يمكن أن ينتهي به الأمر إلى ارتكاب أخطاء جسيمة.

يعد التعلم الآلي طريقة رائعة لإنشاء ذكاء اصطناعي قوي ويتكيف مع بيانات التدريب الخاصة به. لكن في بعض الأحيان ، يمكن أن تتسبب هذه البيانات في حدوث مشكلات. في أحيان أخرى ، الطريقة التي يستخدم بها الناس أدوات الذكاء الاصطناعي هي المشكلة.

فيما يلي نظرة على بعض الحوادث البارزة حيث أدى التعلم الآلي إلى نتائج إشكالية.

1. نتائج البحث عن الصور في Google مؤسفة

لقد جعل بحث Google التنقل عبر الويب أسهل كثيرًا. تأخذ خوارزمية المحرك في الاعتبار مجموعة متنوعة من الأشياء عند إنتاج النتائج. لكن الخوارزمية تتعلم أيضًا من حركة مرور المستخدم ، مما قد يتسبب في مشاكل في جودة نتائج البحث.

لا يوجد مكان يتجلى فيه هذا الأمر أكثر من نتائج الصور. نظرًا لأن الصفحات التي تتلقى عددًا كبيرًا من الزيارات تزداد احتمالية عرض صورها ، فإن القصص التي تجذب أعدادًا كبيرة من المستخدمين ، بما في ذلك clickbait ، يمكن أن تحظى بالأولوية.

على سبيل المثال ، أثارت نتائج البحث عن الصور لـ "المخيمات العشوائية في جنوب إفريقيا" جدلاً عندما تم اكتشاف أنها تحتوي في الغالب على البيض من جنوب إفريقيا. هذا على الرغم من الإحصاءات التي تظهر أن الغالبية العظمى من أولئك الذين يعيشون في مساكن غير رسمية هم من السود في جنوب إفريقيا.

instagram viewer

تعني العوامل المستخدمة في خوارزمية Google أيضًا أنه يمكن لمستخدمي الإنترنت التلاعب بالنتائج. على سبيل المثال ، أثرت حملة قام بها المستخدمون على نتائج بحث الصور من Google لدرجة أن البحث عن مصطلح "أحمق" أظهر صورًا للرئيس الأمريكي السابق دونالد ترامب لفترة.

2. تحول Microsoft Bot Tay إلى نازي

تحظى روبوتات الدردشة التي تعمل بالذكاء الاصطناعي بشعبية كبيرة ، لا سيما تلك التي تدعمها نماذج لغات كبيرة مثل ChatGPT. ChatGPT به العديد من المشاكل، لكن منشئيها تعلموا أيضًا من أخطاء الشركات الأخرى.

كانت إحدى أكثر الحوادث البارزة لروبوتات الدردشة التي انحرفت هي محاولة Microsoft إطلاق chatbot Tay.

قلدت تاي الأنماط اللغوية لفتاة مراهقة وتعلمت من خلال تفاعلها مع مستخدمي تويتر الآخرين. ومع ذلك ، فقد أصبحت واحدة من أكثر أخطاء الذكاء الاصطناعي شهرة عندما بدأت في مشاركة تصريحات النازية والافتراءات العنصرية. اتضح أن المتصيدون استخدموا التعلم الآلي للذكاء الاصطناعي ضدها ، مما أدى إلى إغراقها بالتفاعلات المحملة بالتعصب الأعمى.

لم يمض وقت طويل بعد ، قامت Microsoft بإيقاف تشغيل Tay إلى الأبد.

3. مشاكل التعرف على الوجه بالذكاء الاصطناعي

التعرف على الوجوه غالبًا ما يتصدر الذكاء الاصطناعي عناوين الأخبار لجميع الأسباب الخاطئة ، مثل القصص المتعلقة بالتعرف على الوجه ومخاوف الخصوصية. لكن هذا الذكاء الاصطناعي لديه تاريخ إشكالي عند محاولة التعرف على الأشخاص الملونين.

في عام 2015 ، اكتشف المستخدمون أن صور Google كانت تصنف بعض السود على أنهم غوريلا. في عام 2018 ، أظهر بحث أجراه اتحاد الحريات المدنية الأمريكي أن برنامج Rekognition للتعرف على الوجوه من Amazon قد حدد 28 أعضاء الكونجرس الأمريكي كمشتبه بهم من الشرطة ، مع الإيجابيات الكاذبة التي تؤثر بشكل غير متناسب على الناس لون.

حادثة أخرى تضمنت برنامج Face ID الخاص بشركة Apple والذي حدد بشكل غير صحيح امرأتين صينيتين مختلفتين على أنهما نفس الشخص. نتيجة لذلك ، يمكن لزميل مالك iPhone X فتح الهاتف.

في مثال على العواقب الشديدة ، أدى التعرف على الوجه إلى اعتقالات خاطئة للعديد من الأشخاص. سلكي ذكرت في ثلاث حالات من هذا القبيل.

وفي الوقت نفسه ، تذكرت عالمة الكمبيوتر جوي بولامويني حاجتها في كثير من الأحيان إلى ارتداء قناع أبيض أثناء العمل على تقنية التعرف على الوجه من أجل جعل البرنامج يتعرف عليها. لحل مشكلات مثل هذه ، يلفت Buolamwini وغيره من متخصصي تكنولوجيا المعلومات الانتباه إلى مسألة انحياز الذكاء الاصطناعي والحاجة إلى مجموعات بيانات أكثر شمولاً.

4. Deepfakes المستخدمة في الخدع

بينما استخدم الأشخاص برنامج Photoshop منذ فترة طويلة لإنشاء صور خادعة ، فإن التعلم الآلي يأخذ هذا إلى مستوى جديد. يستخدم Deepfakes التعلم العميق AI لإنشاء صور ومقاطع فيديو مزيفة. يسمح لك برنامج مثل FaceApp بتبديل الموضوعات من مقطع فيديو إلى آخر.

لكن العديد من الأشخاص يستغلون البرنامج في مجموعة متنوعة من الاستخدامات الضارة ، بما في ذلك وضع وجوه المشاهير في مقاطع فيديو للبالغين أو إنشاء مقاطع فيديو خادعة. وفي الوقت نفسه ، ساعد مستخدمو الإنترنت في تحسين التكنولوجيا لجعل التمييز بين مقاطع الفيديو الحقيقية والمزيفة أمرًا صعبًا بشكل متزايد. ونتيجة لذلك ، فإن هذا يجعل هذا النوع من الذكاء الاصطناعي قويًا للغاية من حيث نشر الأخبار المزيفة والخداع.

لإظهار قوة التكنولوجيا ، أنشأ المخرج جوردان بيل والرئيس التنفيذي لشركة BuzzFeed جوناه بيريتي فيديو deepfake يظهر ما يبدو أنه الرئيس الأمريكي السابق باراك أوباما وهو يقدم إعلان الخدمة العامة (PSA) بقوة التزييف العميق.

تم تسريع قوة الصور المزيفة بواسطة مولدات الصور التي تعمل بالذكاء الاصطناعي. تبين أن المنشورات الفيروسية في عام 2023 التي تصور اعتقال دونالد ترامب والبابا الكاثوليكي مرتديًا سترة منفوخة كانت نتيجة للذكاء الاصطناعي التوليدي.

هناك نصائح يمكنك اتباعها لاكتشاف الصورة التي تم إنشاؤها بواسطة الذكاء الاصطناعي، لكن التكنولوجيا أصبحت متطورة بشكل متزايد.

5. يقول الموظفون إن شركة Amazon AI قررت توظيف الرجال بشكل أفضل

في أكتوبر 2018 ، رويترز ذكرت أن أمازون اضطرت إلى إلغاء أداة التوظيف بعد أن قررت منظمة العفو الدولية للبرنامج أن المرشحين الذكور هم الأفضلية.

تقدم الموظفون الذين رغبوا في عدم الكشف عن هويتهم لإخبار رويترز عن عملهم في المشروع. أراد المطورون أن يحدد الذكاء الاصطناعي أفضل المرشحين لوظيفة بناءً على سيرهم الذاتية. ومع ذلك ، سرعان ما لاحظ الأشخاص المشاركون في المشروع أن منظمة العفو الدولية تعاقب المرشحات. وأوضحوا أن الذكاء الاصطناعي استخدم السير الذاتية من العقد الماضي ، ومعظمها من الرجال ، كمجموعة بيانات تدريبية.

ونتيجة لذلك ، بدأت منظمة العفو الدولية في تصفية السير الذاتية بناءً على الكلمة الرئيسية "نساء". ظهرت الكلمة الرئيسية في السيرة الذاتية تحت أنشطة مثل "كابتن نادي الشطرنج للسيدات". بينما قام المطورون بتغيير الذكاء الاصطناعي لمنع معاقبة السير الذاتية للنساء ، ألغت أمازون المشروع في النهاية.

6. روبوتات المحادثة جيلبروكن

بينما توجد قيود على برامج الدردشة الأحدث لمنعها من تقديم إجابات تتعارض مع شروط الخدمة الخاصة بهم ، يبحث المستخدمون عن طرق لكسر حماية الأدوات لتوفير محتوى محظور.

في عام 2023 ، تمكن الباحث الأمني ​​في Forcepoint Aaron Mulgrew من إنشاء برمجيات ضارة في اليوم صفر باستخدام مطالبات ChatGPT.

قال مولجرو في فورس بوينت.

وبحسب ما ورد تمكن المستخدمون من الحصول على روبوتات محادثة لإعطائهم تعليمات حول كيفية صنع القنابل أو سرقة السيارات.

7. حوادث اصطدام سيارة ذاتية القيادة

تضاءل الحماس للمركبات ذاتية القيادة من مرحلة الضجيج الأولية بسبب الأخطاء التي ارتكبها الذكاء الاصطناعي ذاتية القيادة. في عام 2022 ، واشنطن بوست ذكرت أنه في غضون عام تقريبًا ، تم الإبلاغ عن 392 حادثًا تتضمن أنظمة مساعدة السائق المتقدمة إلى الإدارة الوطنية الأمريكية لسلامة المرور على الطرق السريعة.

وشملت هذه الحوادث إصابات خطيرة وستة قتلى.

على الرغم من أن هذا لم يمنع شركات مثل Tesla من متابعة المركبات ذاتية القيادة تمامًا ، إلا أنه فعل ذلك أثار مخاوف بشأن زيادة الحوادث مع دخول المزيد من السيارات التي تحتوي على برامج ذاتية القيادة إلى الطرق.

تعلم الآلة الذكاء الاصطناعي ليس مضمونًا

بينما يمكن للتعلم الآلي إنشاء أدوات ذكاء اصطناعي قوية ، إلا أنها ليست محصنة ضد البيانات السيئة أو العبث البشري. سواء كان ذلك بسبب بيانات التدريب المعيبة ، أو القيود المفروضة على تقنية الذكاء الاصطناعي ، أو الاستخدام من قبل الجهات الفاعلة السيئة ، فقد أدى هذا النوع من الذكاء الاصطناعي إلى العديد من الحوادث السلبية.