تعمل أحدث الابتكارات حول التكنولوجيا القائمة على الذكاء الاصطناعي على دفع حدود ما كنا نعتقد أنه ممكن مع الذكاء الاصطناعي. ومع ذلك ، نظرًا لأن روبوتات الدردشة مثل ChatGPT و Bing Chat أصبحت جيدة تقريبًا مثل البشر في العديد من الأشياء ، فهل حان الوقت للضغط على الفرامل لفترة من الوقت؟
إيلون ماسك والعديد من باحثي الذكاء الاصطناعي هم من بين 1188 شخصًا (وقت كتابة هذا التقرير) يعتقدون ذلك. تدعو رسالة نشرها معهد Future of Life غير الربحي إلى وقفة مدتها ستة أشهر لتدريب تقنيات الذكاء الاصطناعي بشكل أفضل من GPT 4 ، ولكن هل التوقف المؤقت مطلوب حقًا؟
ما هو مستقبل الحياة المفتوحة كل شيء عن الرسالة؟
ال رسالة نشرها معهد مستقبل الحياة يشير إلى أن مختبرات الذكاء الاصطناعي كانت "محاصرة في سباق خارج نطاق السيطرة" لتطوير ونشر المزيد و نماذج ذكاء اصطناعي أكثر قوة لا يمكن لأي شخص ، بما في ذلك منشئوها ، "فهمها أو توقعها أو الاعتماد عليها يتحكم".
كما يشير إلى أن أنظمة الذكاء الاصطناعي المعاصرة أصبحت الآن قادرة على المنافسة البشرية في المهام العامة ويسأل ما إذا كان ينبغي علينا تطوير "عقول غير بشرية قد يفوق عددها في النهاية ، وتتفوق على الذكاء ، وتتقادم ، وتحل محلها نحن".
تدعو الرسالة في النهاية جميع مختبرات الذكاء الاصطناعي إلى الإيقاف الفوري لتدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4 لمدة ستة أشهر على الأقل. يجب أن يكون التوقف علنيًا ويمكن التحقق منه عبر جميع الجهات الفاعلة الرئيسية أيضًا. كما ينص على أنه إذا لم يكن بالإمكان تنفيذ مثل هذا التوقف بسرعة ، فيجب على الحكومات التدخل لحظر التدريب النموذجي للذكاء الاصطناعي مؤقتًا.
بمجرد تنشيط التوقف المؤقت ، يُطلب من مختبرات الذكاء الاصطناعي والخبراء المستقلين استخدامه لتطوير وتنفيذ ملف "مجموعة مشتركة من بروتوكولات الأمان" لضمان أن الأنظمة الملتزمة بهذه القواعد "آمنة بما يتجاوز المعقول شك".
تم توقيع هذه الرسالة من قبل عدد غير قليل من الشخصيات المسماة ، بما في ذلك Elon Musk و Steve Wozniak والباحثين والمؤلفين في منظمة العفو الدولية. في الواقع ، تم إيقاف قائمة الموقعين مؤقتًا حاليًا بسبب ارتفاع الطلب.
ما هي مخاوف Musk مع تكنولوجيا الذكاء الاصطناعي المتقدمة و OpenAI؟
في حين أن توقيع خطاب Future of Life قد يشير إلى أن Musk قلق بشأن مخاطر السلامة التي تشكلها أنظمة الذكاء الاصطناعي المتقدمة ، فقد يكون السبب الحقيقي هو شيء آخر.
شارك ماسك في تأسيس شركة OpenAI مع الرئيس التنفيذي الحالي سام التمان في عام 2015 كمؤسسة غير ربحية. ومع ذلك ، فقد واجه مع Altman في وقت لاحق من عام 2018 بعد أن أدرك أنه لم يكن سعيدًا بتقدم الشركة. وبحسب ما ورد أراد ماسك تولي المسؤولية لتسريع التطوير ، لكن ألتمان ومجلس أوبن إيه آي أسقطوا الفكرة.
ابتعد ماسك عن شركة OpenAI بعد فترة وجيزة وأخذ أمواله معه حطمًا وعده بالمساهمة بمليار في التمويل وتقديم 100 مليون فقط قبل المغادرة. أجبر ذلك شركة OpenAI على أن تصبح شركة خاصة بعد فترة وجيزة في مارس 2019 لجمع التمويل لمواصلة أبحاثها.
سبب آخر لمغادرة ماسك هو أن تطوير الذكاء الاصطناعي في تسلا من شأنه أن يتسبب في تضارب في المصالح في المستقبل. من الواضح أن تسلا تحتاج إلى أنظمة ذكاء اصطناعي متقدمة لتشغيلها ميزات القيادة الذاتية الكاملة. منذ أن غادر Musk شركة OpenAI ، هربت الشركة مع إطلاق نماذج الذكاء الاصطناعي الخاصة بها ChatGPT مدعوم من GPT3.5 في عام 2022 والمتابعة لاحقًا باستخدام GPT-4 في مارس 2023.
حقيقة أن فريق Musk للذكاء الاصطناعي ليس قريبًا من OpenAI يجب أن يتم حسابه في كل مرة يقول فيها أن نماذج الذكاء الاصطناعي الحديثة يمكن أن تشكل مخاطر. هو أيضا ليس لديه مشاكل طرح الإصدار التجريبي من تسلا للقيادة الذاتية الكاملة على الطرق العامة، بتحويل سائقي Tesla العاديين إلى أجهزة اختبار بيتا.
هذا لا ينتهي هنا أيضًا. كان ماسك أيضًا ينتقد OpenAI على Twitter ، حيث ذهب Altman إلى حد القول إنه يهاجمهم أثناء ظهوره في بودكاست "On with Kara Swisher" مؤخرًا.
في الوقت الحالي ، يبدو أن ماسك يستخدم فقط رسالة Future of Life لإيقاف التطوير في OpenAI وأي شركة أخرى تلحق بالركب إلى GPT-4 لمنح شركاته فرصة للحاق بالركب بدلاً من القلق فعليًا بشأن المخاطر المحتملة لنماذج الذكاء الاصطناعي هذه أَثَار. لاحظ أن الرسالة تطلب أيضًا إيقاف "تدريب" أنظمة الذكاء الاصطناعي مؤقتًا لمدة ستة أشهر ، والتي يمكن تجنبها بسهولة نسبيًا لمواصلة تطويرها في هذه الأثناء.
هل هناك حاجة إلى وقفة؟
تعتمد ضرورة التوقف المؤقت على حالة نماذج الذكاء الاصطناعي في المستقبل. الخطاب بالتأكيد درامي بعض الشيء في لهجة ، ونحن لا نجازف بفقدان السيطرة على حضارتنا للذكاء الاصطناعي ، كما تنص صراحة. هكذا قال، تشكل تقنيات الذكاء الاصطناعي بعض التهديدات.
بالنظر إلى أن OpenAI ومختبرات الذكاء الاصطناعي الأخرى يمكنها إجراء فحوصات سلامة أفضل في مكانها الصحيح ، فإن التوقف المؤقت من شأنه أن يضر أكثر مما ينفع. ومع ذلك ، فإن اقتراح الرسالة لمجموعة من بروتوكولات السلامة المشتركة التي "يتم تدقيقها بدقة والإشراف عليها من قبل خبراء خارجيين مستقلين" يبدو فكرة جيدة.
مع ضخ عمالقة التكنولوجيا مثل Google و Microsoft المليارات في تطوير الذكاء الاصطناعي والتكامل في منتجاتهم ، فمن غير المرجح أن تؤثر الرسالة على الوتيرة الحالية لتطوير الذكاء الاصطناعي.
الذكاء الاصطناعي موجود لتبقى
مع قيام عمالقة التكنولوجيا بدفع تكامل الذكاء الاصطناعي في منتجاتهم بشكل أكبر ووضع مليارات الدولارات في البحث والتطوير ، فإن الذكاء الاصطناعي موجود ليبقى ، بغض النظر عما تقوله المعارضة.
لكنها ليست فكرة سيئة تنفيذ تدابير السلامة لمنع هذه التقنيات من الخروج عن المسار وربما تحولها إلى أدوات للضرر.