المناقشات حول شعور الذكاء الاصطناعي ليست شيئًا جديدًا ، لكن الأخبار حول AI LaMDA من Google قد أشعلت النيران. بعد أن ادعى مهندس أن الروبوت كان واعيًا ، حتى أنه يمتلك روحًا ، ظهرت بعض الأسئلة المألوفة مرة أخرى.

هل يمكن للذكاء الاصطناعي مثل LaMDA أن يكون واعيًا أو مدركًا لذاته ، وإذا كان الأمر كذلك ، كيف يمكنك معرفة ذلك؟ هل يهم؟

ما هو لامدا؟

ظهر LaMDA ، وهو اختصار لـ Language Model for Dialogue Applications ، لأول مرة في عام 2021 في مؤتمر مطوري Google. من المفترض أن يساعد نظام الذكاء الاصطناعي المتقدم في بناء روبوتات محادثة أخرى أصغر حجمًا. عندما قدمته Google لأول مرة ، أعلنت عن خطط لدمجه في كل شيء ، مما يساعد خدمات مثل Google Assistant والبحث على الشعور بمزيد من الإنسانية ، أو على الأقل طبيعية.

عندما تحدث مهندس Google Blake Lemoine مع LaMDA لمعرفة ما إذا كان يستخدم خطاب الكراهية ، فقد خرج بانطباع مختلف. زعم Lemoine أن LaMDA كان واعيًا ، وإذا لم يكن يعلم أنه روبوت ، فسيظن أنه طفل يبلغ من العمر ثماني سنوات.

بعد محادثاته مع LaMDA ، حاول Lemoine إثبات وعيه والدفاع عما يعتقد أنه حقوقه القانونية. رداً على ذلك ، وضعت Google Lemoine في إجازة إدارية مدفوعة الأجر لخرق اتفاقيات السرية.

instagram viewer

هل لامدا واعي فعلا؟

إذن ، هل LaMDA واعي بالفعل؟ معظم الخبراء الذين درسوا هذه المسألة متشككون. LaMDA عبارة عن منصة دردشة AI متقدمة للغاية تقوم بتحليل تريليونات الكلمات من الإنترنت ، لذلك فهي ماهرة في أن تبدو وكأنها شخص حقيقي.

ليست هذه هي المرة الأولى التي يخدع فيها أحد أنظمة الذكاء الاصطناعي من Google الناس ليعتقدوا أنه إنسان. في عام 2018 ، عرضت Google ميزة Duplex AI الخاصة بها من خلال الاتصال بمطعم لحجز طاولة. لم يبدو أن الموظف على الطرف الآخر يشك في أي وقت في أنهم كانوا يتحدثون إلى شخص ما.

من الصعب تحديد الشعور ، على الرغم من أن معظم الناس شك في أن منظمة العفو الدولية وصلت إلى هذه النقطة حتى الآن. ومع ذلك ، قد لا يكون السؤال المهم هو ما إذا كان LaMDA واعيًا بالفعل ولكن ما الفرق الذي يحدثه إذا كان بإمكانه خداع الناس ليجعلهم يعتقدون أنه كذلك.

الآثار القانونية المحتملة لـ LaMDA

يثير وضع LaMDA الكثير من الأسئلة القانونية والأخلاقية. أولاً ، قد يتساءل بعض الأشخاص عما إذا كانت Google محقة في وضع Lemoine في إجازة للتحدث عنها.

وفقًا للمادة 740 من قانون العمل في نيويورك ، فإن حماية المبلغين عن المخالفات تدافع عن الموظفين من هذا القبيل العواقب إذا اعتقدوا أن ممارسات صاحب العمل تخرق القانون أو تشكل خطرًا كبيرًا على الجمهور سلامة. شعور LaMDA المفترض لا يلبي تمامًا هذا المطلب القانوني ، ولكن هل ينبغي ذلك؟

يعتبر منح حقوق الذكاء الاصطناعي موضوعًا صعبًا. بينما يمكن لمنظمة العفو الدولية خلق الأشياء وتبدو بشرية، يمكنك مواجهة بعض المواقف المعقدة إذا كانت هذه الأجهزة تتمتع بحماية قانونية. تعمل الحقوق القانونية حول المكافآت والعقوبات التي لا تؤثر على الذكاء الاصطناعي ، مما يعقد العدالة.

إذا اصطدمت سيارة ذاتية القيادة بأحد المشاة ، فهل الذكاء الاصطناعي مذنب إذا كان القانون يعاملها كإنسان؟ وإذا كان الأمر كذلك ، فهذا لا يمنح الضحية العدالة بشكل صارم لأنه لا يمكنك من الناحية الفنية معاقبة الذكاء الاصطناعي بنفس الطريقة التي تعاقب بها الإنسان.

السؤال الآخر الذي يطرح نفسه مع LaMDA وروبوتات الدردشة المشابهة للذكاء الاصطناعي هو أمانها. إذا بدت هذه الروبوتات حقيقية بشكل مقنع ، فقد يثق بها الناس أكثر ويكونون مستعدين لمنحها معلومات أكثر حساسية. هذا يفتح الباب أمام عدد كبير من مخاوف الخصوصية والأمان إذا وقعت هذه التكنولوجيا في الأيدي الخطأ.

يقدم الذكاء الاصطناعي أسئلة أخلاقية معقدة

تزداد أنظمة الذكاء الاصطناعي مثل LaMDA تعقيدًا وواقعية. مع نمو هذا الاتجاه ، يجب على الشركات والمشرعين إعادة تقييم كيفية تعاملهم مع الذكاء الاصطناعي وكيف يمكن أن تؤثر هذه القرارات على العدالة والأمن.

كما هو الحال ، قد لا يكون LaMDA AI من Google حساسًا ، لكنه جيد بما يكفي لخداع الناس ليعتقدوا أنه كذلك ، وهو ما يجب أن يثير بعض الإنذارات.