يمكن أن يبدو الذكاء الاصطناعي مثل الرئيس. أو يمكن أن يبدو مثلك أو مثلي. إذن ما هي مخاطر الأمن السيبراني التي يشكلها برنامج استنساخ الصوت بالذكاء الاصطناعي؟

الذكاء الاصطناعي (AI) هو تقنية فعالة تعد بتحويل حياتنا. لم يكن هذا واضحًا كما هو الحال اليوم ، عندما تتوفر أدوات قوية لأي شخص متصل بالإنترنت.

يتضمن ذلك مولدات الصوت بالذكاء الاصطناعي ، وهي برامج متقدمة قادرة على محاكاة كلام الإنسان بكفاءة بحيث يكون من المستحيل التمييز بين الاثنين. ماذا يعني هذا للأمن السيبراني؟

كيف تعمل مولدات الصوت بالذكاء الاصطناعي؟

كان تركيب الكلام ، عملية إنتاج الكلام البشري بشكل مصطنع ، موجودًا منذ عقود. ومثل كل التقنيات ، فقد مرت بتغيرات عميقة على مر السنين.

أولئك الذين استخدموا Windows 2000 و XP قد يتذكرون Microsoft Sam ، الصوت الافتراضي لتحويل النص إلى كلام لنظام التشغيل. أنجزت Microsoft Sam المهمة ، لكن الأصوات التي أنتجتها كانت آلية وقاسية وغير طبيعية. الأدوات التي لدينا تحت تصرفنا اليوم أكثر تقدمًا إلى حد كبير ، ويرجع الفضل في ذلك إلى حد كبير إلى التعلم العميق.

التعلم العميق هو أ طريقة التعلم الآلي التي تقوم على الشبكات العصبية الاصطناعية. بسبب هذه الشبكات العصبية ، فإن الذكاء الاصطناعي الحديث قادر على معالجة البيانات تقريبًا مثل الخلايا العصبية في دماغ الإنسان التي تفسر المعلومات. وهذا يعني أنه كلما أصبح الذكاء الاصطناعي أكثر شبهاً بالإنسان ، كان من الأفضل محاكاة السلوك البشري.

instagram viewer

هذا ، باختصار ، هو كيفية عمل مولدات الصوت الحديثة التي تعمل بالذكاء الاصطناعي. كلما زادت بيانات الكلام التي يتعرضون لها ، زادت مهارتهم في محاكاة الكلام البشري. نظرًا للتطورات الحديثة نسبيًا في هذه التقنية ، يمكن لبرنامج تحويل النص إلى كلام الحديث أن يكرر بشكل أساسي الأصوات التي يتم تغذيتها.

كيف يستخدم ممثلو التهديد مولدات الصوت بالذكاء الاصطناعي

ليس من المستغرب أن يتم إساءة استخدام هذه التكنولوجيا من قبل جهات التهديد. وليس فقط مجرمو الإنترنت بالمعنى المعتاد للكلمة ، ولكن أيضًا من خلال وكلاء المعلومات المضللة والمحتالين ومسوقي القبعة السوداء والمتصيدون.

في اللحظة التي أصدرت فيها شركة ElevenLabs نسخة تجريبية من برنامج تحويل النص إلى كلام في يناير 2023 ، بدأ المتصيدون اليمينيون المتطرفون على لوحة الرسائل 4chan في إساءة استخدامه. باستخدام الذكاء الاصطناعي المتقدم ، أعادوا إنتاج أصوات أفراد مثل David Attenborough و Emma Watson ، مما جعل الأمر يبدو كما لو أن المشاهير كانوا يتقدمون بخطب خسيسة وبغيضة.

مثل نائب في ذلك الوقت ، أقرت ElevenLabs بأن الناس يسيئون استخدام برامجه ، ولا سيما استنساخ الصوت. تتيح هذه الميزة لأي شخص "استنساخ" صوت شخص آخر ؛ كل ما عليك فعله هو تحميل تسجيل مدته دقيقة واحدة ، والسماح للذكاء الاصطناعي بالباقي. من المفترض أنه كلما كان التسجيل أطول ، كان الإخراج أفضل.

في مارس 2023 ، جذب فيديو TikTok الفيروسي انتباه اوقات نيويورك. في الفيديو ، سُمع مطرب البودكاست الشهير جو روغان والدكتور أندرو هوبرمان ، وهو ضيف متكرر على The Joe Rogan Experience ، وهما يناقشان مشروب كافيين "يعزز الرغبة الجنسية". جعل الفيديو الأمر يبدو كما لو كان كل من روغان وهوبرمان يؤيدان المنتج بشكل لا لبس فيه. في الواقع ، تم استنساخ أصواتهم باستخدام الذكاء الاصطناعي.

في نفس الوقت تقريبًا ، انهار بنك وادي السيليكون ومقره سانتا كلارا بكاليفورنيا بسبب أخطاء إدارة المخاطر وقضايا أخرى ، واستولت عليه حكومة الولاية. كان هذا أكبر فشل مصرفي في الولايات المتحدة منذ الأزمة المالية لعام 2008 ، لذلك أرسل موجات من الصدمة عبر الأسواق العالمية.

ما ساهم في الذعر هو تسجيل صوتي مزيف للرئيس الأمريكي جو بايدن. في التسجيل ، سُمع بايدن على ما يبدو وهو يحذر من "انهيار" وشيك ، ويوجه إدارته إلى "استخدام القوة الكاملة لوسائل الإعلام لتهدئة الجمهور". مدققي الحقائق مثل PolitiFact سارعوا إلى فضح زيف المقطع ، لكن من المحتمل أن الملايين قد سمعوا به في تلك المرحلة.

إذا كان من الممكن استخدام مولدات الصوت بالذكاء الاصطناعي لانتحال شخصيات المشاهير ، فيمكن استخدامها أيضًا لانتحال شخصية الأشخاص العاديين ، وهذا بالضبط ما يفعله مجرمو الإنترنت. وفق ZDNet، يقع الآلاف من الأمريكيين في عمليات الاحتيال المعروفة باسم التصيد أو التصيد الصوتي كل عام. احتل زوجان مسنان عناوين الصحف الوطنية في عام 2023 عندما تلقيا مكالمة هاتفية من "حفيدهما" ، الذي ادعى أنه في السجن وطلب المال.

إذا سبق لك تحميل مقطع فيديو على YouTube (أو ظهرت في مقطع فيديو واحد) ، فقد شاركت في مكالمة جماعية كبيرة مع أشخاص لا تقوم بذلك تعرف أو حملت صوتك على الإنترنت بشكل ما ، فقد تكون أنت أو أحبائك في خطر نظريًا. ما الذي يمنع المحتال من تحميل صوتك إلى منشئ الذكاء الاصطناعي واستنساخه والاتصال بأسرتك؟

تعمل مولدات الصوت بالذكاء الاصطناعي على تعطيل مشهد الأمن السيبراني

لا يتطلب الأمر خبيرًا في الأمن السيبراني ليدرك مدى خطورة وقوع الذكاء الاصطناعي في الأيدي الخطأ. وفي حين أنه من الصحيح أنه يمكن قول الشيء نفسه بالنسبة لجميع التقنيات ، فإن الذكاء الاصطناعي يمثل تهديدًا فريدًا لعدة أسباب.

أولاً ، إنه جديد نسبيًا ، مما يعني أننا لا نعرف حقًا ما يمكن توقعه منه. تسمح أدوات الذكاء الاصطناعي الحديثة لمجرمي الإنترنت بتوسيع وأتمتة عملياتهم بطريقة غير مسبوقة ، مع الاستفادة من الجهل النسبي للجمهور فيما يتعلق بهذا الأمر. أيضًا ، يمكّن الذكاء الاصطناعي التوليدي الجهات الفاعلة في التهديد مع القليل من المعرفة والمهارة إنشاء تعليمات برمجية ضارة، إنشاء مواقع احتيال ، نشر البريد العشوائي ، كتابة رسائل بريد إلكتروني للتصيد الاحتيالي ، توليد صور واقعية، وتنتج ساعات طويلة من محتوى الصوت والفيديو الزائف.

بشكل حاسم ، يعمل هذا في كلا الاتجاهين: يستخدم الذكاء الاصطناعي أيضًا لحماية الأنظمة ، ومن المحتمل أن يستمر لعقود قادمة. لن يكون من غير المعقول افتراض أن ما ينتظرنا هو نوع من سباق تسلح الذكاء الاصطناعي بين مجرمي الإنترنت وصناعة الأمن السيبراني ، حيث أن القدرات الدفاعية والهجومية لهذه الأدوات هي بطبيعتها متساوي.

بالنسبة للشخص العادي ، فإن ظهور الذكاء الاصطناعي التوليدي على نطاق واسع يدعو إلى التطرف إعادة التفكير في الممارسات الأمنية. بقدر ما قد يكون الذكاء الاصطناعي مثيرًا ومفيدًا ، إلا أنه يمكن على الأقل أن يطمس الخط الفاصل بين ما هو حقيقي وما هو حقيقي لا ، بل يؤدي في أسوأ الأحوال إلى تفاقم المشكلات الأمنية الحالية وخلق مساحة جديدة للجهات الفاعلة في التهديد للمناورة في.

تُظهر مولدات الصوت الإمكانات المدمرة للذكاء الاصطناعي

بمجرد وصول ChatGPT إلى السوق ، تصاعدت المحادثات حول تنظيم الذكاء الاصطناعي. من المحتمل أن تتطلب أي محاولة لتقييد هذه التكنولوجيا تعاونًا دوليًا إلى درجة لم نشهدها منذ عقود ، مما يجعل ذلك غير مرجح.

خرج الجني من الزجاجة ، وأفضل ما يمكننا فعله هو التعود عليه. هذا ، ونأمل أن يتكيف قطاع الأمن السيبراني وفقًا لذلك.