يعتقد الجميع أن بإمكانهم اكتشاف مقاطع الفيديو المزيفة، ولكن التحسن السريع في التكنولوجيا، بما في ذلك أدوات الذكاء الاصطناعي، يجعل اكتشاف مقاطع الفيديو المزيفة أكثر صعوبة من أي وقت مضى.
الماخذ الرئيسية
- تشكل تقنية Deepfakes تهديدات كبيرة للمجتمع، بما في ذلك نشر المعلومات المضللة، والإضرار بالسمعة من خلال انتحال الشخصية، والتحريض على الصراع من أجل الأمن القومي.
- على الرغم من أن تكنولوجيا الذكاء الاصطناعي توفر أدوات للكشف عن التزييف العميق، إلا أنها ليست مثالية، ويظل التقدير البشري حاسمًا في تحديد التزييف العميق.
- يتمتع البشر وأدوات الكشف عن الذكاء الاصطناعي بنقاط قوة ونقاط ضعف مختلفة في تحديد التزييف العميق، و ومن الممكن أن يؤدي الجمع بين قدراتهم إلى تحسين معدلات النجاح في اكتشاف مخاطر التزييف العميق والتخفيف منها تكنولوجيا.
تهدد تقنية التزييف العميق كل جوانب المجتمع. إن قدرتنا على تحديد المحتوى المزيف أمر بالغ الأهمية لإبطال المعلومات المضللة، ولكن مع تحسن تكنولوجيا الذكاء الاصطناعي، فمن الذي يمكننا الوثوق به لاكتشاف التزييف العميق: الإنسان أم الآلة؟
مخاطر التزييف العميق
ومع تقدم تكنولوجيا الذكاء الاصطناعي،
مخاطر التزييف العميق تشكل تهديدا متزايدا لنا جميعا. فيما يلي ملخص سريع لبعض المشكلات الأكثر إلحاحًا التي تطرحها تقنية التزييف العميق:- التضليل: يمكن أن تنشر مقاطع الفيديو والتسجيلات الصوتية المزيفة بعمق معلومات مضللة، مثل الأخبار المزيفة.
- التمثيل: من خلال انتحال شخصية الأفراد، يمكن أن تؤدي تقنية التزييف العميق إلى الإضرار بسمعة الأشخاص أو خداع أي شخص يعرفونه.
- الأمن القومي: إن سيناريو يوم القيامة الواضح مع التزييف العميق عبارة عن لقطات ملفقة أو صوت لزعيم عالمي يحرض على الصراع.
- اضطراب مدني: ويمكن أيضًا أن تستخدم الأطراف لقطات ومقاطع صوتية خادعة لإثارة الغضب والاضطرابات المدنية بين مجموعات محددة.
- الأمن الإلكتروني: يستخدم مجرمو الإنترنت بالفعل أدوات استنساخ الصوت بالذكاء الاصطناعي لاستهداف الأفراد برسائل مقنعة من أشخاص يعرفونهم.
- الخصوصية والموافقة: الاستخدام الضار للتزييف العميق يأخذ أشكال الأفراد دون موافقتهم.
- الثقة: إذا لم تتمكن من التمييز بين الحقيقة والخداع، تصبح المعلومات الدقيقة غير جديرة بالثقة بنفس القدر.
ستصبح تقنية التزييف العميق أكثر إقناعًا، لذلك نحن بحاجة إلى أدوات وعمليات قوية لاكتشافها. يوفر الذكاء الاصطناعي إحدى هذه الأدوات في شكل نماذج للكشف عن التزييف العميق. ومع ذلك، مثل خوارزميات مصممة للتعرف على الكتابة الناتجة عن الذكاء الاصطناعيأدوات الكشف عن التزييف العميق ليست مثالية.
في هذا الوقت، التقدير البشري هو الأداة الأخرى الوحيدة التي يمكننا الاعتماد عليها. إذًا، هل نحن أفضل من الخوارزميات في تحديد التزييف العميق؟
هل تستطيع الخوارزميات اكتشاف التزييف العميق بشكل أفضل من البشر؟
تشكل تقنية Deepfakes تهديدًا خطيرًا بدرجة كافية لدرجة أن عمالقة التكنولوجيا ومجموعات البحث يخصصون موارد هائلة للبحث والتطوير. في عام 2019، عرضت شركات مثل Meta وMicrosoft وAmazon جوائز بقيمة مليون دولار خلال تحدي كشف التزييف العميق لنموذج الكشف الأكثر دقة.
كان النموذج الأفضل أداءً دقيقًا بنسبة 82.56% مقابل مجموعة بيانات من مقاطع الفيديو المتاحة للجمهور. ومع ذلك، عندما تم اختبار النماذج نفسها مقابل "مجموعة بيانات الصندوق الأسود" المكونة من 10000 مقطع فيديو غير مرئي، كان النموذج الأفضل أداءً دقيقًا بنسبة 65.18٪ فقط.
لدينا أيضًا الكثير من الدراسات التي تحلل أداء أدوات الكشف عن التزييف العميق باستخدام الذكاء الاصطناعي ضد البشر. وبطبيعة الحال، تختلف النتائج من دراسة إلى أخرى، ولكن بشكل عام، البشر إما متساوون أو يتفوقون على معدل نجاح أدوات الكشف عن التزييف العميق.
إحدى الدراسات المنشورة عام 2021 بتاريخ بناس وجدت أن "المراقبين البشريين العاديين" حققوا معدل دقة أعلى قليلاً من أدوات الكشف عن التزييف العميق الرائدة. ومع ذلك، وجدت الدراسة أيضًا أن المشاركين البشريين ونماذج الذكاء الاصطناعي كانوا عرضة لأنواع مختلفة من الأخطاء.
ومن المثير للاهتمام أن الأبحاث التي أجراها جامعة سيدني لقد وجدت أن الدماغ البشري، دون وعي، أكثر فعالية في اكتشاف التزييف العميق من جهودنا الواعية.
اكتشاف القرائن المرئية في Deepfakes
إن علم الكشف عن التزييف العميق معقد، ويختلف التحليل المطلوب حسب طبيعة اللقطات. على سبيل المثال، مقطع الفيديو العميق سيئ السمعة للزعيم الكوري الشمالي كيم جونغ أون من عام 2020 هو في الأساس مقطع فيديو يتحدث. في هذه الحالة، قد تكون الطريقة الأكثر فعالية للكشف عن التزييف العميق هي تحليل الأصوات (حركات الفم) والصوتيات (الأصوات الصوتية) بحثًا عن التناقضات.
يمكن للخبراء البشريين والمشاهدين العاديين والخوارزميات إجراء هذا النوع من التحليل، حتى لو اختلفت النتائج. ال معهد ماساتشوستس للتكنولوجيا يحدد ثمانية أسئلة للمساعدة التعرف على مقاطع الفيديو المزيفة بعمق:
- انتبه للوجه. غالبًا ما تكون عمليات التلاعب بـ DeepFake المتطورة عبارة عن تحولات في الوجه.
- انتبه إلى الخدين والجبهة. هل يبدو الجلد ناعمًا جدًا أم متجعدًا جدًا؟ هل عمر الجلد يشبه عمر الشعر والعين؟ قد تكون DeepFakes غير متطابقة في بعض الأبعاد.
- انتبه إلى العيون والحواجب. هل تظهر الظلال في الأماكن التي تتوقعها؟ قد تفشل تقنية DeepFakes في تمثيل الفيزياء الطبيعية للمشهد بشكل كامل.
- انتبه إلى النظارات. هل هناك أي وهج؟ هل هناك الكثير من الوهج؟ هل تتغير زاوية الوهج عندما يتحرك الشخص؟ مرة أخرى، قد تفشل تقنية DeepFakes في تمثيل الفيزياء الطبيعية للإضاءة بشكل كامل.
- الاهتمام بشعر الوجه أو عدم وجوده. هل يبدو شعر الوجه هذا حقيقيًا؟ قد يضيف DeepFakes شاربًا أو سوالفًا أو لحية أو يزيلها. ومع ذلك، قد تفشل تقنية DeepFakes في إجراء تحولات شعر الوجه بشكل طبيعي تمامًا.
- انتبه لشامات الوجه. هل تبدو الشامة حقيقية؟
- انتبه إلى الوميض. هل يرمش الشخص بدرجة كافية أم أكثر من اللازم؟
- انتبه إلى حركات الشفاه. تعتمد بعض التزييفات العميقة على مزامنة الشفاه. هل تبدو حركات الشفاه طبيعية؟
يمكن لأحدث أدوات الكشف عن التزييف العميق باستخدام الذكاء الاصطناعي تحليل العوامل نفسها، مرة أخرى، بدرجات متفاوتة من النجاح. ويعمل علماء البيانات باستمرار على تطوير أساليب جديدة أيضًا، مثل اكتشاف تدفق الدم الطبيعي في وجوه المتحدثين على الشاشة. يمكن أن تؤدي الأساليب والتحسينات الجديدة على الأساليب الحالية إلى تفوق أدوات الكشف عن التزييف العميق بالذكاء الاصطناعي باستمرار على البشر في المستقبل.
الكشف عن القرائن الصوتية في Deepfakes
يعد اكتشاف الصوت المزيف تحديًا مختلفًا تمامًا. بدون الإشارات المرئية للفيديو وفرصة تحديد التناقضات السمعية والبصرية، يتم التزييف العميق يعتمد الكشف بشكل كبير على التحليل الصوتي (يمكن أن تساعد أيضًا طرق أخرى مثل التحقق من البيانات الوصفية في بعض الأحيان). حالات).
دراسة نشرتها جامعة كلية لندن في عام 2023، وجد أن البشر يمكنهم اكتشاف الكلام المزيف بنسبة 73% من الوقت (باللغتين الإنجليزية والماندرين). كما هو الحال مع مقاطع الفيديو المزيفة، غالبًا ما يكتشف المستمعون البشريون بشكل حدسي أنماط الكلام غير الطبيعية في الكلام الناتج عن الذكاء الاصطناعي، حتى لو لم يتمكنوا من تحديد ما يبدو غير طبيعي.
تشمل العلامات الشائعة ما يلي:
- الادغام
- قلة التعبير
- ضوضاء الخلفية أو التداخل
- - عدم تناسق الصوت أو الكلام
- عدم وجود "الامتلاء" في الأصوات
- تسليم مكتوب بشكل مفرط
- عدم وجود عيوب (بدايات خاطئة، تصحيحات، تنظيف الحلق، وما إلى ذلك)
مرة أخرى، يمكن للخوارزميات أيضًا تحليل الكلام بحثًا عن نفس إشارات التزييف العميق، لكن الأساليب الجديدة تجعل الأدوات أكثر فعالية. البحث بواسطة يوسينكس تم تحديد أنماط في إعادة بناء المسالك الصوتية باستخدام الذكاء الاصطناعي والتي تفشل في محاكاة الكلام الطبيعي. ويلخص ذلك أن مولدات الصوت التي تعمل بتقنية الذكاء الاصطناعي تنتج صوتًا مطابقًا للمسالك الصوتية الضيقة (بحجم قشة الشرب تقريبًا) دون الحركات الطبيعية للكلام البشري.
الأبحاث السابقة من معهد هورست جورتز وقام الباحثون بتحليل الصوت الحقيقي والمزيف العميق باللغتين الإنجليزية واليابانية، وكشفوا عن اختلافات دقيقة في الترددات الأعلى للكلام الحقيقي والمزيف العميق.
يمكن إدراك كل من تناقضات المسالك الصوتية والترددات العالية للمستمعين البشريين ونماذج اكتشاف الذكاء الاصطناعي. في حالة الاختلافات عالية التردد، يمكن لنماذج الذكاء الاصطناعي، من الناحية النظرية، أن تصبح دقيقة بشكل متزايد - على الرغم من أنه يمكن قول الشيء نفسه أيضًا عن التزييف العميق للذكاء الاصطناعي.
يتم خداع البشر والخوارزميات بواسطة تقنية التزييف العميق، ولكن بطرق مختلفة
تشير الدراسات إلى أن البشر وأحدث أدوات الكشف عن الذكاء الاصطناعي قادرون بالمثل على تحديد التزييف العميق. يمكن أن تتراوح معدلات النجاح بين 50% و90+%، اعتمادًا على معايير الاختبار.
وبالتالي، يتم خداع البشر والآلات أيضًا بواسطة التزييف العميق بدرجات مماثلة. ومع ذلك، فمن الأهمية بمكان أننا معرضون للخطر بطرق مختلفة، وقد يكون هذا أكبر رصيد لدينا في معالجة مخاطر تكنولوجيا التزييف العميق. إن الجمع بين نقاط القوة لدى البشر وأدوات الكشف عن التزييف العميق سوف يخفف من نقاط الضعف لدى كل منهما ويحسن معدلات النجاح.
على سبيل المثال، معهد ماساتشوستس للتكنولوجيا وجدت الأبحاث أن البشر كانوا أفضل في التعرف على الصور المزيفة لقادة العالم والمشاهير مقارنة بنماذج الذكاء الاصطناعي. وكشفت أيضًا أن نماذج الذكاء الاصطناعي واجهت صعوبة في التقاط لقطات مع عدة أشخاص، على الرغم من أنها تشير إلى أن هذا قد يكون ناتجًا عن تدريب الخوارزميات على لقطات تحتوي على مكبرات صوت فردية.
على العكس من ذلك، وجدت نفس الدراسة أن نماذج الذكاء الاصطناعي تتفوق على البشر من خلال لقطات منخفضة الجودة (ضبابية، محببة، داكنة، وما إلى ذلك) والتي يمكن استخدامها عمدًا لخداع المشاهدين البشريين. وبالمثل، فإن أساليب اكتشاف الذكاء الاصطناعي الحديثة، مثل مراقبة تدفق الدم في مناطق معينة من الوجه، تتضمن تحليلات لا يستطيع البشر القيام بها.
ومع تطور المزيد من الأساليب، فإن قدرة الذكاء الاصطناعي على اكتشاف العلامات التي لا نستطيع اكتشافها سوف تتحسن فحسب، بل ستتحسن أيضًا قدرته على الخداع. السؤال الكبير هو ما إذا كانت تقنية الكشف عن التزييف العميق ستستمر في التفوق على التزييف العميق نفسها.
رؤية الأشياء بشكل مختلف في عصر التزييف العميق
ستستمر أدوات الكشف عن التزييف العميق المستندة إلى الذكاء الاصطناعي في التحسن، وكذلك جودة محتوى التزييف العميق نفسه. إذا كانت قدرة الذكاء الاصطناعي على الخداع تفوق قدرته على الاكتشاف (كما هو الحال مع النصوص التي ينشئها الذكاء الاصطناعي)، فقد تكون التقدير البشري هو الأداة الوحيدة المتبقية لدينا لمحاربة التزييف العميق.
تقع على عاتق الجميع مسؤولية التعرف على علامات التزييف العميق وكيفية اكتشافها. بصرف النظر عن حماية أنفسنا من عمليات الاحتيال والتهديدات الأمنية، فإن كل ما نناقشه ونشاركه عبر الإنترنت يكون عرضة للتضليل إذا فقدنا فهم الواقع.