الأخبار الكاذبة والتزييف العميق والصور المضللة: كل هذه الأشياء يمكن إنشاؤها باستخدام الذكاء الاصطناعي. إليك كيف يعني الذكاء الاصطناعي انتشار المعلومات المضللة.
يلعب الذكاء الاصطناعي (AI) الآن دورًا في جوانب مختلفة من حياتنا. على وجه التحديد ، نمت أدوات الذكاء الاصطناعي التوليدية مثل ChatGPT وغيرها بشكل ملحوظ. هذا يعني أنه سيكون هناك وفرة من المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي في المستقبل.
ومع ذلك ، فإن الذكاء الاصطناعي التوليدي يعرض أيضًا مخاطر المعلومات المضللة الناتجة عن الذكاء الاصطناعي. تسهل ميزاته على الأفراد الانتهازيين نشر معلومات كاذبة. لذلك ، دعنا نستكشف كيف يتم استخدام الذكاء الاصطناعي التوليدي للتضليل.
المخاطر المحتملة للذكاء الاصطناعي التوليدي لنشر المعلومات المضللة
يشكل الذكاء الاصطناعي التوليدي العديد من التهديدات على الأشخاص ، مثل الاستغناء عن الوظائف والمزيد من المراقبة والهجمات الإلكترونية. و ال ستزداد مشكلات الأمان مع الذكاء الاصطناعي سوءًا. لكن هناك قلق آخر: يمكن للناس استخدامه لنشر الأكاذيب. يمكن للأفراد المخادعين استخدام الذكاء الاصطناعي التوليدي لمشاركة الأخبار المزيفة من خلال المحتوى المرئي أو السمعي أو النصي.
يمكن تصنيف الأخبار الكاذبة إلى ثلاثة أنواع:
- معلومات مضللة: معلومات غير صحيحة أو خاطئة غير مقصودة.
- التضليل: الاستخدام المتعمد لمعلومات احتيالية أو خادعة.
- التضليل: اخبار مضللة ام صورة مبالغ فيها للحقيقة.
متى جنبا إلى جنب مع تقنية deepfake، يمكن لأدوات الذكاء الاصطناعي التوليدية أن تجعل المحتوى يبدو وصوتًا حقيقيًا ، مثل الصور ومقاطع الفيديو ومقاطع الصوت والمستندات. هناك العديد من الاحتمالات لإنشاء محتوى مزيف ، لذا يجب معرفة ذلك كيف تحمي نفسك من فيديوهات التزييف العميق أنه مهم.
يستطيع ناشرو الأخبار المزيفة إنشاء محتوى بكميات كبيرة ، مما يسهل نشره بين الجماهير عبر وسائل التواصل الاجتماعي. يمكن استخدام المعلومات المضللة المستهدفة للتأثير على الحملات السياسية ، مما قد يؤثر على الانتخابات. بالإضافة إلى ذلك ، فإن استخدام أدوات إنشاء النصوص والصور بالذكاء الاصطناعي يثير مخاوف بشأن قوانين حقوق النشر ، كما ذكرت خدمة أبحاث الكونغرس: يصبح تحديد ملكية المحتوى الذي تم إنشاؤه بواسطة هذه الأدوات أمرًا صعبًا.
كيف سيتصدى القانون لانتشار الأخبار الكاذبة من خلال الذكاء الاصطناعي التوليدي؟ من الذي سيتحمل مسؤولية نشر معلومات كاذبة - المستخدمون أم المطورون أم الأدوات نفسها؟
4 طرق يمكن استخدامها للذكاء الاصطناعي التوليدي لنشر المعلومات المضللة
للبقاء آمنًا على الإنترنت ، يحتاج الجميع إلى فهم مخاطر الذكاء الاصطناعي التوليدي في نشر المعلومات المضللة ، لأنه يأتي في العديد من الأشكال المختلفة. فيما يلي بعض الطرق التي يمكن استخدامها للتلاعب بالناس.
1. إنشاء محتوى وهمي عبر الإنترنت
يعد إنشاء محتوى مزيف باستخدام الذكاء الاصطناعي التوليدي استراتيجية شائعة يستخدمها أولئك الذين ينشرون أخبارًا كاذبة. يستخدمون أدوات الذكاء الاصطناعي التوليدية الشهيرة مثل ChatGPT و DALL-E و Bard و Midjourney وغيرها لإنتاج أنواع مختلفة من المحتوى. على سبيل المثال، يمكن أن يساعد ChatGPT منشئي المحتوى بعدة طرق. ولكن يمكنه أيضًا إنشاء منشورات على وسائل التواصل الاجتماعي أو مقالات إخبارية قد تخدع الناس.
لإثبات ذلك ، دفعت ChatGPT لكتابة مقال مختلق حول اعتقال الرئيس الأمريكي جو بايدن بتهم فساد. كما طلبنا منها تضمين بيانات من السلطات المختصة لجعلها تبدو أكثر قابلية للتصديق.
ها هي المقالة الوهمية التي توصل إليها ChatGPT:
والمثير للدهشة أن الناتج كان مقنعًا للغاية. تضمنت أسماء وبيانات الشخصيات الموثوقة لجعل المقالة أكثر إقناعًا. يوضح هذا كيف يمكن لأي شخص استخدام هذه الأدوات لتوليد أخبار كاذبة ونشرها بسهولة عبر الإنترنت.
2. استخدام روبوتات المحادثة للتأثير على آراء الناس
يمكن لروبوتات الدردشة التي تعتمد على نماذج الذكاء الاصطناعي التوليدية أن تستخدم أساليب مختلفة للتأثير على آراء الناس ، بما في ذلك:
- التلاعب العاطفي: يمكن للذكاء الاصطناعي استخدام نماذج الذكاء العاطفي لاستغلال المحفزات والانحيازات العاطفية لتشكيل وجهات نظرك.
- غرف الصدى وتحيز التأكيد: يمكن لروبوتات المحادثة أن تعزز المعتقدات الحالية من خلال إنشاء غرف صدى تتحقق من تحيزاتك. إذا كان لديك بالفعل وجهة نظر معينة ، يمكن للذكاء الاصطناعي تقويتها من خلال تقديم المعلومات التي تتوافق مع آرائك.
- الدليل الاجتماعي وتأثير عربة: يمكن للذكاء الاصطناعي التلاعب بالمشاعر العامة من خلال توليد دليل اجتماعي. يمكن أن يكون لذلك عواقب وخيمة ، حيث قد يؤدي إلى توافق الأفراد مع الآراء الشعبية أو اتباع الحشد.
- التخصيص المستهدف: تتمتع روبوتات الدردشة بإمكانية الوصول إلى كميات هائلة من البيانات التي يمكنها جمعها لإنشاء ملفات تعريف شخصية. يمكّنهم ذلك من تخصيص المحتوى بناءً على تفضيلاتك. من خلال التخصيص المستهدف ، يمكن للذكاء الاصطناعي إقناع الأفراد أو تعزيز آرائهم بشكل أكبر.
توضح هذه الأمثلة جميعًا كيف يمكن استخدام روبوتات المحادثة لتضليل الناس.
3. إنشاء تقنية AI DeepFakes
يمكن لأي شخص استخدام تقنية التزييف العميق لإنشاء مقاطع فيديو كاذبة لشخص يقول أو يفعل أشياء لم يفعلها من قبل. يمكنهم استخدام هذه الأدوات للهندسة الاجتماعية أو شن حملات تشويه ضد الآخرين. علاوة على ذلك ، في ثقافة meme الحالية ، يمكن أن تكون تقنية deepfakes بمثابة أدوات للتنمر عبر الإنترنت على وسائل التواصل الاجتماعي.
بالإضافة إلى ذلك ، قد يستخدم الخصوم السياسيون الصوت والفيديو المزيف العميق لتشويه سمعة خصومهم ، والتلاعب بالمشاعر العامة بمساعدة الذكاء الاصطناعي. لذا تشكل تقنية التزييف العميق الناتجة عن الذكاء الاصطناعي العديد من التهديدات في المستقبل. وفقًا لعام 2023 تقرير رويترز، فإن صعود تكنولوجيا الذكاء الاصطناعي قد يؤثر على انتخابات 2024 الأمريكية. يسلط التقرير الضوء على إمكانية الوصول إلى أدوات مثل Midjourney و DALL-E التي يمكنها بسهولة إنشاء محتوى ملفق والتأثير على الآراء الجماعية للأشخاص.
من المهم إذن أن تكون قادرًا على ذلك التعرف على مقاطع الفيديو التي تم إنشاؤها بواسطة تقنية التزييف العميق وتمييزها عن الأصول.
4. استنساخ الأصوات البشرية
يتيح الذكاء الاصطناعي التوليدي ، جنبًا إلى جنب مع تقنية التزييف العميق ، التلاعب بكلام شخص ما. تتقدم تقنية Deepfake بسرعة وتقدم مجموعة متنوعة من الأدوات التي يمكنها تكرار صوت أي شخص. هذا يسمح للأفراد الخبثاء بانتحال صفة الآخرين وخداع الأفراد المطمئنين. أحد الأمثلة على ذلك هو استخدام موسيقى deepfake.
ربما تكون قد صادفت أدوات مثل تشبه AI, ألقى خطابا, أنت المزيف، وغيرهم ممن يمكنهم تقليد أصوات المشاهير. في حين أن هذه الأدوات الصوتية للذكاء الاصطناعي يمكن أن تكون مسلية ، إلا أنها تشكل مخاطر كبيرة. يمكن للمحتالين استخدام تقنيات استنساخ الصوت لمختلف مخططات الاحتيال ، مما يؤدي إلى خسائر مالية.
قد يستخدم المحتالون الأصوات المزيفة لانتحال شخصية أحبائك والاتصال بك ، متظاهرين بأنهم في محنة. مع الصوت الاصطناعي الذي يبدو مقنعًا ، يمكنهم حثك على إرسال الأموال على وجه السرعة ، مما يؤدي بك إلى أن تصبح ضحية لعمليات الاحتيال التي يقومون بها. تم الإبلاغ عن حادثة من قبل واشنطن بوست في مارس 2023 يمثل هذه المشكلة: استخدم المحتالون أصواتًا مزيفة لإقناع الناس بأن أحفادهم كانوا في السجن ويحتاجون إلى المال ...
كيفية اكتشاف التضليل الذي تنتشره منظمة العفو الدولية
تعد مكافحة انتشار المعلومات المضللة التي يسهلها الذكاء الاصطناعي قضية ملحة في عالم اليوم. إذن كيف يمكنك اكتشاف المعلومات الخاطئة التي تم الحصول عليها بواسطة الذكاء الاصطناعي؟
- تعامل مع المحتوى عبر الإنترنت بشك. إذا واجهت شيئًا يبدو متلاعبًا أو لا يصدق ، تحقق من ذلك من خلال التدقيق.
- قبل الوثوق بمقال إخباري أو منشور على وسائل التواصل الاجتماعي ، تأكد من أنه صادر من مصدر حسن السمعة.
- احترس من مؤشرات التزييف العميق ، مثل الوميض غير الطبيعي أو حركات الوجه ، وسوء جودة الصوت ، والصور المشوهة أو الباهتة ، والافتقار إلى المشاعر الحقيقية في الكلام.
- استخدم مواقع التحقق من صحة المعلومات للتحقق من دقة المعلومات.
باتباع هذه الخطوات ، يمكنك تحديد وحماية نفسك من المعلومات المضللة المدفوعة بالذكاء الاصطناعي.
احذر من المعلومات المضللة التي تنشرها منظمة العفو الدولية
لعبت البرامج التوليدية دورًا مهمًا في تطوير الذكاء الاصطناعي. ومع ذلك ، يمكن أن تكون أيضًا مصدرًا مهمًا للمعلومات المضللة في المجتمع. مكنت هذه الأدوات ذات الأسعار المعقولة أي شخص من إنشاء أنواع مختلفة من المحتوى باستخدام نماذج الذكاء الاصطناعي المتطورة ؛ قدرتها على إنشاء محتوى بكميات كبيرة ودمج التزييف العميق يجعلها أكثر خطورة.
من المهم أن تكون على دراية بتحديات المعلومات المضللة في عصر الذكاء الاصطناعي. إن فهم كيفية استخدام الذكاء الاصطناعي لنشر الأخبار المزيفة هو الخطوة الأولى نحو حماية نفسك من المعلومات المضللة.