هل تبحث للتحقق مما إذا كان قد تم إنشاء شيء ما بواسطة الذكاء الاصطناعي؟ لا تعمل أجهزة الكشف في كثير من الأحيان وهذه أخبار سيئة لأمنك.
سيحول الذكاء الاصطناعي (AI) شرائح كاملة من مجتمعنا سواء أحببنا ذلك أم لا ، وهذا يشمل شبكة الويب العالمية.
مع توفر برامج مثل ChatGPT لأي شخص لديه اتصال بالإنترنت ، أصبح من الصعب بشكل متزايد فصل المحتوى الذي تم إنشاؤه بواسطة AI ، عن المحتوى الذي تم إنشاؤه بواسطة الإنسان. من الجيد أن لدينا أجهزة كشف محتوى بالذكاء الاصطناعي ، أليس كذلك؟
هل تعمل أجهزة كشف المحتوى بالذكاء الاصطناعي؟
أجهزة الكشف عن المحتوى بالذكاء الاصطناعي هي أدوات متخصصة تحدد ما إذا كان شيء ما قد تمت كتابته بواسطة برنامج كمبيوتر أو بواسطة إنسان. إذا كنت تستخدم Google عبارة "كاشف محتوى AI" ، فسترى هناك العشرات من أجهزة الكشف هناك ، كلهم يدعون أنهم يستطيعون التفريق بشكل موثوق بين النص البشري وغير البشري.
طريقة عملها بسيطة إلى حد ما: تقوم بلصق قطعة من الكتابة ، وتخبرك الأداة ما إذا كان قد تم إنشاؤها بواسطة AI أم لا. بمصطلحات تقنية أكثر ، باستخدام مزيج من تقنيات معالجة اللغة الطبيعية والآلة خوارزميات التعلم ، تبحث أجهزة الكشف عن المحتوى بالذكاء الاصطناعي عن الأنماط والقدرة على التنبؤ ، وإجراء المكالمات بناءً على الذي - التي.
يبدو هذا رائعًا على الورق ، ولكن إذا سبق لك استخدام أداة الكشف عن الذكاء الاصطناعي ، فأنت تعلم جيدًا أنها تصيب وتفشل ، بعبارة ملطفة. في كثير من الأحيان ، يكتشفون المحتوى المكتوب بواسطة الإنسان مثل الذكاء الاصطناعي ، أو النص الذي أنشأه البشر على أنه تم إنشاؤه بواسطة الذكاء الاصطناعي. في الواقع ، البعض سيئ بشكل محرج فيما يفترض أن يفعلوه.
ما مدى دقة أجهزة الكشف عن المحتوى بالذكاء الاصطناعي؟
إذا كنت مقيمًا في الولايات المتحدة ، فإن أول نتيجة بحث على Google عن "كاشف محتوى الذكاء الاصطناعي" هي Writer.com (المعروف سابقًا باسم Qordoba؛ هذا نظام أساسي لمحتوى AI يحتوي أيضًا على كاشف خاص به). ولكن عندما تقوم بلصق قسم من هذه العشوائية وكالة انباء المقالة في الأداة ، تدعي أن هناك فرصة جيدة جدًا لأن تكون قد تم إنشاؤها بواسطة الذكاء الاصطناعي.
لذا ، فقد أخطأ الكاتب.
لكي نكون منصفين ، فإن أجهزة الكشف عن محتوى AI الأخرى ليست أفضل من أي شيء. إنهم لا ينتجون إيجابيات كاذبة فحسب ، بل إنهم يصنفون أيضًا محتوى الذكاء الاصطناعي على أنه بشري. وحتى إذا لم يفعلوا ذلك ، فإن إجراء تعديلات طفيفة على النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي يكفي لتمريره بألوان متطايرة.
في فبراير 2023 ، محاضر بجامعة ولونجونج أرمين علي مرداني وأستاذ مشارك في جامعة نيو ساوث ويلز سيدني إيما أ. اختبرت جين عددًا من أجهزة الكشف عن المحتوى المشهورة بالذكاء الاصطناعي ، وتأكدت من عدم موثوقية أي منها. في تحليلهم ، الذي تم نشره في المحادثةوخلص أليمرداني وجين إلى أن "سباق التسلح" في مجال الذكاء الاصطناعي بين مولدات النصوص وأجهزة الكشف سيشكل تحديًا كبيرًا في المستقبل ، خاصة بالنسبة للمعلمين.
لكن ليس المعلمون والمعلمون فقط هم من لديهم أسباب للقلق: الجميع يفعل ذلك. نظرًا لأن النص الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أصبح في كل مكان ، فإن القدرة على التمييز بين ما هو "حقيقي" وما هو غير ذلك ، أي الاكتشاف الفعلي عندما يتم كتابة شيء ما بواسطة الذكاء الاصطناعي، ستصبح أكثر صعوبة. سيكون لهذا تأثير كبير على جميع الصناعات ومجالات المجتمع تقريبًا ، حتى العلاقات الشخصية.
تداعيات الذكاء الاصطناعي على الأمن السيبراني والخصوصية
حقيقة أنه لا توجد آليات موثوقة لتحديد ما إذا كان شيء ما تم إنشاؤه بواسطة برنامج أو إنسان له آثار خطيرة على الأمن السيبراني والخصوصية.
الجهات الفاعلة التهديد بالفعل باستخدام ChatGPT لكتابة البرامج الضارة، وإنشاء رسائل بريد إلكتروني للتصيد الاحتيالي ، وكتابة رسائل غير مرغوب فيها ، وإنشاء مواقع احتيال ، والمزيد. وعلى الرغم من وجود طرق للدفاع ضد ذلك ، فمن المثير للقلق بالتأكيد عدم وجود برنامج قادر على التمييز بشكل موثوق بين المحتوى العضوي والبوت.
الأخبار المزيفة هي أيضًا مشكلة كبيرة بالفعل. مع وجود الذكاء الاصطناعي التوليدي في الصورة ، يمكن لوكلاء المعلومات المضللة توسيع نطاق عملياتهم بطريقة غير مسبوقة. في هذه الأثناء ، ليس لدى الشخص العادي أي وسيلة لمعرفة ما إذا كان شيء ما يقرأه عبر الإنترنت قد تم إنشاؤه بواسطة برنامج أو إنسان.
الخصوصية أمر مختلف تمامًا. خذ ChatGPT ، على سبيل المثال. كان تغذى أكثر من 300 مليار كلمة قبل إطلاقه. تم رفع هذا المحتوى من الكتب ومنشورات المدونات والمنتديات والمقالات ووسائل التواصل الاجتماعي. تم جمعها دون موافقة أي شخص ، وبتجاهل تام على ما يبدو لحماية الخصوصية وحقوق النشر.
ثم هناك أيضًا مسألة الإيجابيات الكاذبة. إذا تم تمييز المحتوى عن طريق الخطأ على أنه تم إنشاؤه بواسطة الذكاء الاصطناعي ، ألا يمكن أن يؤدي ذلك إلى الرقابة ، وهي مشكلة كبيرة على أي حال؟ ناهيك عن الضرر الذي قد يلحقه اتهامك باستخدام نص تم إنشاؤه بواسطة الذكاء الاصطناعي بسمعة المرء ، سواء عبر الإنترنت أو في الحياة الواقعية.
إذا كان هناك بالفعل سباق تسلح بين الذكاء الاصطناعي التوليدي وكاشفات المحتوى ، فإن الأول هو الفائز. ما هو أسوأ ، يبدو أنه لا يوجد حل. كل ما لدينا من منتجات نصف مخبوزة لا تعمل حتى نصف الوقت ، أو يمكن خداعها بسهولة بالغة.
كيفية اكتشاف محتوى الذكاء الاصطناعي: الحلول المحتملة
لا يعني أننا لا نمتلك حاليًا إجابات حقيقية لهذه المشكلة لا يعني أننا لن نمتلك أيًا منها في المستقبل. في الواقع ، هناك بالفعل العديد من المقترحات الجادة التي يمكن أن تنجح. العلامة المائية واحدة.
عندما يتعلق الأمر بالذكاء الاصطناعي ونماذج اللغة العميقة ، تشير العلامة المائية إلى تضمين رمز سري من الأنواع في نص تم إنشاؤه بواسطة الذكاء الاصطناعي (مثل نمط الكلمات ونمط علامات الترقيم). ستكون مثل هذه العلامة المائية غير مرئية للعين المجردة ، وبالتالي يكون من المستحيل إزالتها ، لكن البرامج المتخصصة ستكون قادرة على اكتشافها.
في الواقع ، في عام 2022 ، جامعة ماري لاند طور باحثون طريقة جديدة للعلامات المائية للشبكات العصبية الاصطناعية. قال كبير الباحثين توم جولدشتاين في ذلك الوقت إن فريقه تمكن من "إثبات رياضيا" أن العلامة المائية لا يمكن إزالتها بالكامل.
في الوقت الحالي ، ما يمكن أن يفعله الشخص العادي هو الاعتماد على غرائزه وحسهم السليم. إذا كان هناك شيء ما عن المحتوى الذي تقرأه - إذا كان يبدو غير طبيعي ، أو متكرر ، أو غير ابداعي ، أو عادي - فربما تم إنشاؤه بواسطة البرنامج. بالطبع ، يجب عليك أيضًا التحقق من أي معلومات تراها عبر الإنترنت ، والتحقق مرة أخرى من المصدر ، والابتعاد عن مواقع الويب المشبوهة.
ثورة الذكاء الاصطناعي جارية
يجادل البعض بأن الثورة الصناعية الخامسة موجودة هنا بالفعل ، حيث يحتل الذكاء الاصطناعي مركز الصدارة فيما يوصف بأنه تقارب بين الرقمية والمادية. سواء كان هذا هو الحال بالفعل أم لا ، كل ما يمكننا فعله هو التكيف.
والخبر السار هو أن صناعة الأمن السيبراني تتكيف مع هذا الواقع الجديد ، وتنفذ استراتيجيات دفاعية جديدة مع الذكاء الاصطناعي والتعلم الآلي في المقدمة.