هل يمكن حقًا حماية الفن الأصيل من الذكاء الاصطناعي؟ تبدو المواد الإبداعية عاجزة بشكل متزايد.
أدوات الذكاء الاصطناعي التوليدية مثل Midjourney و Stable Diffusion تنتج صورًا مقنعة بشكل متزايد. ومع ذلك ، فهم يعتمدون على قواعد بيانات واسعة من أعمال المبدعين لإنشاء المحتوى الخاص بهم. في هذه المرحلة ، قد تتساءل عما إذا كانت هناك طريقة لحماية عملك من أدوات الذكاء الاصطناعي والإجابة هي: الأمر معقد.
تستخدم أدوات الذكاء الاصطناعي التوليدية نماذج التعلم الآلي التي تم تدريبها على تنفيذ الإجراءات باستخدام مجموعات البيانات الكبيرة. لنفترض أننا نتحدث عن منشئ صور AI مثل Midjourney. في هذه الحالة ، تشتمل مجموعات البيانات المستخدمة في التدريب على مليارات من أزواج الصور والنصوص - من أعمال الفنانين الأسطوريين مثل بيكاسو إلى المبدعين المحترفين والهواة على حدٍ سواء.
تستخدم مولدات الفن بالذكاء الاصطناعي أزواج نصوص الوسائط هذه لإنشاء محتوى مرئي استجابة لمطالبات المستخدم النصية. في الأساس ، يستخدمون أعمال الفنانين الحاليين ويطابقون الأنماط مع أزواج النص (المنشورات الاجتماعية ، والتعليقات التوضيحية ، والنص البديل ، وما إلى ذلك) حتى يتمكن المستخدمون من إنشاء مرئيات من المطالبات مثل "سماء ليلية مرصعة بالنجوم بأسلوب فنسنت فان جوخ" أو "مشهد جديد من محقق يشرب ويسكي في خمسينيات القرن الماضي وسط المدينة LA ".
لماذا ينزعج الكثير من الفنانين؟
أكبر شكوى من المبدعين هي أن أدوات الذكاء الاصطناعي التوليدية تستخدم عملهم دون إذن. فهم لا يستخدمون عملهم ببساطة لتدريب الخوارزميات.
يقترح الحديث التسويقي حول الذكاء الاصطناعي التوليدي أن هذه الأدوات تنشئ محتوى فريدًا ، لكنها لا تفعل ذلك. ما يفعلونه حقًا هو دمج البيانات من قطع فنية متعددة وربطها معًا لإنشاء شيء يتوافق مع مطالبة المستخدم.
مصطلح جيل الذكاء الاصطناعي نفسه مضلل. سيكون النسخ المتماثل للذكاء الاصطناعي أكثر دقة ، والحيلة باستخدام هذه الأدوات هي أنها تنسخ كميات كبيرة من الأعمال الفنية وتدمجها معًا.
تم تصميم أدوات الذكاء الاصطناعي التوليدية لتحل محل التصميمات - وهي تفعل ذلك باستخدام أعمالها الفنية. وكما لو أن هذا ليس سيئًا بما فيه الكفاية ، فإن معظم أدوات الذكاء الاصطناعي تفعل كل هذا دون طلب الإذن ، أو تقديم أي تعويض ، أو حتى تكريم المبدعين الأصليين.
لسوء الحظ ، فإن الطريقة الوحيدة لمنع أدوات الذكاء الاصطناعي من الوصول إلى أي محتوى خاص بك هي عدم نشر أي شيء على الإنترنت. قد يبدو الأمر متطرفًا ، لكن هذا هو الواقع. بالتأكيد ، يمكنك استخدام ملف robots.txt على موقع الويب الخاص بك لـ منع أدوات الذكاء الاصطناعي من إفساد موقع الويب الخاص بك، أو حماية صورك من الذكاء الاصطناعي من خلال إلغاء الاشتراك في مجموعات بيانات التدريب ، ولكن هذه الأساليب لها العديد من القيود.
أولاً ، الأوامر الموجودة في ملف robots.txt هي أوامر استشارية ، مما يعني أن المواقع ليست ملزمة قانونيًا بالالتزام. ثانيًا ، سيتعين عليك منع شركة مثل Google من الزحف إلى موقع الويب الخاص بك ، والذي يعد في الأساس انتحارًا لتحسين محركات البحث. وأخيرًا ، يمنحك ملف robots.txt تحكمًا (محدودًا) فقط في الوصول إلى موقع الويب الخاص بك ، ولا يفعل شيئًا لحماية المحتوى الذي تنشره في مكان آخر: الوسائط الاجتماعية والخدمات السحابية وما إلى ذلك.
لسوء الحظ بالنسبة للمبدعين ، فإن المشهد سيزداد سوءًا قبل أن يتحسن.
قد تعني سياسة خصوصية Google أنها تستخدم كل المحتوى عبر الإنترنت لتدريب خوارزميات الذكاء الاصطناعي الخاصة بها
في يوليو 2023 ، قامت Google بتحديث سياسة الخصوصية الخاصة بها لتقول إنها ستستخدم المحتوى عبر الإنترنت لتدريب أنظمة الذكاء الاصطناعي الخاصة بها ، بما في ذلك Brad و Google Translate وغيرها. تستخدم Google عبارة "مصادر يمكن الوصول إليها للجمهور". إليك الاقتباس الذي أثار بعض أجراس الإنذار بعد التحديث:
"على سبيل المثال ، قد نجمع معلومات متاحة للجمهور عبر الإنترنت أو من مصادر عامة أخرى للمساعدة تدريب نماذج الذكاء الاصطناعي من Google وإنشاء منتجات وميزات ، مثل إمكانات الترجمة من Google و Bard و Cloud AI. " – سياسة خصوصية Google
بعبارة أخرى ، تقول Google الآن أن أي شيء تنشره عبر الإنترنت جاهز للاستيلاء عليه. على أقل تقدير ، تسهل Google مقارنة التحديثات بسياسة الخصوصية الخاصة بها من خلال إبراز أحدث التغييرات:
كما ترى ، فإن التغييرات في الصياغة دقيقة للغاية ، لكن الآثار المترتبة عليها كبيرة. في السابق ، كانت الوظائف الأساسية لنماذج اللغات في Google هي تفسير استعلامات البحث وترجمة النص إلى لغات أخرى.
الآن ، تقول الشركة إنها قد تستخدم جميع المصادر المتاحة للجمهور لتدريب مجموعتها الكاملة من نماذج الذكاء الاصطناعي. يتضمن ذلك نظام الذكاء الاصطناعي التوليدي الخاص به ، Bard ، ويتوسع إلى ما وراء نماذج اللغة ليشمل جميع أدوات / ميزات الذكاء الاصطناعي من Google - المثال الأكثر وضوحًا هو إنشاء الصور.
يمكن للشبكات الاجتماعية استخدام أي محتوى تنشره على أنظمتها الأساسية
تمتلك Meta أيضًا وصولاً غير مقيد إلى كل ما يتم نشره على Facebook و Instagram و Threads. هذه ممارسة قياسية للمنصات الاجتماعية إذا قرأت الشروط والأحكام. بمجرد تحميل أي شيء على شبكة اجتماعية ، يكون لديهم الحق في استخدامه وإعادة استخدامه بأي طريقة يرغبون فيها.
الكثير من وجد المستخدمون الاجتماعيون شركات تستخدم صورهم في الإعلانات بدون إذن ، بما في ذلك التصميمات. لسوء الحظ ، إذا كانت هذه الشركة هي الشبكة الاجتماعية التي قمت بتحميل الصورة إليها ، أو الشركة الأم للشبكة ، أو علامة تجارية أخرى مملوكة لنفس الشركة الأم ، فلن يحالفك الحظ.
بالنسبة لمعظم الأشخاص ، فإن فرص استخدام نظام أساسي مثل Instagram لإحدى صورهم لحملة إعلانية منخفضة للغاية. ومع ذلك ، فمن شبه المؤكد أن Meta تستخدم الصور ومقاطع الفيديو والمنشورات لتدريب خوارزميات الذكاء الاصطناعي الخاصة بها.
يمكن لخدمات مثل Adobe الوصول إلى عملك واستخدامه لتدريب الخوارزميات الخاصة بهم
في كانون الثاني (يناير) 2023 ، تعرّضت Adobe لبعض الانتقادات للحصول على تحديث لشروطها وأحكامها. يبدو أن اللغة تشير إلى أن Adobe يمكنها استخدام الصور التي تم تحميلها على خدماتها السحابية من قبل المصورين لتدريب خوارزميات الذكاء الاصطناعي الخاصة بها.
كانت الصياغة المحددة على النحو التالي:
"قد تقوم Adobe بتحليل المحتوى الخاص بك باستخدام تقنيات مثل التعلم الآلي (على سبيل المثال للتعرف على الأنماط) لتطوير منتجاتنا وخدماتنا وتحسينها."
لجعل الأمور أسوأ ، كانت Adobe تختار المستخدمين تلقائيًا في نظام تحليل المحتوى هذا ، مما يعني أنهم اضطروا إلى إيقاف تشغيله يدويًا في إعدادات حساباتهم. من المفهوم أن المبدعين لم يستجيبوا بلطف شديد وأدى Adobe إلى تأجيج النيران من خلال عدم الرد في البداية على النقد.
بعد أسابيع ، ذكرت Adobe أنه لا يتم استخدام بيانات العملاء لتدريب أدوات الذكاء الاصطناعي التوليدية الخاصة بها. ووصفت الشركة الحادث بأنه دعوة للاستيقاظ وتعهدت بإزالة أي لبس من خلال جعل صياغة سياستها أكثر تحديدًا.
في كلتا الحالتين ، تظل الحقيقة أنه إذا تريد Adobe استخدام بيانات العميل لتدريب أنظمة الذكاء الاصطناعي الخاصة بها، لا يوجد شيء يمكن لأي شخص فعله حيال ذلك - بخلاف المقاطعة. في الوقت نفسه ، تحصل Adobe على بياناتها الخاصة بأدوات مثل Generative Fill من مكان ما ، لذا فهي تستخدم أعمال الفنانين بطريقة أو بأخرى.
تتمتع الشركات التقنية بوصول غير محدود تقريبًا إلى بياناتك... في الوقت الراهن
كما هو الحال ، يتمتع عمالقة التكنولوجيا مثل Google و Meta بوصول غير محدود تقريبًا إلى بيانات التصميمات. إن التدقيق في معالجتهم لبيانات المستخدم قديم قدم الإنترنت تقريبًا ، ومع ذلك لا تزال لوائح الخصوصية تلعب دور اللحاق بالركب.
استغرق الأمر من الاتحاد الأوروبي حتى عام 2018 لتنفيذ إرشادات الخصوصية الخاصة باللائحة العامة لحماية البيانات (GDPR) ولم يفعلوا الكثير لحماية بيانات المستخدم.
الذكاء الاصطناعي التوليدي هو حقل ألغام جديد تمامًا مع عدم وجود لوائح تقريبًا لتقييد إجراءات شركات التكنولوجيا في هذا المجال. في الوقت الحالي ، يمكن لشركات مثل Google و OpenAI فعل أي شيء تريده تقريبًا باستخدام بياناتنا ، ولن يتغير هذا في أي وقت قريبًا.
في النهاية ، سيتطلب الأمر دعاوى ولوائح لحماية الفنانين من الذكاء الاصطناعي
حتى يتم تنظيم الذكاء الاصطناعي التوليدي ووصوله إلى بيانات المستخدم ، فإن التصميمات تكاد تكون عاجزة عن إيقاف التكنولوجيا. السيناريو الأكثر ترجيحًا هو التغييرات في قوانين حقوق النشر أو ، على الأرجح ، حماية البيانات الجديدة المتعلقة بالملكية الإبداعية. في كلتا الحالتين ، سوف يستغرق الأمر وقتًا طويلاً لرؤية أي لوائح جديدة يتم إدخالها ومن ثم يتم تطبيقها.
الجانب المشرق للمبدعين هو أن الدعاوى القضائية ضد الذكاء الاصطناعي التوليدي تتراكم بسرعة وقد يؤدي ذلك إلى تسريع الاستجابة القانونية. النبأ السيئ هو أن بعض شركات التكنولوجيا المعنية لديها الأموال القانونية لسحب هذه القضايا من خلال أكثر السبل استهلاكا للوقت من الإجراءات القانونية الواجبة.
في غضون ذلك ، ستظل الأسئلة الأخلاقية المعلقة على جيل فن الذكاء الاصطناعي باقية.