هذا المنشور برعاية Incogni.

انظر حولك؛ البيئة مليئة بالذكاء الاصطناعي وإمكانياته شبه المعجزة. يمكّن الذكاء الاصطناعي أو الذكاء الاصطناعي الكمبيوتر أو الآلة من التفكير والتعلم والتصرف بذكاء ، مثل الإنسان.

في الواقع ، تنتشر ChatGPT وتقنيات الذكاء الاصطناعي التوليدية الأخرى في كل صناعة تقريبًا - من الرعاية الصحية ، والخدمات المصرفية ، والتصنيع إلى الفنون الإبداعية وبرامج المستهلك.

ولكن هل هذا المستقبل الجديد المُمكِّن الذي يزدهر بالبيانات سيمنحنا حقنا الإنساني الأساسي في الخصوصية؟

إذا خطرت في ذهنك أفكار مماثلة ، فإن مخاوفك المتعلقة بالخصوصية فيما يتعلق بالذكاء الاصطناعي أمر طبيعي. تعتبر خصوصيتك أكثر أهمية الآن من أي وقت مضى في هذا العصر الرقمي.

ما هي مخاطر الخصوصية المرتبطة بالذكاء الاصطناعي؟

حسب استطلاعات بيو للأبحاث، يُطلب من واحد من كل أربعة أمريكيين الموافقة على سياسة الخصوصية كل يوم. ومع ذلك ، فإن 22٪ فقط يقرؤون سياسات الخصوصية في مجملها.

لنفكر في خدمات الذكاء الاصطناعي مثل ChatGPT و Google Cloud AI و Jupyter و Viso Suite و Chrorus.ai تنص سياسات الخصوصية الخاصة بهم على أنها جمع معلوماتك الشخصية ، والمحتوى الذي تشاهده أو تتفاعل معه ، وحتى مصدر البيانات من منصات وسائل التواصل الاجتماعي والعامة قواعد بيانات.

instagram viewer

علاوة على ذلك ، يتم استخدام بياناتك لتدريب نماذج الذكاء الاصطناعي الخاصة بهم.

لذلك قد تستمتع بكتابة رسائل البريد الإلكتروني والعروض التقديمية في ثوانٍ ؛ الدردشة مع روبوت خدمة العملاء ؛ جرب الملحقات أثناء التسوق تقريبًا ؛ أو مجرد Google كإعلانات تستند إلى اهتماماتك تتبعك عبر الويب.

يتم تشغيل هذه العمليات من خلال البيانات الخاصة بك التي يتم جمعها كل دقيقة. إذا كنت تعتبره ذكاءً اصطناعيًا ينتهك خصوصيتك ، فأنت لست مخطئًا.

بينما تدعي شركات الذكاء الاصطناعي أن معلوماتك آمنة ، أدت العديد من خروقات البيانات من قبل مجرمي الإنترنت إلى سرقة الهوية والخسارة المالية والإضرار بسمعة الضحايا في جميع أنحاء العالم.

نتائج بحث Surfshark حول إحصائيات خرق البيانات العالمية تظهر أن الولايات المتحدة لديها أكثر من 2.6 مليار سجل تم الكشف عنها من خلال انتهاكات البيانات منذ عام 2004.

ويتم تدريب معظم نماذج الذكاء الاصطناعي على مجموعة بيانات كبيرة من مصادر عامة ، ومعظمها متحيز. يمكن أن يؤدي هذا التحيز إلى عواقب وخيمة ، مثل انتهاك حقك في الخصوصية.

الآثار القانونية والأخلاقية للخصوصية في عصر الذكاء الاصطناعي

هل تنطبق قوانين الخصوصية الخاصة بنا على الذكاء الاصطناعي؟ بحسب ال بودكاست نقابة المحامين الأمريكية بشأن تنظيم الذكاء الاصطناعي في الولايات المتحدة ، في الوقت الحالي ، لا يوجد تشريع اتحادي شامل مخصص فقط لتنظيم الذكاء الاصطناعي.

أقر الاتحاد الأوروبي قانون الذكاء الاصطناعي ، والذي بموجبه ستزيد اللوائح بما يتناسب مع التهديد المحتمل للخصوصية والأمان الذي يشكله نظام الذكاء الاصطناعي. نأمل أن يحفز قانون الذكاء الاصطناعي هذا الولايات المتحدة والمملكة المتحدة ودول أخرى على تمرير قوانينها أيضًا.

ومع ذلك ، فإن تنظيم الذكاء الاصطناعي وحماية الخصوصية يفرضان العديد من التحديات لأن خوارزميات الذكاء الاصطناعي معقدة.

ثانيًا ، معظم قوانين الخصوصية الحالية متجذرة في نموذج الإشعار والموافقة لاختيار المستهلك. سياسات الخصوصية هي مثال ، يوافق عليه العملاء ولكن نادرًا ما يقرأونه بالكامل.

أيضًا ، قد يقوم الأفراد الذين تم بيعهم في ثورة الذكاء الاصطناعي بالإفصاح عن معلومات خاصة عن طيب خاطر ، مما يؤدي إلى إفشال الغرض من ضمان خصوصية البيانات من الذكاء الاصطناعي.

من الناحية المثالية ، يجب أن يكون مستقبلنا الجديد الذي يحركه الذكاء الاصطناعي أيضًا مدفوعًا بالأخلاقيات لحماية خصوصية بياناتنا. يجب أن تكون آمنة وعادلة وغير متحيزة ومفيدة للجميع. يجب على المبدعين والمطورين تدريب نماذج الذكاء الاصطناعي باستخدام بيانات متنوعة.

لكسب ثقتنا ، يجب أن تكون نماذج الذكاء الاصطناعي شفافة بشأن القرارات التي يتم اتخاذها باستخدام بياناتنا. ومع استبدال الذكاء الاصطناعي لقوى عاملة كبيرة بالفعل ، يجب أن يؤدي تطوير الذكاء الاصطناعي إلى خلق وظائف أفضل.

حماية الخصوصية في عالم يحركه الذكاء الاصطناعي

يجب أن يكون لديك خيار مشاركة البيانات الشخصية التي تريدها. ويجب على شركات الذكاء الاصطناعي وضع تدابير محسّنة لحماية البيانات لضمان بقاء معلوماتك آمنة وخصوصية.

يجب دمج مبادئ الخصوصية حسب التصميم في جميع العمليات وفي جميع الأنشطة والمعالجة ، وبالتالي ضمان حماية خصوصية البيانات طوال دورة حياة نظام الذكاء الاصطناعي.

علاوة على ذلك ، يجب أن تحكم القوانين واللوائح الصارمة نماذج الذكاء الاصطناعي وتكاثر شركات الذكاء الاصطناعي الجديدة حولها.

في أول معيار عالمي على الإطلاق طورته اليونسكو ، يعد الحق في الخصوصية وحماية البيانات من بين المبادئ الأساسية العشرة لهذه التوصية لبناء تقنيات الذكاء الاصطناعي.

دورك في حماية خصوصيتكشخص يتصفح الويب على جهاز لوحي باستخدام VPN

حسب مواقف Surfshark تجاه استبيان الخصوصية 2022، يوافق 90٪ من مستخدمي الإنترنت على أهمية الخصوصية عبر الإنترنت بالنسبة لهم. وذكر 32٪ أن جودة الخدمات أهم من الخصوصية.

إذا كان يجب عليك استكشاف أحدث تقنيات الذكاء الاصطناعي للعمل بشكل أسرع ، فابحث عنها. لكن خذ بضع دقائق لقراءة سياسة الخصوصية الخاصة به. وابحث عن إلغاء الاشتراك في مشاركة البيانات.

ابدأ في إدارة خصوصيتك مع الجهاز في يدك أو على جهاز الكمبيوتر الخاص بك. استخدم VPN للتصفح ورفض أذونات التخزين للتطبيقات التي لا تستخدمها.

هل تعلم أنه يمكنك تنظيف بصمتك الرقمية بانتظام؟ وإلغاء الاشتراك في قواعد بيانات وسطاء البيانات من الذي يجمع معلوماتك الشخصية؟

استعد خصوصيتك مع Incogni

يبحث وسطاء البيانات دائمًا عن سرقة معلوماتك الشخصية من السجلات العامة ومن خلال عادات التصفح الخاصة بك. إذا كنت قد جربت نظارة شمسية فعليًا ، فسيكون وجهك موجودًا في قاعدة بيانات أيضًا.

إنكوجني يسرد وسطاء البيانات الذين يحتمل أن يكون لديهم معلومات العملاء ، مثل رقم الضمان الاجتماعي أو العنوان الفعلي أو المعلومات الصحية أو رقم الهاتف أو عنوان البريد الإلكتروني. تُباع هذه البيانات لشركات الاستثمار أو الرعاية الصحية أو المالية أو التسويق أو التوظيف. أو تستخدم لخداعك أو محاولتك لصيد الحيتان.

كل هذا يمكن أن يؤدي إلى ظهور إعلانات غير مرغوب فيها ، والتأثير على أهليتك للقرض أو معدلات التأمين ، وزيادة مخاطر الهجمات الإلكترونية.

لكن Incogni ترسل طلبات إزالة البيانات إلى وسطاء البيانات نيابة عنك ، حتى بعد حذف بياناتك حيث يبدأ وسطاء البيانات في جمع معلوماتك مرة أخرى.

يمكنك مراقبة العملية وعرض قواعد البيانات المحتملة التي تم العثور عليها والطلبات المرسلة والطلبات المكتملة على لوحة معلومات Incogni سهلة الاستخدام.

يمكنك استعادة خصوصيتك الآن بأخذ ملف اشتراك Incogni لمدة عام بخصم 50٪- 6.49 دولارًا أمريكيًا فقط شهريًا - واحتفظ ببياناتك بعيدًا عن السوق وآمنة.

الذكاء الاصطناعي وخصوصيتك: الحاجة إلى توازن ثوري

مما لا شك فيه أن هذا المستقبل الجديد للذكاء الاصطناعي عرضة لمخاطر الخصوصية ، مما يجعل معالجتها أمرًا مهمًا. ويمكن أن يكون Incogni مخرجًا.

في الواقع ، بدأت عجلة التغيير لتنظيم شركات الذكاء الاصطناعي وحماية خصوصيتك في التدحرج. نأمل أن يكتسب زخمًا ليصبح ثورة مثل الذكاء الاصطناعي - ويلبي الحاجة إلى نهج متوازن لتطوير الذكاء الاصطناعي وحماية الخصوصية.

هذه هي وظيفة ترعاها. خيارات المنتج والآراء الواردة في هذه المقالة هي من الراعي ولا تعكس الاتجاه التحريري لـ MakeUseOf أو موظفيها.