آخر تحديث:

29 أبريل 2024 الساعة 13:25 بتوقيت شرق الولايات المتحدة
| 3 دقائق قراءة

OpenAI في أعين العاصفة في أوروبا، حيث اتهم المحامي النمساوي NOYB (لا شيء من أعمالك) في 29 أبريل شركة الذكاء الاصطناعي بانتهاك قواعد خصوصية البيانات بسبب ردود غير دقيقة لا يمكن تصحيحها.

جاءت شكوى NOYB في أعقاب أحد أصحاب البيانات الذي استفسر عن ChatGPT حول تاريخ ميلاده لكنه تلقى ردودًا غير صحيحة، بدلاً من إبلاغه بواسطة chatbot بأنه يفتقر إلى البيانات اللازمة، وهو انتهاك لخصوصية البيانات في الاتحاد الأوروبي. تم تنقيح اسم الشخص في الشكوى، لكن NOYB كشف أن الشخص شخصية عامة وأن تاريخ ميلاده متاح بسهولة عبر الإنترنت.

شكوى خصوصية OpenAI تكشف عن ارتفاع نسبة المعلومات الكاذبة


وذكرت مجموعة المدافعين عن الخصوصية النمساوية أيضًا أن برنامج الدردشة الآلي الخاص بـ OpenAI رفض طلبات صاحب الشكوى لتصحيح أو حذف الرد الخاطئ. أخبر ChatGPT الموضوع أن تصحيح البيانات في التطبيق مستحيل دون توضيح كيفية معالجة البيانات أو مصادرها، مما ينتهك أيضًا حقوق خصوصية صاحب الشكوى، وهو ما يبدو أقل من مثالي في ضوء قانون الخصوصية في الاتحاد الأوروبي.

تنص اللائحة العامة لحماية البيانات في أوروبا (GDPR) على أن المعلومات المتعلقة بالأفراد يجب أن تكون دقيقة، ويجب أن يتمتع الأفراد بإمكانية الوصول الكامل إلى أي بيانات شخصية تحتفظ بها الشركة.

تزعم الشكوى أن OpenAI ليست على علم بالبيانات التي يخزنها ChatGPT أو مصدرها، وأنه على الرغم من علمها بالمشكلة، إلا أن شركة التكنولوجيا تبدو غير منزعجة.

تحتفظ OpenAI دائمًا بإخلاء المسؤولية في تطبيقها الذي ينص على أن “الدقة الواقعية في نماذج اللغات الكبيرة تظل مجالًا للبحث النشط”.

ردًا على شكوى خصوصية OpenAI، أوضح محامي حماية البيانات NOYB، ماارتجي دي جراف، أن روبوتات الدردشة مثل ChatGPT لا تمتثل لقانون الاتحاد الأوروبي.

“إن اختلاق معلومات كاذبة يمثل مشكلة كبيرة في حد ذاته. ولكن عندما يتعلق الأمر بمعلومات كاذبة عن الأفراد، يمكن أن تكون هناك عواقب وخيمة”. “من الواضح أن الشركات غير قادرة حاليًا على جعل برامج الدردشة مثل ChatGPT تتوافق مع قانون الاتحاد الأوروبي، عند معالجة البيانات المتعلقة بالأفراد. إذا لم يتمكن النظام من إنتاج نتائج دقيقة وشفافة، فلا يمكن استخدامه لتوليد بيانات حول الأفراد. يجب أن تتبع التكنولوجيا المتطلبات القانونية، وليس العكس.

وفقًا لشكوى NOYB، فشلت OpenAI في الاستجابة “لطلبات الوصول إلى البيانات” كما هو مطلوب بموجب اللائحة العامة لحماية البيانات (GDPR)، والتي تفرض على الشركات تقديم تفاصيل عن جميع البيانات الشخصية المخزنة بناءً على طلب الهيئات المعتمدة.

تكثيف التحقيقات بشأن خصوصية OpenAI


منذ طرحها في عام 2022، أثارت ChatGPT نقاشًا عالميًا حول تطبيقات ومخاطر الذكاء الاصطناعي، حيث نمت المنصة إلى أكثر من 180 مليون مستخدم حول العالم.

أثار النمو السريع لـ ChatGPT وتطبيقات التعلم الآلي الأخرى مخاوف بشأن عدم وجود لوائح لمنع المعلومات الكاذبة، وانتهاك الخصوصية، وانتهاكات حقوق الطبع والنشر، أو إنشاء محتوى صوتي وفيديو مزيف. وقد أدى ذلك إلى قيام الاتحاد الأوروبي بإصدار قانون الذكاء الاصطناعي في مارس 2024 لتمكين اتباع نهج تنظيمي لبعض القضايا الملحة المتعلقة بالذكاء الاصطناعي.

تعد شكوى الخصوصية المقدمة من NOYB ضد OpenAI جزءًا من سلسلة من التحديات القانونية التي تواجه الشركة.

يخضع OpenAI بالفعل للتحقيق من قبل هيئة الخصوصية الوطنية الإيطالية، التي بدأت التحقيق في مارس 2023. وقد اقترب التحقيق من المخاوف المتعلقة بانتهاكات البيانات، بالإضافة إلى الكشف عن محادثات المستخدمين وتفاصيل الدفع.

أنشأ المجلس الأوروبي لحماية البيانات (EDPB)، الذي يضم سلطات حماية البيانات في الدول الأعضاء في الاتحاد الأوروبي، فريق عمل في أبريل 2023 لمعالجة المشكلات المحيطة بـ ChatGPT لتنسيق إجراءات الإنفاذ وضمان الامتثال للوائح حماية البيانات.

بالإضافة إلى ذلك، رفع إيلون ماسك دعوى قضائية ضد شركة OpenAI ومديرها التنفيذي سام ألمان، مدعيًا أن شراكة الشركة مع مايكروسوفت تنحرف عن المبادئ الأساسية لتطوير الذكاء الاصطناعي مفتوح المصدر لصالح البشرية. خلال هذه الدعوى، كشف ماسك عن خطط لجعل برنامج Grok مفتوح المصدر.

شاركها.
اترك تعليقاً

Exit mobile version