تكنولوجيا

عرضت بيانات شخصية خاصة.. هل تُهدّد روبوتات الدردشة باقتحام خصوصية مستخدمي الإنترنت؟

عرضت بيانات شخصية خاصة.. هل تُهدّد روبوتات الدردشة باقتحام خصوصية مستخدمي الإنترنت؟

إثر انتشارها الواسع، تثير روبوتات الدردشة المدعومة بالذكاء الاصطناعي مخاوف بشأن المعلومات الخاطئة والمضلّلة وسرقة الأعمال المنشورة ونشر البرامج الضارة، ولكن هل يمكن أن تسبّب مشاكل على خصوصية مستخدم الإنترنت العادي؟

وفقاً للخبراء، فالإجابة عن هذا السؤال تتعلق إلى حد كبير بكيفية تدريب هذه الروبوتات ومدى التفاعل معها، وفق تقرير لموقع “إن غادجت”.

ويؤكد التقرير أنّه يتم تدريب روبوتات الدردشة بالذكاء الاصطناعي على كميات ضخمة من البيانات من أجل خلق التفاعلات الشبيهة بالبشر، لكن جزءا كبيرا من هذه البيانات جاء من مواقع مثل “Common Crawl“، التي جمعت البيانات المتاحة على الويب على مدى سنوات.

ورغم أن “شات جي بي تي” و”بارد” (Bard) وغيرهما يستخدمون ما يسمونه الجزء “المفلتر” من بيانات “Common Crawl“، إلا أن الحجم الهائل للنموذج يجعل من المستحيل على أي شخص البحث في البيانات وتأكيدها.

وقد يكون من الصعب على النماذج الوصول إلى المعلومات الشخصية للمستخدم العادي ما لم تكن معلوماته عامة، لكن ديف لي، كاتب في “بلومبرغ”، نشر على “تويتر” أن “شات جي بي تي” قدّم رقم هاتفه لأحد الأشخاص بعد أن طلب منه ذلك. ومن المحتمل أن يكون هذا النوع من التفاعل حالة استثنائية، لكن المعلومات التي يمكن لنماذج التعلم هذه الوصول إليها لا تزال تستحق الدراسة.

وأوضح ديفيد هولزر العامل في منظمة الأمن بمعهد “SANS” لموقع “إن غادجت”: “من غير المحتمل أن ترغب شركة “أوبن إي آي” (المطوّرة لـ”شات جي بي تي”) في جمع معلومات محددة مثل بيانات الأفراد من أجل تدريب نماذجها. ولكن هل يمكن أن يكون هناك مواد من هذا القبيل عن غير قصد؟ طبعاً”.

ولم تعلق “أوبن إي آي” على الموضوع، لكن “شات جي بي تي” قال إنه “تمت برمجته لاتباع المعايير الأخلاقية والقانونية التي تحمي خصوصية المستخدمين ومعلوماتهم الشخصية” وأنه ليس “لديه إمكانية الوصول إلى المعلومات الشخصية ما لم يتم توفيرها له”.

من جانبها، قالت “غوغل” إنها برمجت حواجز حماية مماثلة في نموذجها الخاص “بارد” لمنع مشاركة المعلومات الشخصية أثناء المحادثات.

وفي سياسات الخصوصية الخاصة بـ”شات جي بي تي”، تشير “أوبن إي آي” إلى أنّها لا تبيع أو تشارك أي معلومات يقدّمها المستخدم، لكنّها قد تعتمد على المحادثات لتحسين وتدريب النظام، بحسب “إن غادجت”.

ويتضح أنه من الأفضل التعامل مع هذه الأنواع من روبوتات المحادثة بحذر كأيّ منتج تقني آخر، لكن هذا لا يعني عدم الاعتماد عليها أو الاستفادة منها في بعض المهام، لكن لا يجب جعلها من الأساسيات في حياتنا اليومية.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

تابع آخر الأخبار من مدار21 على WhatsApp تابع آخر الأخبار من مدار21 على Google News