علوم

العنصرية.. داء بشري يغذي خوارزميات الذكاء الاصطناعي

العنصرية.. داء بشري يغذي خوارزميات الذكاء الاصطناعي

خلال الأعوام الماضية بدأ الذكاء الاصطناعي بلعب دور مهم في عالم التكنولوجيا، لكنه بات مصحوبا بمخاوف وتحذيرات منها أمنية، إلى جانب السلوك العنصري الذي بدأت ملامحه تطفو إلى السطح.

ومع انتشار استخدام الذكاء الاصطناعي في جميع أنحاء العالم، عاد الحديث مجدداً عن عنصرية الخوارزميات التي يتضمنها، وتأثرها بالعامل البشري.

خبير الذكاء الاصطناعي، عضو هيئة التدريس في كلية الطب بجامعة “جراح باشا إسطنبول” التركية مراد كيرشجي، يقول إن العامل البشري يفرض سلوكيات عنصرية على خوارزميات الذكاء الاصطناعي.

ويضيف كيرشجي في حديثه للأناضول، أن “خوارزميات الذكاء الاصطناعي المستخدمة في مجالات مختلفة يمكن أن تقدّم للمستخدم نتائج عنصرية قائمة على التمييز بين البشر”.

أصحاب البشرة السمراء

ومثالا على ذلك، يوضح: “ذات مرة، عندما كتبت كلمة ape (قرد) في أحد محركات البحث على الشبكة العنكبوتية (الإنترنت)، ظهرت صورة الرئيس الأمريكي السابق باراك أوباما وأفراد عائلته”.

ويؤكد الخبير أن “الذكاء الاصطناعي المستخدم في مجال القانون، يربط الناس أصحاب البشرة السمراء أكثر بعناصر الجريمة”.

وقد تم الكشف مؤخّرًا، وفق المتحدث، عن أن “الذكاء الاصطناعي الذي تستخدمه هولندا في منح تأشيرات الدخول، يقوم بارتكاب جريمة التمييز بين البلدان والأفراد، وحتى الجنس”.

ويذكر كيرشجي أن “العنصرية في خوارزميات الذكاء الاصطناعي تعكس مناهج المبرمجين، أو فهم المجتمع الذي تم تصميم التطبيقات فيه”.

ويضيف أن “الإنسان هو الكائن الوحيد الذي يقوم بتنظيم وبناء هذه العملية برمتها، ويجعل الآلات تتصرف بهذه الطريقة”.

ويلفت المتحدث إلى أنه “ليس من الممكن دائمًا تحديد المكان الذي تعلم فيه الذكاء الاصطناعي هذه السلوكيات العنصرية أو التمييزية”.

ويتساءل: “من يعلّم العنصرية للذكاء الاصطناعي؟ من صممه أم من استخدمه؟ أم من أجرى عليه بعض اللمسات النهائية؟ هناك هيكلية غامضة وراء كل ما سبق”.

ويتابع: “تابعنا المناقشات الجادة في العالم حول الذكاء الاصطناعي وبنية القانون منذ التسعينات، حيث يتم اعتماد بعض اللوائح القانونية في الواقع لجعل النخب بريئة من حرب الهيمنة الكبرى المطلوب خوضها”.

ويصف ذلك بأنه “عملية قانونية تجبرنا على القتال بجهاز لا يمكننا أبدًا الحصول على رد منه عندما نواجه مشكلة، فلماذا تميز الآلة بين الأسود والأبيض؟ إن من يقوم بهذا السلوك هو في الواقع شخص يتخفى وراء الآلة”.

العنصرية نتيجة التقليد

ويعرّف كيرشجي الذكاء الاصطناعي بأنه “إدخال الذكاء البيولوجي لأجهزة الكمبيوتر أو الروبوتات أو العالم الرقمي، وتمكينهم من تقليده”.

ويشدّد على أن “العنصرية هي نتيجة لهذا التقليد، وليس من المنطقي أن تطوّر الآلة سلوكًا عنصريًا تجاه أي مجموعة من الناس بمفردها”.

ويشير إلى أن “الآلة تصبح قادرة على اتخاذ القرارات ومتابعة العمليات، وتصبح قادرة على تشغيل وظائفها الخاصة عند الضرورة، خلال تعلمها لمحاكاة العمل الذي يقوم به الإنسان”.

وعن قدرات أنظمة الذكاء الاصطناعي، يقول إن تلك الأنظمة “تتمتع بقدرة على العمل بشكل مستقل عن البشر، بل وتنتج طاقتها الخاصة وتحمي نفسها من خلال التفكير بإمكانية أن يقوم أحد ما بفصلها عن مورد الطاقة”.

ويشدد كيرشجي على أن “الآلات ستظل دائمًا أقل قدرة من الكائنات البيولوجية، رغم توفيرها حاليًا نتائج أفضل بكثير من البشر في بعض المناطق”.

ويذكر أن أحد التعريفات الأكثر مثالية للتكنولوجيا هو “التكنولوجيا التي يتم إنشاؤها باستخدام أقل قدر من التكنولوجيا”.

كيرشجي يؤكّد على أن “تطور صناعة الآلات والتكنولوجيا الرقمية، يحمل في طيّاته فرصًا كبيرة ومخاطر كبيرة أيضًا”.

وفيما يتعلق بالتفاعل الإيجابي، يوضح: “يمكن تحقيق نتائج رائعة عندما يتم تحقيق التفاعل الصحيح مع الآلات، قد تنشأ مخاطر أيضًا عندما لا يتم إعداد التفاعل بشكل صحيح”.

ويكمل أن “هذا الخطر قد يهدد الوجود البشري والطبيعة، لذلك لسنا الوحيدين المعرضون للخطر، بل الطبيعة معرضة للخطر أيضًا”.

ويختم بالقول: “كل نوع من التكنولوجيا له إيجابياته وسلبياته، فعلى سبيل المثال، نحن بحاجة دائمة للطاقة الكهربائية، لكن الإنتاج غير المنضبط لهذه الطاقة يشكل خطرًا على الجميع”.

الحرب كذلك

استخدامات الذكاء الاصطناعي انتشرت في أكثر من مجال وقطاع، وتمكنت شركات التكنولوجيا من استقطاب 50 مليار دولار من الاستثمارات في العام 2023، بنمو فاق 70 بالمئة خلال الأعوام الخمسة الأخيرة.

ولم تسلم حتى الحروب من استخداماته، حيث حولت إسرائيل قطاع غزة إلى ميدان تجارب لاستخدامات الذكاء الاصطناعي في الحرب، حينما ضاعفت عدد الأهداف التي ضربتها في القطاع باستخدام الذكاء الاصطناعي.

ووفق الباحثة الفلسطينية العاملة بمجال أخلاقيات الذكاء الاصطناعي نور نعيم، في مقابلة سابقة مع الأناضول، فإن إسرائيل ضربت 15 ألف هدف باستخدام تقنية الذكاء الاصطناعي المسماة “غوسبيل”، في أول 35 يوما من حربها المتواصلة على غزة منذ 7 أكتوبر/تشرين الأول 2023.

وأشارت نعيم إلى أن هذا الرقم أعلى بكثير من عدد الأهداف التي ضُربت في العمليات السابقة بالمنطقة، حيث ضربت إسرائيل قرابة 6 آلاف هدف خلال حربها على غزة عام 2014 التي استمرت لمدة 51 يوما.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

تابع آخر الأخبار من مدار21 على WhatsApp تابع آخر الأخبار من مدار21 على Google News