دعا الأمين العام للأمم المتحدة أنطونيو غوتيريش إلى استراتيجية عالمية موحدة للتصدي لمخاطر الذكاء الاصطناعي تقوم على التعددية ومشاركة جميع أصحاب المصلحة، بهدف التعامل مع المخاطر الناجمة عن ظهور تقنيات الذكاء الاصطناعي.
وأبرز غوتيريش خلال قمة حول أمن الذكاء الاصطناعي عقدت في لندن، السرعة والانتشار “غير المسبوقين” لتكنولوجيا الذكاء الاصطناعي، مشيرا إلى أن الفجوة بين الذكاء الاصطناعي وحوكمته واسعة ومتنامية.
وقال إن المخاطر المرتبطة بالذكاء الاصطناعي كثيرة ومتنوعة ومثلها مثل الذكاء الاصطناعي نفسه، فإنها لا تزال في طور الظهور وتتطلب حلولا جديدة.
وأكد على ضرورة أن تستند مبادئ إدارة الذكاء الاصطناعي إلى مـيثاق الأمم المتحدة والإعلان العالمي لحقوق الإنسان، مشددا على الحاجة الماسة إلى دمج هذه المبادئ في سلامة الذكاء الاصطناعي.
وسلط الأمين العام الضوء على ثلاثة مجالات قال إنه يتعين العمل عليها:
أولا، قال غوتيريش إننا بحاجة ماسة إلى أطر عمل للتعامل مع المخاطر التي ظهرت مع إطلاق نماذج قوية للذكاء الاصطناعي، خلال العام الماضي، حتى يكون المطورون والجمهور آمنين ويمكنهم الثقة في الذكاء الاصطناعي.
المجال الثاني، يتعلق بالعواقب السلبية المحتملة للذكاء الاصطناعي على المدى الطويل. وتشمل هذه الاضطرابات في أسواق العمل والاقتصادات، وفقدان التنوع الثقافي الذي يمكن أن ينجم عن الخوارزميات التي تكرّس التحيزات والقوالب النمطية.
ولفت الأمين العام الانتباه إلى إمكانية أن يؤدي تركيز الذكاء الاصطناعي في حفنة من البلدان والشركات إلى زيادة التوترات الجيوسياسية.
وتمتد الأضرار طويلة المدى إلى التطوير المحتمل لأسلحة جديدة خطيرة تعتمد على الذكاء الاصطناعي والجمع “الخبيث” بين الذكاء الاصطناعي والتكنولوجيا الحيوية والتهديدات التي تتعرض لها الديمقراطية وحقوق الإنسان من المعلومات المضللة المدعومة بالذكاء الاصطناعي،
وقال غوتيريش إننا بحاجة إلى أطر لرصد وتحليل هذه الاتجاهات بهدف منعها.
أما مصدر القلق الثالث، وفقا للأمين العام، فهو أنه في غياب اتخاذ إجراءات فورية، فإن الذكاء الاصطناعي سوف يؤدي إلى تفاقم التفاوتات الهائلة التي ابتلي بها عالمنا بالفعل. وحذر من أن هذا الأمر لم يعد خطرا بل هو حقيقة واقعة.
واستجابة لهذه المجالات الثلاثة المثيرة للقلق، قام مختلف أصحاب المصلحة بتطوير أكثر من 100 مجموعة من المبادئ الأخلاقية للذكاء الاصطناعي.
وقال إن هناك اتفاقا واسع النطاق على أن تطبيقات الذكاء الاصطناعي يجب أن تكون موثوقة وشفافة وخاضعة للمساءلة، ويشرف عليها البشر، وقابلة للإغلاق.
وأكد أننا بحاجة إلى إجراء محادثة مستدامة ومنظمة حول المخاطر والتحديات والفرص.
وفي الأسبوع الماضي، أطلق الأمين العام هيئة استشارية رفيعة المستوى بشأن الذكاء الاصطناعي، تجمع بين الخبرات العالمية من الحكومات وقطاع الأعمال ومجتمع التكنولوجيا والمجتمع المدني والأوساط الأكاديمية.
previous post