أصدر خبراء تكنولوجيا بارزون من شتى أنحاء العالم بياناً حذروا فيه من مخاطر التكنولوجيا الذكاء الاصطناعي، وقالوا إن هذه التكنولوجيا يجب أن تُعامل معاملة المخاطر الوجودية، وأن تُقدَّم في الأهمية لتصبح من فئة قضايا الأوبئة والحروب النووية، حسب ما نشرته صحيفة The Guardian البريطانية.
وصدر البيان، الذي وقعه مئات من المديرين التنفيذيين والأكاديميين، عن “مركز أمان الذكاء الاصطناعي” (CAIS) يوم الثلاثاء 30 مايو/أيار، وسط مخاوف متزايدة بشأن ضعف القيود التنظيمية المفروضة على استخدام الذكاء الاصطناعي، والمخاطر التي تشكلها هذه التكنولوجيا على البشرية.
وجاء في البيان أن “احتواء مخاطر الانقراض المحتمل نشوؤها عن الذكاء الاصطناعي يجب أن تكون قضية ذات اهتمام عالمي، وأن تُدرج إلى جانب المخاطر الكبرى على الاجتماع البشري، مثل الأوبئة والحرب النووية”.
وقد شملت قائمة الموقعين على البيان: الرؤساء التنفيذيين لشركة “ديب مايند” DeepMind البريطانية التابعة لشركة جوجل؛ وشركة “أوبن إيه آي” OpenAI الأمريكية المبتكِرة لتطبيق ChatGPT؛ وشركة “أنثروبك” Anthropic الأمريكية الناشئة التي تعمل في مجال الذكاء الاصطناعي.
يأتي ذلك فيما حثَّ زعماء عالميون وخبراء في تكنولوجيا الذكاء الاصطناعي -مثل رؤساء شركة “أوبن إيه آي”- على فرض قيود تنظيمية لاستخدام هذه التقنيات بسبب المخاوف الوجودية من تداعيات كبيرة لها على أسواق العمل وفقدان آلاف الناس لوظائفهم، وإضرار بصحة ملايين البشر، وتحويل المعلومات المضللة والتمييز وانتحال الهوية إلى أسلحة يسيرة الاستخدام.