في تحول لافت عن مواقف سابقة، تجنّب قادة مجموعة الدول السبع خلال قمتهم الأخيرة في كندا استخدام لغة قوية بشأن سلامة الذكاء الاصطناعي والمخاطر المتزايدة المرتبطة بتطويره.
وبدلاً من التأكيد على الجوانب التنظيمية والتحذيرات المتعلقة بالأمن والتأثيرات المجتمعية، انصبّ تركيز البيان الختامي على تعظيم الفرص الاقتصادية وتعزيز الابتكار، في موقف يعكس تراجعًا ملحوظًا عن مسار حذر اعتمدته المجموعة العام الماضي.
وشدد البيان الذي حمل عنوان “الذكاء الاصطناعي من أجل الرخاء”، على ضرورة “تعزيز الابتكار وتبني الذكاء الاصطناعي الآمن والمسؤول والجدير بالثقة”، لكنه امتنع عن الإشارة إلى أي التزامات واضحة بشأن تنظيم أو تقنين تطوير الذكاء الاصطناعي، مكتفيًا بدعوات فضفاضة لتفادي “الآثار السلبية الخارجية” وتعزيز الأمن القومي.
ويأتي هذا التحوّل بعد عام واحد فقط من إطلاق ما عُرف بـ”عملية هيروشيما للذكاء الاصطناعي” خلال قمة مجموعة السبع في اليابان، حين وقّع القادة على بيان حاسم يعترف صراحةً بـ”الحاجة إلى إدارة المخاطر” و”إبقاء الإنسان في مركز العملية التكنولوجية”.
وقد رافق تلك القمة ميثاق سلوك طوعي وقّعته الشركات المطوّرة لأحدث النماذج مثل GPT-4 وClaude وGemini، لكن هذا الميثاق لم يُذكر سوى مرة واحدة في مسودة بيان القمة الحالية.
ويعكس هذا الانحراف في الخطاب اتجاهاً واضحاً نحو تغليب منطق المنافسة التكنولوجية والاقتصادية على حساب الدعوات لضبط المخاطر.
ويرى مراقبون أن هذا التغير مرتبط بتسارع السباق العالمي لتطوير الذكاء الاصطناعي، والذي تقوده الولايات المتحدة والصين، مع دخول أوروبا على الخط من خلال قوانين تحاول فرض معايير أخلاقية وتنظيمية.
التحوّلات السياسية الأمريكية لعبت دورًا في هذا التراجع. ففي يناير/كانون الثاني الماضي، ألغى الرئيس الأمريكي دونالد ترامب أمرًا تنفيذيًا كان قد صدر في عهد جو بايدن، يدعو لتطوير الذكاء الاصطناعي “الآمن والمأمون والجدير بالثقة”.
وهذا القرار اعتُبر بمثابة صفعة للجهود الأوروبية الرامية إلى تنظيم الذكاء الاصطناعي عبر “قانون الذكاء الاصطناعي” الأوروبي، الذي يسعى لوضع حدود صارمة على استخدامات النماذج الخطرة.
وخلال قمة باريس حول الذكاء الاصطناعي في فبراير/شباط الماضي، عبّر نائب الرئيس الأمريكي جيه دي فانس بوضوح عن موقف واشنطن الرافض لما اعتبره “تنظيمًا متشددًا” من قبل الاتحاد الأوروبي، ودعا إلى إبطاء أو وقف تشريع القانون الأوروبي لحين التوصل إلى توافق دولي أوسع.
وبينما استمر القادة الأوروبيون في التعبير عن قلقهم من استخدامات الذكاء الاصطناعي في التضليل والانتهاكات الحقوقية، سادت في قمة كندا لغة أكثر تساهلًا، وسط غياب واضح لأي إجراءات أو تعهدات ملموسة بشأن مراقبة وتقييم آثار استخدام الذكاء الاصطناعي في المجالات الحساسة مثل الأمن القومي، والعمل، والعدالة، وحقوق الإنسان.
حتى على مستوى الرمزية، تغيّر الخطاب داخل بعض الدول الغربية. ففي بريطانيا، قررت الحكومة في فبراير الماضي تغيير اسم “معهد سلامة الذكاء الاصطناعي” إلى “معهد أمن الذكاء الاصطناعي”، في إشارة واضحة إلى تحوّل التركيز من المفاهيم الأخلاقية والإنسانية إلى أولويات أكثر صلة بالأمن القومي والمنافسة العالمية.
ورغم أن القمة اعترفت بأن الذكاء الاصطناعي يتطلب “كميات هائلة من الطاقة”، وناقشت جانبًا من التكاليف البيئية المرتبطة به، فإن هذه النقاشات لم تنعكس في البيان الختامي بأي صورة تشير إلى استعداد فعلي لمعالجة هذه التداعيات.
هذا التراخي في التطرق إلى المخاطر لا يقتصر على مجموعة السبع فقط، بل يتماشى مع اتجاه عالمي عام بدأ يتخلى تدريجيًا عن التركيز على الضوابط والمخاوف الأخلاقية لصالح أهداف استراتيجية وتجارية، في وقت يزداد فيه اعتماد الحكومات والشركات على هذه التقنية في ميادين كالدفاع والاقتصاد والتعليم والرعاية الصحية.
وبينما لا تزال الدعوات لفرض أطر تنظيمية ملزمة تتردد في أروقة الأمم المتحدة والاتحاد الأوروبي، يظهر بوضوح أن مجموعة السبع – التي تمثل القوى الصناعية الكبرى في العالم – اختارت في هذه المرحلة تأجيل أو تخفيف نقاشات الحوكمة والسلامة، مفضّلة المضي قدمًا في مسار تسريع التبني والابتكار، ولو على حساب الحذر.