من المقرَّر أن يتوسَّع معهد سلامة الذكاء الاصطناعي في المملكة المتحدة دولياً بموقع جديد في الولايات المتحدة.

في 20 مايو، أعلنت ميشيل دونيلان، وزيرة التكنولوجيا في المملكة المتحدة، أنَّ المعهد سيفتتح أوَّلَ مكتبٍ له في الخارج في سان فرانسيسكو في الصيف.

جاء في الإعلان أنَّ الاختيارَ الاستراتيجي للمكتب في سان فرانسيسكو سيسمح للمملكة المتحدة "بالاستفادة من ثروة المواهب التقنية المتاحة في منطقة الخليج"، إلى جانب التعامل مع أحد أكبر مختبرات الذكاء الاصطناعي في العالم الواقعة بين لندن وسان فرانسيسكو.

بالإضافة إلى ذلك، قال الإعلان إنَّ هذه الخطوة ستساعد على "تعزيز" العلاقات مع اللاعبين الرئيسين في الولايات المتحدة للضغط من أجل السلامة العالمية للذكاء الاصطناعي "من أجل المصلحة العامة".

لدى فرع لندن لمعهد سلامة الذكاء الاصطناعي مسبقاً فريقٌ مكوَّن من 30 شخصاً على مسار التوسُّع واكتساب المزيد من الخبرة، لا سيما في تقييم المخاطر لنماذج الذكاء الاصطناعي المتقدِّمة.

كما قالت دونيلان إنَّ التوسُّع يمثِّلُ قيادةَ المملكة المتحدة ورؤيتها لسلامة الذكاء الاصطناعي في العمل:

"إنَّها لحظة محورية في قدرة المملكة المتحدة على دراسة كل من مخاطر وإمكانات الذكاء الاصطناعي من منظور عالمي، وتعزيز شراكتنا مع الولايات المتحدة وتمهيد الطريق أمام البلدان الأخرى للاستفادة من خبرتنا في حين نواصل قيادةَ العالم في مجال سلامة الذكاء الاصطناعي".

يأتي ذلك بعد قمة سلامة الذكاء الاصطناعي التاريخية في المملكة المتحدة، والتي عُقدت في لندن في نوفمبر 2023. كانت القمة الأولى من نوعها التي تركز على سلامة الذكاء الاصطناعي على نطاق عالمي.

المزيد على كوينتيليغراف عربي: 'مايكروسوفت' تُواجه غرامة بمليارات الدولارات في الاتحاد الأوروبي بسبب روبوت 'Bing AI'

تباهى الحدثُ بقادةٍ من جميع أنحاء العالم، بما في ذلك من الولايات المتحدة والصين، وبأصوات رائدة في مجال الذكاء الاصطناعي، بما في ذلك رئيس ’مايكروسوفت‘، براد سميث، والرئيس التنفيذي لشركة ’أوبن إيه آي‘، سام ألتمان، والرئيس التنفيذي لشركة ’غوغل ديب مايند‘، ديميس هاسابيس، وإيلون ماسك.

وفي هذا الإعلان الأخير، قالت المملكة المتحدة أيضاً إنَّها ستصدر مجموعةً مختارة من النتائج الأخيرة للمعهد من اختبار السلامة الذي أجراه على خمسة نماذج ذكاء اصطناعي متقدمة متاحة للجمهور.

وقد أخفت هويةَ النماذج، وقالت إنَّ النتائج توفِّر "نظرة سريعة" على قدرات النماذج بدلاً من تصنيفها على أنَّها "آمنة" أو "غير آمنة".

تضمَّن جزءٌ من النتائج أنَّ العديدَ من النماذج يمكن أن تكملَ تحديات الأمن السيبراني، بالرغم من أنَّ البعض الآخر عانى من تحديات أكثر تقدُّماً. كما وُجدَ أنَّ العديد من النماذج لديها معرفةٌ على مستوى الدكتوراه في الكيمياء والبيولوجيا.

خلصُ الإعلانُ إلى أنَّ جميع النماذج التي جرى اختبارُها كانت "ضعيفة بشدة" أمام عمليات كسر القيود الأساسية، وأنَّ النماذج التي جرى اختبارُها لم تكن قادرةً على إكمال المزيد من "المهام المعقَّدة والمستهلِكة للوقت" دون إشراف بشري.

ومن جهته قال إيان هوغارث، رئيس المعهد، إنَّ هذه التقييمات ستساعد في إجراء تقييم تجريبي لقدرات النماذج.

"ما تزال سلامة الذكاء الاصطناعي مجالاً حديثاً وناشئاً. إذ تمثِّل هذه النتائج جزءاً صغيراً فقط من نهج التقييم الذي يطوره المعهد".

المزيد على كوينتيليغراف عربي: مركز أبحاث الذكاء الاصطناعي في أبوظبي يطلق نماذج ’فالكون 2‘ لمنافسة ’ميتا‘ و’غوغل‘

Translated by Albayan Gherra
ترجمة البيان غره