أثارت إمكانية اساءة استخدام الذكاء الاصطناعي المخاوف مرةً أخرى بين أعضاء مجلس الشيوخ الأمريكي وخبراء القطاع. إلا أن هذه المرة كانت مُختلفة تماماً، فقد تركزت المخاوف على الخطر المُحتمل الذي تُشكله قدرة الذكاء الاصطناعي على تنسيق هجوم بيولوجي خطير.

في جلسة استماعٍ عقدتها مؤخراً لجنةٌ فرعية تابعة للجنة القضائية بمجلس الشيوخ الأمريكي، سلط داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك المُتخصصة بتطوير أدوات الذكاء الاصطناعي، الضوء على العلاقة المحفوفة بالمخاطر بين الذكاء الاصطناعي و القدرة على تطوير الأسلحة البيولوجية.

ووفقاً لتقريرٍ نشرته وكالة الأنباء "رويترز" في الخامس والعشرين من يوليو، فقد أشار أمودي من خلال حديثة إلى أن هنالك مراحلاً معينةً في عملية تصنيع الأسلحة البيولوجية تتطلب معلوماتٍ غير متاحة على المنصات التقليدية مثل جوجل أو في الكتب المدرسية، يُمكن لأدوات الذكاء الاصطناعي الحالية المساعدة فيها.

وعلق أمودي قائلاً: "إن تمكين العديد من الجهات الفاعلة السيئة من تنفيذ هجمات بيولوجية واسعة النطاق يُمثل تهديداً خطيراً للأمن القومي الأمريكي."

إلا أن أمودي أوضح أن الذكاء الاصطناعي، حتى هذه اللحظة، يفتقر إلى القدرة على بناء سلاح بيولوجي بشكلٍ مستقل، وبالتالي يُمكن تصنيف هذه القضية على أنها خطر "متوسط الأجل".

ومن جانبه أكد عضو الحزب الجمهوري، السناتور جوش هاولي، على  أهمية الالتزام بتنفيذ الإجراءات الاحترازية لضمان استفادة الشعب الأمريكي من هذه التكنولوجيا المُتطورة، بدلاً من أن تُشكل مصدر تهديدٍ لهم." 

مقالات ذات صلة: هيئة الرقابة المالية في المملكة المتحدة تحذر من سوء استخدام الذكاء الاصطناعي

عُقدت جلسة الاستماع هذه بعد فترةٍ وجيزة من تعهّد شركات الذكاء الاصطناعي البارزة، مثل OpenAI و Alphabet و Meta Platforms طواعيةً بالالتزام بالإجراءات الاحترازية أمام البيت الأبيض. وقد تضمنت الإجراءات عدداً من  التدابير الوقائية، مثل وضع علامة مائية على المحتوى الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي، بهدف تعزيز أمن وسلامة المجتمع من خلال فرض المساءلة على قطاع الذكاء الاصطناعي.