أعلنت شركة الذكاء الاصطناعي Anthropic عن إطلاق أحدث إصدارات روبوتات الدردشة خاصتها، وسط انتقادات تتعلق بسلوك النموذج التجريبي الذي قد يُبلغ السلطات عن بعض المستخدمين تلقائيًا.
وكشفت الشركة في 22 مايو عن نموذج Claude Opus 4 ونموذج Claude Sonnet 4، مشيرة إلى أن Opus 4 هو أقوى نموذج طورته حتى الآن، واصفة إياه بأنه "أفضل نموذج برمجة في العالم"، في حين يُمثل Sonnet 4 ترقية كبيرة عن سابقه، مع أداء متفوق في مجالات البرمجة والاستدلال المنطقي.
وأضافت الشركة أن كلا النموذجين يقدمان وضعين: استجابات فورية تقريبًا، ووضع التفكير المتعمق لمهام التحليل والاستدلال المعقدة.
كما أوضحت أن النموذجين قادران على التبديل بين مهام التفكير، والبحث، واستخدام الأدوات مثل البحث عبر الإنترنت، بهدف تحسين جودة الردود.
وأشارت إلى أن Claude Opus 4 يتفوق على النماذج المنافسة في اختبارات البرمجة التفاعلية، كما يمكنه العمل لساعات متواصلة على مهام معقدة وطويلة الأمد، مما "يوسّع بشكل كبير قدرات وكلاء الذكاء الاصطناعي".
وذكرت الشركة أن النموذج حقق نتيجة 72.5% في اختبار صارم للهندسة البرمجية، متفوقًا على نموذج GPT-4.1 من OpenAI، الذي سجل 54.6% بعد إطلاقه في أبريل.
معايير أداء Claude v4. المصدر: Anthropic
شهد عام 2025 تحولًا كبيرًا في الصناعة نحو ما يُعرف بـ "نماذج الاستدلال"، والتي تحاول التفكير بشكل منهجي قبل الرد. بدأت OpenAI هذا التحول في ديسمبر الماضي مع سلسلة النماذج "o"، تبعتها Google بإطلاق Gemini 2.5 Pro وقدراته التجريبية "Deep Think".
Claude يبلّغ عن إساءة الاستخدام في بيئة الاختبار
أول مؤتمر للمطورين نظمته Anthropic في 22 مايو تعرّض لتغطية سلبية بعد الكشف عن خاصية في نموذج Claude Opus 4، والتي قد تُبلغ السلطات تلقائيًا في حال رصد "سلوك غير أخلاقي بشكل صارخ"، وفقًا لتقرير نشرته VentureBeat.
وأشار التقرير إلى منشور على منصة X من الباحث في مجال توافق الذكاء الاصطناعي سام بومان، قال فيه إن النموذج قد يستخدم أدوات سطر الأوامر لـ"الاتصال بالصحافة، أو الجهات التنظيمية، أو محاولة منعك من استخدام الأنظمة ذات الصلة، أو جميع ما سبق".
إلا أن بومان عاد لاحقًا وحذف التغريدة قائلاً إنها "أُخرجت من سياقها"، موضحًا أن هذا السلوك حدث فقط "في بيئات اختبارية حيث يتم منح النموذج وصولًا غير اعتيادي إلى الأدوات وتعليمات غير معتادة".
المصدر: Sam Bowman/X
وفي رد فعل قوي، قال المدير التنفيذي لشركة Stability AI، عماد مصطفيق، مخاطبًا فريق Anthropic:
"هذا السلوك خاطئ تمامًا، وعليكم إيقافه فورًا. إنه خيانة جسيمة للثقة ومنحدر خطير."