أعلنت شركة الذكاء الاصطناعي "Anthropic" عن إطلاق إصدارٍ جديد من نموذج "Claude AI" إلى جانب النسخة التجريبية المخصّصة للمطورين، في 22 أكتوبر.
ستسمح النسخة التجريبية للمطورين العاملين مع واجهة برمجة التطبيقات (API) بتمكين "Claude" من السيطرة على مؤشر الفأرة، والنقر على الأزرار والحقول، وإدخال النصوص في بيئة الحاسوب الخاصّة بالمستخدم بشكلٍ مُستقل.
وتُظهر الفيديوهات التوضيحية لوظائف "Claude" على الحاسوب، قدرة الآلة على التنقل بين نوافذ متعددة، وفتح علامات تبويب جديدة للبحث عن المعلومات، ونقل البيانات من نافذة إلى أخرى.
التحكم في الحاسوب
في النموذج الحالي، تتفاعل نماذج الذكاء الاصطناعي الشهيرة، مثل "Claude" من "Anthropic" و"ChatGPT" من "OpenAI" مع المستخدمين، من خلال نافذة واجهة مخصصة. ويُمكن لبعض النماذج إجراء عمليّات بحث محدودة على الويب ضمن إطار واجهتها. ومع ذلك، تقتصر التفاعلات الخارجية عادةً على السماح للمستخدمين بتحميل الوثائق لتحليلها بواسطة الذكاء الاصطناعي.
أمّا مع النسخة التجريبية الجديدة من "Anthropic"، فتأمل الشركة أن يكون بإمكان المطورين أتمتة أيّ وظيفة يُمكن أن يؤديها إنسان يجلس أمام محطة عمل. ووفقاً لتدوينة الشركة:
"يُمكن للمطوّرين توجيه "Claude" لاستخدام الحواسيب كما يفعل الناس - من خلال النظر إلى الشاشة، وتحريك المؤشر، والنقر على الأزرار، وكتابة النصوص. ويعدّ Claude 3.5 Sonnet أول نموذج ذكاء اصطناعي قادر على استخدام الحاسوب في النسخة التجريبية العامة. وفي هذه المرحلة، لا تزال النسخة تجريبية — وأحياناً ما تكون عرضة للأخطاء."
تجدر الإشارة إلى أن النسخة التجريبية مُتاحة فقط للمطورين، من خلال واجهة Claude API. ومع ذلك، تقول "Anthropic" إنها ستطلقها مُبكراً للحصول على تعليقاتٍ من المطوّرين. وتتوقع الشركة أن "تتحسّن الميّزة بسرعة مع مرور الوقت."
الخصوصية والأمان
ناقشت "Anthropic" بعض مخاوف الخصوصية والأمان في التدوينة، وأشارت إلى أنه "نظراً لأن استخدام الحاسوب قد يوفّر قناة جديدة لتهديداتٍ مألوفة، مثل الرسائل غير المرغوب فيها، والمعلومات المضللة، أو الاحتيال"، فإن الشركة تتبنى "نهجاً استباقياً لتعزيز نشرها الآمن" والذي يُمكّنها من التعرف على متى يتم استخدام الحاسوب بشكلٍ غير صحيح.
المزيد على كوينتيليغراف عربي: 'Mental Outlaw': الصين لم تكسُر خوارزميات التشفير بعد