نشرت جامعة فرجينيا للتكنولوجيا تقريراً يُسلّط الضوء على التحيزات المُحتملة لأداة الذكاء الاصطناعي ChatGPT، حيث اختلفت مخرجات روبوت الدردشة أثناء حديثه عن قضايا العدالة البيئية باختلاف المقاطعات.
في التقرير، زعم باحثون من جامعة فرجينيا للتكنولوجيا أن "ChatGPT" يخضع لبعض القيود التي تؤثر على مُخرجاته المبنية على المناطق الجغرافية فيما يتعلق بقضايا العدالة البيئية.
ومع ذلك، أشارت الدراسة إلى أن المعلومات كانت متاحة بسهولة أكبر للولايات الأكبر والأكثر اكتظاظاً بالسكان.
"في الولايات التي تضم عدداً أكبر من السكان الحضريين، مثل ديلاوير أو كاليفورنيا، كان أقل من 1 في المائة من السكان غير قادرين على الوصول إلى معلومات محددة."
وفي الوقت نفسه، كانت المناطق ذات الكثافة السكانية الأقل تفتقر إلى إمكانية الوصول المتكافئ، حيث ذكر التقرير أنه "في الولايات الريفية، مثل أيداهو ونيو هامبشاير، كان أكثر من 90 في المائة من السكان غير قادرين على تلقي معلومات محلية محددة".
كما استشهد التقرير بمحاضر يُدعى "كيم" من قسم الجغرافيا في جامعة فرجينيا للتكنولوجيا، وحثّ على إجراء المزيد من الأبحاث بعد اكتشاف التحيزات.
وعلّق "كيم" قائلاً: "في حين أن هناك حاجة إلى إجراء مزيدٍ من الدراسات، تشير النتائج التي توصلنا إليها إلى وجود تحيزاتٍ جغرافية في نموذج ChatGPT الحالي".
تضمنت الورقة البحثية أيضاً خريطةً توضح نسبة سكان الولايات المتحدة الذين لا يمكنهم الوصول إلى معلومات دقيقة بناءً على المواقع الجغرافية فيما يتعلق بقضايا العدالة البيئية.

يأتي هذا التقرير في أعقاب الأخبار الأخيرة التي تُفيد بأن العلماء يدرسون التحيزات السياسية المُحتملة التي أظهرها "ChatGPT" في الآونة الأخيرة.
مقالات ذات صلة: 'OpenAI' تدخل في شراكة مع 'Axel Springer' لمعالجة هلوسات الذكاء الاصطناعي
ففي 25 أغسطس، أفاد فريق "كوينتيليغراف" أن باحثين من المملكة المتحدة والبرازيل نشروا دراسة تُشير إلى أن النصوص التي تُنتجها نماذج اللغة الكبيرة، مثل "ChatGPT"، تحتوي على أخطاء وتحيزات يُمكن أن تضلل القراء.
مقالات ذات صلة: روبوت تسلا البشري أصبح الآن أسرع بنسبة 30٪ وأخف وزناً بمقدار 22 رطلاً