حذّر الرئيس التنفيذي لشركة OpenAI، سام ألتمان، من أن الشركة قد تُجبر قانونيًا على تسليم معلومات ووثائق حساسة يشاركها المستخدمون مع روبوت الدردشة ChatGPT.
وأشار ألتمان خلال مقابلة مع البودكاستر ثيو فون الأسبوع الماضي إلى أن هذه الفجوة في الخصوصية تُعد "مشكلة كبيرة"، مؤكدًا أن المحادثات مع ChatGPT لا تتمتع بالحماية القانونية نفسها التي تحكم المحادثات مع المعالجين النفسيين أو المحامين أو الأطباء.
وقال: "إذا تحدثت مع معالج نفسي أو محامٍ أو طبيب عن مشاكلك، فإن هناك حماية قانونية لتلك المحادثات... ونحن لم نجد بعد طريقة لحماية محادثاتك مع ChatGPT".
وأضاف: "إذا تحدّثت إلى ChatGPT عن أمورك الأكثر حساسية، ثم وقعت دعوى قضائية، فقد يُطلب منا قانونيًا تسليم تلك المحادثات".
وتأتي تعليقات ألتمان وسط تزايد استخدام الذكاء الاصطناعي في تقديم الدعم النفسي والمشورة الطبية والمالية. وقال: "أعتقد أن هذا الوضع معيب للغاية"، مشيرًا إلى أنه "يجب أن تكون لدينا نفس فكرة الخصوصية عند الحديث مع الذكاء الاصطناعي كما هو الحال مع الطبيب النفسي أو أي جهة موثوقة".
غياب إطار قانوني ينظم الذكاء الاصطناعي
كما أشار ألتمان إلى ضرورة وجود إطار سياسي وقانوني واضح لتنظيم الذكاء الاصطناعي، واصفًا المسألة بأنها "إشكالية كبيرة".
وأضاف: "أحيانًا أشعر بالخوف من استخدام بعض أدوات الذكاء الاصطناعي، لأني لا أعلم كم من المعلومات الشخصية يجب أن أشاركها، ولا أعلم من قد يحصل عليها".
وأوضح أنه تحدّث مع عدد من صانعي السياسات الذين يتفقون معه على ضرورة معالجة هذه المسألة بشكل عاجل.
مخاوف أوسع بشأن المراقبة
وأبدى ألتمان مخاوفه من تصاعد وتيرة المراقبة عالميًا مع التوسع المتسارع في استخدام الذكاء الاصطناعي.
وقال: "أشعر بالقلق من أن المزيد من الذكاء الاصطناعي في العالم سيقود إلى المزيد من المراقبة، لأن الحكومات سترغب في التأكد من أن الناس لا يستخدمون هذه التكنولوجيا لأغراض إرهابية أو خبيثة".
لكنه أشار إلى أنه لا يرى الخصوصية كأمر مطلق، مضيفًا: "أنا مستعد تمامًا للتضحية ببعض الخصوصية من أجل السلامة الجماعية، لكن بشرط... فالتاريخ يُظهر أن الحكومات غالبًا ما تبالغ في ذلك، وهذا ما يثير قلقي بشدة".