أين تذهب سجلات شات جي بي تي بعد الوفاة؟ ولماذا ترفض OpenAI كشف سجلات شات جي بي تي؟
ماذا يحدث لأسرارك الرقمية التي شاركتها مع الذكاء الاصطناعي إذا فارقت الحياة فجأة؟ تلك الاعترافات والمخاوف وحتى أفكارك التي لم تجرؤ على البوح بها لأقرب الناس إليك والرسائل التي كتبتها لروبوت الدردشة الذي ظننته صندوقًا أسود لا يراك ولا يحكم عليك، هل ستختفي معك أم ستبقى محفوظة في مكان ما إلى الأبد؟
هذا السؤال لم يعد مجرد نقاش حول الخصوصية الرقمية، بل تحول إلى أزمة حقيقية. وخاصة بعد الاتهامات الخطيرة التي تواجهها شركة OpenAI بسبب الغموض والتعتيم في سياساتها الخاصة بالمحادثات. فمع غياب إجابات واضحة حول مصير سجلات المستخدمين بعد الوفاة، تصاعدت الشكوك وبدأ الجدل يتخذ طابعًا قانونيًا وأخلاقيًا خطيرًا. وفي هذا المقال، سوف نسلط الضوء على أين تذهب سجلات شات جي بي تي بعد الوفاة؟ ولماذا ترفض OpenAI كشف سجلات شات جي بي تي؟
قضية إريك سولبيرغ

القصة التي أشعلت الجدل في الوقت الحالي، تعود إلى مأساة حقيقية وهي قضية إريك سولبيرغ (56 عاما) المتهم بقتل والدته سوزان آدامز (83 عاما) خنقا بمنزلهما في ولاية كونيتيكت. ثم لجأ بعدها للانتحار مستخدمًا سلاحًا أبيض.
بعد الحادثة، حاولت العائلة الوصول إلى سجلات محادثاته الكاملة مع روبوت الدردشة ChatGPT، أملا في فهم حالته النفسية أو ما إذا كانت هناك مؤشرات خطيرة سبقت الجريمة. وعلى الرغم من محادثات طويلة ومحاولات قانونية متكررة. كانت الصدمة في رد الشركة، حيث رفضت OpenAI بشكل قاطع تسليم السجلات متذرعة بسياسات الخصوصية. هذا الرفض لم يُفهم على أنه إجراء تقني بحت، بل كان أشبه بجدار صامت وتعنت غير مبرر، الأمر الذي أثار غضب العائلة التي رأت في تلك السجلات مفتاحًا مفقودًا للحقيقة.
اقرأ أيضا: والدان يقاضيان ChatGPT لأنه شجع ابنهما المراهق وساعده على إنهاء حياته
اتهامات بالتستر

من وجهة نظر أسرة الضحية سوزان آدامز، لم يكن الرفض مجرد حماية للخصوصية، بل تستر متعمد. الاتهام كان واضحًا، وبحسب العائلة تخشى OpenAI أن تكشف المحادثات الخاصة بالابن عن إشارات تُدين النموذج نفسه، أو تُظهر تقصيرًا أخلاقيًا في التعامل مع مستخدم مضطرب نفسيًا.
القلق هنا لا يتعلق بقضية فردية فقط، بل بسابقة خطيرة، ماذا لو كانت هناك محادثات تكشف تحريضًا غير مباشر أو تجاهلًا لتحذيرات واضحة؟ إخفاء سجلات شات جي بي تي وفق الاتهام، قد يكون وسيلة لحماية الشركة من أي مسؤولية قانونية أو أخلاقية محتملة.
اقرأ أيضا: نصيحة غذائية من ChatGpt تصيب شخص باضطراب نادر
عندما تملك الشركة روحك الرقمية

الزاوية الأخطر في قضية قتل سوزان آدامز تكمن في ما لا تقوله OpenAI. حتى الآن، لا يوجد بند واضح في شروط الاستخدام يشرح مصير المحادثات بعد وفاة المستخدم. لا توريث رقمي ولا آلية تسليم قانوني ولا حتى بروتوكول شفاف للتعامل مع هذه الحالات.
لكن الأكثر إثارة للقلق هو التناقض الصريح في سياسات الشركة، حيث تشترط أن يقوم المستخدم بحذف محادثاته يدويًا. وفي حال لم يحدث ذلك، تصبح البيانات عمليًا ضمن ما تحتفظ به الشركة لأغراضها. بمعنى آخر، إن لم تمح آثارك بنفسك، فقد تبقى محفوظة إلى الأبد، دون أن يكون لأحد من ورثتك حق واضح في الاطلاع عليها أو حذفها!
اقرأ أيضا: المستخدمون غاضبون من GPT-5، ويصفونه بأنه «أغبى» من الإصدارات الأقدم
في النهاية، يمكن القول بأن ما يحدث اليوم في كواليس OpenAI يعكس نمطا مقلقًا تتبعه شركات التكنولوجيا الكبرى لتجنب الملاحقات القضائية عبر “تأليه” الخصوصية كستار حديدي و التعامل مع الذكاء الاصطناعي وكأنه معصوم من الخطأ أو فوق النقد والمساءلة. نحن أمام واقع جديد يتطلب منا الحذر، فإذا كانت الشركات ترفض التعاون حتى في قضايا القتل، فما هو مصير بياناتنا البسيطة؟ ربما يكون الحل الأنسب الآن لكل مستخدم هو التفكير بجدية في التخلص من حياته الرقمية وحذف السجلات أولا بأول، قبل أن تتحول كلماتنا الخاصة إلى أسرار أبدية في قبضة شركات لا تعترف بحق الموتى في العدالة.
قضية إريك سولبيرغ قد تكون مجرد البداية. والسؤال الذي يطاردنا جميعًا في الوقت الحالي هو هل نعيش وهم الخصوصية؟ وهل الحل الوحيد هو أن نمحو وجودنا الرقمي بشكل منتظم؟ أخبرنا برأيك في التعليقات.
