واجهت شركة OpenAI، المطورة لتطبيق ChatGPT، أزمة كبيرة بعد اكتشاف أن محادثات خاصة لمستخدميها أصبحت متاحة في نتائج بحث جوجل. أثار هذا الخلل مخاوف جدية بشأن خصوصية المستخدمين، خاصة أن بعض المحادثات تضمنت تفاصيل حساسة عن الصحة النفسية، العلاقات الشخصية، وحتى مسائل قانونية، مما دفع الشركة لاتخاذ إجراءات عاجلة لمعالجة المشكلة.
بدأت الأزمة عندما كشف تقرير لـ Fast Company في 30 يوليو 2025 عن وجود أكثر من 4500 محادثة مفهرسة على جوجل، تمت مشاركتها عبر خاصية “المشاركة” في ChatGPT. هذه الخاصية تتيح للمستخدمين إنشاء روابط لمحادثاتهم، مع خيار إضافي لجعلها “قابلة للاكتشاف” عبر محركات البحث. لكن التحذير المصاحب لهذا الخيار كان غامضاً، مما أدى إلى مشاركة غير مقصودة لمعلومات حساسة من قبل مستخدمين لم يدركوا أن محادثاتهم أصبحت عامة.
ردت OpenAI بسرعة بإلغاء خاصية المشاركة القابلة للفهرسة يوم 31 يوليو 2025، بعد موجة انتقادات عبر وسائل التواصل الاجتماعي. أعلن دان ستاكي، كبير مسؤولي الأمن في الشركة، أن هذه الخاصية كانت “تجربة قصيرة الأمد” تهدف إلى تعزيز الوصول إلى المحادثات المفيدة، لكنها خلقت مخاطر غير متوقعة. وأكدت الشركة أنها تعمل مع جوجل ومحركات بحث أخرى لإزالة الروابط المفهرسة، رغم أن بعض المحتوى قد يظل متاحاً مؤقتاً بسبب التخزين المؤقت.
أثارت الحادثة جدلاً واسعاً حول مسؤولية شركات الذكاء الاصطناعي في حماية بيانات المستخدمين. وأشارت كارينا فيليز، باحثة في أخلاقيات الذكاء الاصطناعي بجامعة أكسفورد، إلى أن مثل هذه التجارب تُظهر ميل شركات التكنولوجيا لاختبار الميزات على المستخدمين دون ضمانات كافية، مما يعرض خصوصيتهم للخطر. كما أثارت تساؤلات حول مدى وضوح التحذيرات التي تقدمها هذه المنصات.
تتزامن هذه الأزمة مع تحديات قانونية تواجهها OpenAI، حيث ألزمها أمر قضائي بالاحتفاظ بجميع المحادثات المحذوفة إلى أجل غير مسمى بسبب دعوى قضائية من صحيفة نيويورك تايمز. هذا القرار زاد من قلق المستخدمين الذين كانوا يعتقدون أن محادثاتهم المحذوفة تختفي نهائياً، مما يعقد جهود الشركة لاستعادة ثقتهم.
تسلط الحادثة الضوء على الحاجة إلى تصميم ميزات تقنية أكثر شفافية وسهولة في الفهم. ينصح الخبراء المستخدمين بمراجعة إعدادات المشاركة في ChatGPT عبر لوحة “الروابط المشتركة” وحذف أي روابط غير مرغوب فيها، مع توخي الحذر عند إدخال معلومات شخصية في منصات الذكاء الاصطناعي.