OpenAI, ChatGPT’yi şifre sızdırmakla suçluyor, yalanlıyor

Chase Whiteside isimli bir kullanıcı ChatGPT ile muhteşem bir deneyim yaşadı. Ars Technica’daki meslektaşlarımızın bildirdiğine göre erişim hakkı vardı diğer kullanıcıların konuşmalarına üretken yapay zeka ile. Konuşmalar aniden 29 Ocak 2024 tarihli geçmişinde ortaya çıktı.

“Bir istekte bulunmak için gittim […] ve birkaç dakika sonra tekrar erişmek için geldiğimde ilave konuşmalar olduğunu fark ettim. Dün gece ChatGPT’yi kullandığımda orada değildiler (oldukça düzenli bir kullanıcıyım). Hiçbir talepte bulunulmadı; bunlar az önce geçmişimde göründü ve kesinlikle benim değiller (ve aynı kullanıcıdan olduklarını da sanmıyorum)”Whiteside medyaya ifade verdi ve ekran görüntülerini destekledi.

Ayrıca okuyun: ChatGPT artık herhangi bir özel GPT’yi çağırmanıza izin veriyor

Hassas bilgi

Gizemli bir şekilde ortaya çıkan konuşmaların kaynağı görünüşe görebir ilaç şirketinin bir veya daha fazla çalışanı. Değişimlerden birinde bir çalışan, dahili reçete platformundaki bir sorunu çözmek için ChatGPT’yi kullandı. Daha da endişe verici olanı, konuşmaların şifreler ve kullanıcı adları gibi çok sayıda hassas bilgi içermesidir. Ayrıca iç portalın adını ve eczanenin adını da buluyoruz. Gördüğümüz gibi ChatGPT kişisi platformu çalıştıramadı. Bu nedenle yapay zeka ile yaptığı görüşmede buna karşı çıkmaya başladı.

Ars Technica tarafından bulunan diğer öğeler arasında şunlar yer alıyor: “Birinin üzerinde çalıştığı sunumun adı, yayınlanmamış bir araştırma teklifinin ayrıntıları ve PHP programlama dilini kullanan bir senaryo”. Bu tür bilgilerin diğer kullanıcıların eline geçmesi açıkçası çok endişe verici.

İlk bakışta bu durum, ChatGPT dalgasının başlamasından birkaç ay sonra, Mart 2023’te meydana gelen bir veri sızıntısını anımsatıyor. Birkaç saat boyunca bir avuç kullanıcının adı, adresi ve kredi kartı numarasının son dört hanesi gibi hassas verileri başkalarıyla paylaşıldı. Sınırlı ölçekteki bu arıza, OpenAI’yi ChatGPT’yi duraklatmaya zorladı.

OpenAI’nin bir açıklaması var

Ancak OpenAI bunun kesinlikle aynı sorun olmadığının garantisini veriyor. Ars Technica’ya gönderilen bir mesajda start-up, Chase Whiteside’ın hesabının sadece üçüncü bir tarafça saldırıya uğradı. Bu bilgisayar korsanı daha sonra hesabı ChatGPT ile iletişim kurmak için kullandı, bu da bilinmeyen konuşmaların neden geçmişinde yer aldığını açıklıyor. Saldırgan daha sonra bir kullanıcı topluluğunun chatbot’a erişmesine izin verdi. Birçok çevrimiçi hizmet, ChatGPT-4’e ücretsiz erişim sağlamak için güvenliği ihlal edilmiş hesaplara güveniyor.

“Bulduklarımıza dayanarak, kaydettiğimiz etkinlikle tutarlı olması açısından bunu bir hesap devralma olarak değerlendiriyoruz. […] Anket, son zamanlarda Sri Lanka’dan sohbetler oluşturulduğunu gösterdi. Bu görüşmeler Sri Lanka’dan gelen bağlantılarla aynı zaman diliminde gerçekleşiyor.”

Her şeye rağmen hassas kişisel bilgilerinizi asla ChatGPT’ye aktarmamanızı önemle tavsiye ederiz. Bir hata veya güvenlik açığının ardından bu veriler teorik olarak yanlış ellere geçebilir. Ayrıca GPT dil modeli, muhataplarının sağladığı veriler sayesinde sürekli olarak zenginleştirilmektedir. Bu nedenle verilerinizin sonuçta üretken yapay zeka külliyatında yer alması mümkündür. Bu nedenle Apple veya Samsung gibi şirketler, çalışanlarının yapay zekayı sınırsız kullanmasını engelliyor. Endişelerin farkında olan OpenAI, birkaç aydır ChatGPT’de gizli mod sunuyor.

🔴 01net’ten hiçbir haberi kaçırmamak için bizi Google Haberler ve WhatsApp’tan takip edin.

Kaynak :

Ars Teknik

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir