Kanada'dan OpenAI'a Veri Soruşturması: ChatGPT Güvenliği Sınıfta Kaldı

Kanada genelindeki gizlilik otoritelerinin bir araya gelerek yürüttüğü inceleme süreci, teknoloji dünyasında yankı uyandıran sonuçlarla tamamlandı. 2023 yılında gelen şikayetler üzerine düğmeye basan ekipler, ChatGPT'nin eğitim süreçlerinde kullanıcı gizliliğinin önemsenmediğini belgeledi.

Kanadalı yetkililer tarafından tamamlanan kapsamlı inceleme, yapay zeka devi OpenAI'ın kullanıcı verilerini toplarken yasal sınırları ihlal ettiğini ortaya koydu.

Kanada genelindeki gizlilik otoritelerinin bir araya gelerek yürüttüğü inceleme süreci, teknoloji dünyasında yankı uyandıran sonuçlarla tamamlandı. 2023 yılında gelen şikayetler üzerine düğmeye basan ekipler, ChatGPT'nin eğitim süreçlerinde kullanıcı gizliliğinin önemsenmediğini belgeledi. Yapılan denetimlerde, sistemin geliştirilmesi aşamasında kişisel verilerin korunmasına dair yerel yasaların sistematik bir şekilde göz ardı edildiği ifade edildi.

Hassas Veriler Risk Altında

Rapora yansıyan en çarpıcı detaylar arasında, toplanan verilerin niteliği öne çıkıyor. İncelemeler sonucunda, ChatGPT'nin eğitilmesi sırasında sadece genel bilgilerin değil; sağlık verileri, siyasi eğilimler ve çocuklara dair özel bilgilerin de yeterli güvenlik protokolleri olmaksızın işlendiği tespit edildi. Bu durum, veri güvenliği konusunda ciddi bir denetimsizliğin yaşandığı şeklinde yorumlandı.

Dufresne'den Sert Eleştiri

Konuya ilişkin açıklamalarda bulunan Kanada Federal Gizlilik Komiseri Philippe Dufresne, OpenAI yönetimini ağır bir dille eleştirdi. Komiser, şirketin bilinen güvenlik açıklarını tamamen kapatmadan ürünü piyasaya sürmesini büyük bir hata olarak nitelendirdi. Dufresne, bu ihmalin Kanadalı kullanıcıları veri sızıntılarına ve kişisel bilgiler üzerinden yürütülebilecek ayrımcılık faaliyetlerine karşı savunmasız bıraktığının altını çizdi. Şirketin, ulusal mevzuata aykırı bir yapıyı neden kullanıma açtığı konusunda ise mantıklı bir açıklama getiremediği belirtildi.

İLGİLİ HABERLER