Kanada Federal Gizlilik Komiserliği ile bazı eyalet gizlilik kurumları tarafından yürütülen ortak inceleme kapsamında, OpenAI hakkında hazırlanan rapor kamuoyuyla paylaşıldı. Raporda, şirketin ChatGPT yapay zeka modelini eğitmek amacıyla topladığı kişisel verilerde Kanada’nın gizlilik mevzuatına tam uyum sağlamadığı belirtildi.
Soruşturmada, OpenAI’nin internet üzerindeki kişisel içerikleri veri setlerine dahil ederken kullanıcıların açık rızasını yeterli ölçüde almadığı ve bireylerin kişisel bilgilerinin nasıl işlendiğine dair şeffaflık eksikliği bulunduğu ifade edildi. Kanada makamları, bu durumun ülkenin kişisel verilerin korunmasına ilişkin yasal düzenlemeleriyle çeliştiğini kaydetti.
ORTAK SORUŞTURMADA İHLAL KARARI ÇIKTI
Federal düzeyde yürütülen soruşturmaya Quebec, British Columbia ve Alberta eyaletlerindeki gizlilik otoritelerinin de destek verdiği bildirildi. Açıklamada, OpenAI’nin veri toplama ve işleme süreçlerine ilişkin uygulamalarının “makul kullanım” ilkesini aşabileceği değerlendirmesine yer verildi. Yetkililer, yapay zeka sistemlerinin geliştirilmesinde kullanılan büyük veri havuzlarının kişisel mahremiyet açısından yeni hukuki tartışmalar doğurduğunu belirterek, teknoloji şirketlerinin veri kullanım süreçlerinde daha açık ve hesap verebilir olması gerektiğini ifade etti.
YAPAY ZEKA VE VERİ GİZLİLİĞİ TARTIŞMASI BÜYÜYOR
Kararın ardından Kanada’daki düzenleyici kurumların OpenAI’den veri işleme politikalarını gözden geçirmesini ve gerekli uyum adımlarını atmasını isteyebileceği belirtiliyor. Hukuk uzmanları ise bu gelişmenin, dünya genelinde yapay zeka şirketlerine yönelik veri koruma denetimlerini artırabileceğini değerlendiriyor. Öte yandan Avrupa Birliği başta olmak üzere birçok ülkede yapay zeka modellerinin eğitim süreçlerinde kullanılan kişisel verilerle ilgili tartışmalar sürerken, Kanada’daki kararın uluslararası teknoloji sektöründe de dikkatle takip edildiği ifade ediliyor.