Haber

İntiharların ardından ChatGPT'den tartışma yaratan karar

OpenAI, intihar vakalarının artmasının ardından ChatGPT'de kullanıcı mesajlarını tarayıp tehlikeli durumları insan ekibine ve bazı hallerde polise bildirdiğini duyurdu. Bu durum şirketin gizlilik politikalarıyla çeliştiği gerekçesiyle tartışma yarattı.

Son dönemde yapay zekanın yol açtığı intihar olayları gündem oldu. Uzmanların uyarılarına rağmen şirketlerin yeterli önlem almadığı eleştiriliyordu.

OpenAI'ın yeni yayımladığı blog yazısında, kullanıcı mesajlarının tarandığı ve tehlikeli içeriklerin özel bir insan ekibine iletildiği belirtildi. Açıklamada, “Başkasına zarar vermeyi planlayan kullanıcıları tespit ettiğimizde, konuşmalarını kullanım politikalarımız konusunda eğitimli küçük bir ekibe yönlendiriyoruz. Bu ekip hesap kapatma dâhil çeşitli adımlar atabilir” denildi.

Eğer ekip, ciddi ve yakın bir tehdit olduğunu belirlerse olayın kolluk kuvvetlerine aktarılabileceği ifade edildi. Ancak OpenAI, “özel hayatın gizliliği” gerekçesiyle kendine zarar verme durumlarını şu an için polise bildirmeyeceklerini vurguladı.

BELİRSİZLİKLER MEVCUT

OpenAI’nin kullanım politikalarında intiharı teşvik etmek, silah geliştirmek, başkalarına zarar vermek veya güvenlik ihlali gerçekleştirmek yasak faaliyetler arasında yer alıyor. Ancak hangi sohbetlerin insan incelemesine ya da polise bildirimine yol açabileceği konusunda belirsizlik sürüyor.

CEO Sam Altman da geçen ay bir podcast’te yaptığı açıklamada, ChatGPT’yi bir terapist ya da avukat gibi kullanmanın “mesleki gizlilik” koruması sağlamadığını itiraf etmişti. Altman, devam eden dava sürecinde kullanıcı sohbetlerinin mahkemelere teslim edilmek zorunda kalabileceğini söylemişti.