Son dönemde yapay zekanın yol açtığı intihar olayları gündem oldu. Uzmanların uyarılarına rağmen şirketlerin yeterli önlem almadığı eleştiriliyordu.
OpenAI'ın yeni yayımladığı blog yazısında, kullanıcı mesajlarının tarandığı ve tehlikeli içeriklerin özel bir insan ekibine iletildiği belirtildi. Açıklamada, “Başkasına zarar vermeyi planlayan kullanıcıları tespit ettiğimizde, konuşmalarını kullanım politikalarımız konusunda eğitimli küçük bir ekibe yönlendiriyoruz. Bu ekip hesap kapatma dâhil çeşitli adımlar atabilir” denildi.
Eğer ekip, ciddi ve yakın bir tehdit olduğunu belirlerse olayın kolluk kuvvetlerine aktarılabileceği ifade edildi. Ancak OpenAI, “özel hayatın gizliliği” gerekçesiyle kendine zarar verme durumlarını şu an için polise bildirmeyeceklerini vurguladı.
BELİRSİZLİKLER MEVCUT
OpenAI’nin kullanım politikalarında intiharı teşvik etmek, silah geliştirmek, başkalarına zarar vermek veya güvenlik ihlali gerçekleştirmek yasak faaliyetler arasında yer alıyor. Ancak hangi sohbetlerin insan incelemesine ya da polise bildirimine yol açabileceği konusunda belirsizlik sürüyor.
CEO Sam Altman da geçen ay bir podcast’te yaptığı açıklamada, ChatGPT’yi bir terapist ya da avukat gibi kullanmanın “mesleki gizlilik” koruması sağlamadığını itiraf etmişti. Altman, devam eden dava sürecinde kullanıcı sohbetlerinin mahkemelere teslim edilmek zorunda kalabileceğini söylemişti.




