KVKK, iş yerlerinde kullanılan üretken yapay zekâ araçlarının veri güvenliği ve kişisel verilerin korunması açısından riskler doğurabileceğine dikkat çekti. Kurum, çalışanların kurum bilgisi veya onayı dışında kullandığı “gölge yapay zekâ” uygulamalarının ticari sırların korunması ve siber güvenlik açısından da risk oluşturabileceğini belirtti.
KVKK tarafından yayımlanan “İş Yerlerinde Üretken Yapay Zekâ Araçlarının Kullanımı” başlıklı rehberde, yapay zekâ teknolojilerinin iş süreçlerinde verimlilik sağladığı ancak kurumsal kullanımda hukuki ve teknik sorumlulukların göz önünde bulundurulması gerektiği ifade edildi.
İŞ SÜREÇLERİNDE YAPAY ZEKÂ KULLANIMI
Rehbere göre üretken yapay zekâ araçları iş yerlerinde e-posta taslaklarının hazırlanması, belgelerin özetlenmesi, toplantı notlarının çıkarılması ve araştırma süreçlerinin desteklenmesi gibi alanlarda kullanılıyor.
Bu araçların hızlı çıktı üretme kapasitesi ve kullanım kolaylığı nedeniyle çalışanların iş süreçlerine daha fazla entegre ettiği belirtiliyor.
“GÖLGE YAPAY ZEK” UYARISI
KVKK rehberinde özellikle “gölge yapay zekâ” olarak adlandırılan kontrol dışı kullanım biçimlerine dikkat çekildi.
Bu kavram, çalışanların üretken yapay zekâ araçlarını kurumun bilgisi veya onayı olmadan iş süreçlerinde kullanmasını ifade ediyor. Bu durumlarda hangi araçların kullanıldığı ve hangi verilerin paylaşıldığı konusunda kurumların yeterli denetime sahip olamadığı belirtiliyor.
Rehberde ayrıca kurumsal değerlendirme süreçlerinden geçmeden kullanılan sistemlerin hatalı veya yanıltıcı sonuçlar üretebileceği ve bunun da iş süreçlerinde yanlış kararların alınmasına neden olabileceği ifade edildi.
TİCARİ SIR VE HASSAS VERİ RİSKİ
KVKK tarafından hazırlanan rehberde ticari sır niteliğindeki bilgilerin veya rekabet açısından hassas verilerin harici yapay zekâ araçlarıyla paylaşılmasının fikri mülkiyet açısından risk oluşturabileceği belirtildi.
Kaynak kodları, ürün tasarımları veya iş stratejileri gibi bilgilerin üçüncü taraf platformlarla paylaşılması durumunda bu verilerin kurum kontrolü dışında işlenebileceği uyarısı yapıldı.
YAPAY ZEKÂ KULLANIM POLİTİKASI ÖNERİSİ
Rehberde yapay zekâ araçlarının tamamen yasaklanmasının pratikte etkili olmayabileceğine de dikkat çekildi. Yasaklayıcı politikaların çalışanların bu araçları kurum kontrolü dışında kullanmasına yol açabileceği ifade edildi.
Bu nedenle kurumların açık yapay zekâ kullanım politikaları oluşturması, hangi verilerin paylaşılabileceğini belirlemesi ve çalışanlara yönelik eğitim ile farkındalık çalışmaları yürütmesi gerektiği vurgulandı.
SON KARARDA İNSAN DENETİMİ
Rehberde yapay zekâ sistemlerinin ürettiği çıktılara aşırı güven duyulmasının da risk oluşturabileceği belirtildi. “Otomasyon ön yargısı” olarak tanımlanan bu durumun kullanıcıların otomatik sistemlerin sonuçlarını yeterli değerlendirme yapmadan doğru kabul etmesine yol açabileceği ifade edildi.
Yapay zekâ araçlarının sunduğu çıktılara nihai kararların dayanağı olarak yaklaşılmaması gerektiği, bu içeriklerin insan denetimi altında destekleyici unsur olarak değerlendirilmesinin önem taşıdığı vurgulandı.
Rehberde ayrıca yapay zekâ araçlarının etik ve sorumlu bir yaklaşımla kullanılması halinde hem verimlilik avantajlarının korunabileceği hem de veri güvenliği ile hukuki risklerin daha etkin yönetilebileceği ifade edildi.
(0) Yorum
Henüz yorum yapılmamış. İlk yorumu siz yapın!