YARGICINDAN CİDDİ UYARI: YAPAY ZEKAYA GÜVENMEYİN
İngiltere ve Galler Yüksek Mahkemesi, avukatları hukuki araştırmalarda ChatGPT gibi üretken yapay zeka araçlarına güvenmenin riskleri hakkında uyarıyor. Yargıç Victoria Sharp, bu tür araçların sağladığı sahte bilgilere dayanarak mahkemeye sunum yapan avukatların ciddi cezalarla karşılaşabileceğini ifade ediyor.
YAPAY ZEKANIN GÜVENİLİRLİĞİ SORGULANIYOR
Yargıç Victoria Sharp, verdiği kararda, üretken yapay zeka araçlarının “güvenilir hukuki araştırmalar yürütme kapasitesine sahip olmadığını” net bir şekilde belirtti. Bu araçların görünüşte tutarlı ve mantıklı yanıtlar verebilmesine rağmen, tamamen yanlış bilgiler üretebileceğine dikkat çekti. Yargıç, avukatların araştırmalarında yapay zekayı kullanabilmelerinin mümkün olduğunu, fakat “mesleki çalışmalarında kullanmadan önce, yetkili kaynaklara başvurarak bu tür araştırmaların doğruluğunu kontrol etme” yükümlülükleri olduğunun altını çizdi.
SAHTE DAVALARIN KAMUOYUNA YANSIMASI
Bu uyarı, avukatların mahkeme süreçlerinde yapay zeka tarafından oluşturulmuş sahte davalara ve tebligatlara atıfta bulunduklarının tespit edildiği iki yeni dava örneği üzerine geldi. Bir davada, avukatın sunduğu 45 alıntıdan 18’inin aslında mevcut olmadığı belirlendi. Katar Ulusal Bankası ile ilgili olarak açılan 120 milyon dolarlık başka bir davada ise bir avukatın, var olmayan 18 davaya referans verdiği ortaya çıktı. Müvekkil, yapay zeka tarafından sağlanan yanlış verilerle mahkemeyi yanlış yönlendirdiği için özür dilemek zorunda kaldı.
HUKUKİ ÇIKMAZLAR
Yargıç Sharp, sahte materyali gerçekmiş gibi sunmanın mahkemeye saygısızlık olarak değerlendirilebileceğini ve “en korkunç durumlarda” adaletin seyrini saptırabileceği uyarısında bulundu. Bu durum, mesleki yükümlülüklerine uymayan avukatlar için ağır para cezalarına ve hatta hapis cezalarına yol açabilir.