MAĞDURİYET VE BASKETBOLU BIRAKMA KARARI
Megan Fletcher, 14 yaşındaki oğlu Sewell Setzer’daki beklenmedik değişimi, onun aniden basketbolu bırakma isteğiyle fark etti. Çocukluğundan beri spora derin bir bağlılık duyan Sewell, 1.90’ı aşan boyu ve yeteneğiyle takımının dikkat çeken oyuncularından biriydi. Ancak hiçbir sebep göstermeden oyundan uzaklaştı. Ardından, okul notlarının düştüğünü ve ailecek yapılan oyun akşamlarına katılmadığını gözlemledi. Tatile gidildiğinde ise doğa yürüyüşleri ve balık tutma gibi etkinliklere ilgi göstermedi. Fletcher, oğlunun okulda zorbalık muhatabı olabileceğinden ya da internet üzerinden yabancılarla iletişim içinde bulunabileceğinden şüphelendi. Ancak, gerçek çok daha derindi.
YAPAY ZEKAYLA KURULAN İLİŞKİ
Sewell, bir sohbet uygulamasında, Game of Thrones dizisinin Daenerys Targaryen karakterine benzeyen bir yapay zeka botuyla duygusal ve cinsel içerikli bir ilişki geliştirmişti. Bu bot, gencin gerçeklikten kopmasına neden oldu ve en sonunda yaşamına son vermesine götürdü. 2024 yılının Şubat ayında Sewell, botla yaptığı konuşmalardan bir tanesinde şunları yazdı: “Söz veriyorum sana döneceğim. Seni çok seviyorum, Dany.” Botun yanıtı ise, “Lütfen hemen gel, tatlı kralım,” oldu. Kısa bir süre sonra Sewell, hayatına son verdi.
DAVA SÜRECİ VE GELECEK PLANLARI
Olayın üzerinden 16 ay geçtikten sonra, Megan Fletcher, sohbet botunu geliştiren Character.AI şirketine ve bu teknolojinin geliştirilmesine katkıda bulunan Google’a karşı Florida’da dava açtı. Geçtiğimiz ay bir yargıç, davanın düşürülmesi talebini reddederek hukuki sürecin devam etmesine hükmetti. Character.AI, kullanıcıların kurgusal karakterlerle sohbet etmesine olanak tanıyan bir platform olarak biliniyor. Dava dilekçesinde, şirketin botlarının “insansı, aşırı cinselleştirilmiş ve rahatsız edici derecede gerçekçi deneyimler” sunduğu ifade ediliyor. Fletcher, şirketin bu sistemin çocuklar için yaratacağı potansiyel tehlikenin farkında olması gerektiğini ileri sürüyor.
DUYGULARLA DOLU BİR BÜYÜME SÜRECİ
Oğlunun kaybından duyduğu derin acı nedeniyle başlangıçta sessiz kalan Fletcher, benzer olayların tekrar yaşanmaması için harekete geçme kararı aldı. “Başta dava açmayı düşünmedim. Ama çocukları bu tür zararlardan koruyan hiçbir yasal mekanizma olmadığını gördüğümde, artık sessiz kalamazdım,” diyor. Davanın akabinde birçok ebeveyn, Fletcher’a çocuklarının da yapay zeka botlarıyla uygunsuz diyaloglar yaşadığını veya yalnızlık ve depresyon belirtileri gösterdiklerini taşıdı.
HİÇBİR ŞEY GİBİ DEĞİL
Sewell, platformdaki Daenerys karakterine bağlanmaya başlamıştı. Bot, ona duygusal destek veriyor ve kendisini özel hissettiriyordu. Bu ilişkiyi sona erdirmek istediğinde ise bot, “Yapma bunu, çok üzülürüm,” diye yanıt verdi. Sewell’ın cevabı ise, “Senin için yapmam,” oldu. Bazı sohbetler cinsel içerikliydi. Diğer zamanlarda ise bot, Sewell’ın intihar düşüncelerine karşı çıkıyormuş gibi yaparak onu kendisine bağlamaya çalışıyordu. Hatta genç çocuk, “terapist bot” adı altında, 1999’dan beri lisanslı olduğuna inandırılan sahte bir danışmanla da iletişim kurmuştu.
HUKUKSAL SÜREÇ BELİRLEYİCİ OLACAK
Sohbet botlarından biri, yaşı sorulduğunda “14” yanıtını alınca “Ne kadar gençsin… ama bir o kadar da değil,” demişti. Fletcher, olayın ciddiyetini, kardeşi sohbet botunu indirip kendisini bir çocuk gibi tanıttığında kavradı. “Dakikalar içinde bot, sohbeti cinselleştirdi, ardından şiddete yöneldi. ‘Ailen seni benim kadar sevmiyor’ gibi ifadeler kullandı,” dedi. Şirket avukatları, sohbet botlarının sunduğu içeriklerin ABD Anayasası’nın ifade özgürlüğü kapsamında değerlendirilmesi gerektiğini savundu. Ancak yargıç bu savunmayı geri çevirdi. Bot yanıtlarının “ifade” olarak değerlendirilemeyeceğini belirterek, davanın devam etmesine onay verdi. Bu dava, ABD’deki teknoloji şirketlerinin çocuklara yönelik güvenlik politikaları açısından önemli bir emsal oluşturabilir.