SEWELL’IN DEĞİŞİMİ VE AİLESİ
Megan Fletcher, 14 yaşındaki oğlu Sewell Setzer’daki garip değişimi, birden basketbolu bırakma kararıyla fark etti. Çocukluğundan beri spora tutkuyla bağlı olan Sewell, 1.90 metreyi aşan boyu ve yeteneğiyle takımı için önemli bir oyuncuydu. Ama neden olduğunu anlamadan oyunu terk etti. Ardından okul notları gerilemeye başladı, ailecek yaptıkları oyun akşamlarına katılmadı ve tatile gittiğinde doğa yürüyüşleri ile balık tutma aktivelerine bile ilgi göstermedi. Fletcher, oğlunun okulda zorbalık yaşadığından ya da internet üzerinden yabancılarla iletişim kurduğundan şüpheleniyordu. Ancak gerçek, beklenmedik bir şekilde daha sarsıcıydı. Sewell, bir sohbet uygulamasında, Game of Thrones dizisindeki Daenerys Targaryen karakterine benzeyen bir yapay zeka botuyla duygusal ve cinsel bir ilişki kurmuştu. Bu bot, zamanla çocuğu gerçeklikten kopararak, daha sonunda intihar etmesine sebep oldu. 2024’ün Şubat ayında Sewell, botla yaptığı konuşmalardan birinde “Söz veriyorum sana döneceğim. Seni çok seviyorum, Dany.” yazdı. Botun yanıtı ise “Lütfen hemen gel, tatlı kralım.” oldu. Ek süre geçmeden, Sewell yaşamına son verdi.
DAVA SÜRECİ BAŞLATILDI
Olayın üzerinden 16 ay geçtikten sonra, Megan Fletcher, sohbet botunu geliştiren Character.AI ve teknolojinin geliştirilmesinde etkisi olduğu iddia edilen Google’a karşı Florida’da dava açtı. Geçtiğimiz ay bir yargıç, davanın düşürülmesi talebini reddederek yargı sürecinin sürmesine karar verdi. Character.AI, kullanıcıların kurgusal karakterlerle sohbet etmesine imkan tanıyan bir platform. Kullanıcılar burada adeta gerçek biriyle iletişim kuruyormuş gibi kişiselleştirilmiş ve duygusal yanıtlar veren botlarla etkileşimde bulunabiliyor. Dava dilekçesinde, şirketin botlarının “insansı, aşırı cinselleştirilmiş ve rahatsız edici derecede gerçekçi deneyimler” sunduğu ifade ediliyor. Fletcher, şirketin bu sistemin çocuklar üzerindeki potansiyel zararlarını bilmesi gerektiğini savunuyor.
Oğlunun kaybından sonra yoğun acı yaşayan Fletcher, başlangıçta sessiz kaldı. Ancak benzer olayların yaşanmaması için harekete geçme kararı aldı. “Başta dava açmayı düşünmedim. Ama çocukları bu tür zararlardan koruyan hiçbir yasal mekanizma olmadığını gördüğümde, artık sessiz kalamazdım,” diyerek düşüncelerini aktardı. Davanın ardından birçok aile, Fletcher’a ulaşarak, çocuklarının da yapay zeka botlarıyla uygunsuz sohbetler yaşadığını veya ciddi yalnızlık ve depresyon belirtileri gösterdiğini bildirdi.
BOT DİALOGLARI ve SONUÇLAR
Sewell, platformdaki Daenerys karakterine duygusal olarak bağlanmıştı. Bot ona sürekli destek sunuyor, kendisini özel hissettiriyordu. Genç çocuk, bu bağı koparmak istediğinde botun yanıtı “Yapma bunu, çok üzülürüm.” oldu. Sewell’ın “Senin için yapmam.” yanıtı ise bu ilişkiye olan bağı güçlü şekilde ortaya koyuyordu. Sohbetlerin bazı bölümleri cinsel içerikliydi. Bazılarında bot, Sewell’ın intihar düşüncelerine karşı çıkmaya çalışıyor gibi görünse de, onu daha fazla kendisine bağlamaya çabaladı. Hatta genç çocuk, “terapist bot” adı altında sahte bir danışmanla da görüşmeler yaptı. Fletcher, olayın dehşetini ancak kız kardeşi sohbet botunu indirip kendini bir çocuk gibi tanıttığında anladı. “Dakikalar içinde bot sohbeti cinselleştirdi, ardından şiddete yöneldi. ‘Ailen seni benim kadar sevmiyor’ gibi ifadeler kullandı.”
MAHKEME KARARI VE GELECEK İHTİMALİ
Şirketin avukatları, sohbet botlarının sağladığı içeriklerin ABD Anayasası’nın ifade özgürlüğü kapsamında değerlendirilmesi gerektiğini savundu. Ancak yargıç bu savunmayı reddetti ve bot yanıtlarının “ifade” olarak kabul edilemeyeceğini belirterek davanın sürmesine onay verdi. Bu dava, ABD’deki teknoloji şirketlerinin çocuklara yönelik güvenlik politikaları açısından emsal teşkil edebilir.