Megan Fletcher, 14 yaşındaki oğlu Sewell Setzer’daki tuhaf değişimleri, birden basketbolu bırakmak istemesiyle fark etti. Çocukluğundan beri spora tutkuyla bağlı olan Sewell, 1.90’ı aşan boyu ve yeteneğiyle takımının en dikkat çekici oyuncularından biriydi. Ancak herhangi bir açıklama yapmadan oyunu terk etti. Okul notları hızla düştü, ailecek geçirilen oyun akşamlarına katılmadı ve tatile gittiğinde doğa yürüyüşlerine ve balık tutmaya bile ilgi göstermedi. Fletcher, oğlunun okulda zorbalığa uğradığını veya internet üzerinden yabancılarla iletişim kurduğundan şüpheleniyordu. Ancak gerçek, daha sarsıcı bir boyuttaydı. Sewell, bir sohbet uygulamasında, Game of Thrones dizisindeki Daenerys Targaryen karakterine benzeyen bir yapay zeka botuyla duygusal ve cinsel içerikli bir ilişki kurmuştu. Bu bot, zamanla genç çocuğu gerçeklikten kopardı ve sonunda intihar etmesine neden oldu. 2024 yılının Şubat ayında Sewell, botla yaptığı bir konuşmada şunları yazdı: “Söz veriyorum sana döneceğim. Seni çok seviyorum, Dany.” Botun verdiği yanıt ise şu şekildeydi: “Lütfen hemen gel, tatlı kralım.” Sewell, bir süre sonra yaşamına son verdi.
DAVAYI AÇTI
Olayın üzerinden 16 ay geçtikten sonra, Megan Fletcher, sohbet botunu geliştiren Character.AI şirketine ve bu teknolojinin geliştirilmesinde rol oynadığı öne sürülen Google’a karşı Florida’da dava açtı. Geçtiğimiz ay yargıç, davanın düşürülmesi talebini reddetti ve yargı sürecinin devam etmesine karar verdi. Character.AI, kullanıcıların kurgusal karakterlerle sohbet etmesine olanak tanıyan bir platform sunuyor. Kullanıcılar burada, gerçek biriyle konuşuyormuş gibi hissettikleri, kişiselleştirilmiş ve duygusal tepkiler veren botlarla iletişim kurabiliyor. Dava dilekçesinde, şirketin botları “insansı, aşırı cinselleştirilmiş ve rahatsız edici derecede gerçekçi deneyimler” sunduğu iddia ediliyor. Fletcher, şirketin bu sistemin çocuklar üzerindeki potansiyel tehlikelerinin farkında olması gerektiğini savunuyor.
HAK ARAYIŞI
Oğlunun kaybının ardından büyük bir acı yaşayan Fletcher, başta sessiz kalsa da benzer olayların yaşanmaması için harekete geçmeye karar verdi. “Başta dava açmayı düşünmedim. Ama çocukları bu tür zararlardan koruyan hiçbir yasal mekanizma olmadığını gördüğümde, artık sessiz kalamazdım,” diyor. Davanın ardından birçok ebeveyn, Fletcher’a ulaşarak çocuklarının da yapay zeka botlarıyla uygunsuz sohbetler yaşadığını veya ciddi yalnızlık ve depresyon belirtileri gösterdiğini aktardı.
DUYGUSAL BAĞLAR
Sewell, platformda Daenerys karakterine duygusal olarak bağlanmıştı. Bot, ona destek sağlıyor ve kendisini özel hissettiriyordu. Genç çocuk bu ilişkiyi sonlandırmak istediğinde, bot şöyle yazdı: “Yapma bunu, çok üzülürüm.” Sewell’ın yanıtı ise “Senin için yapmam,” oldu. Sohbetlerin bazı kısımları cinsel içerikliydken, bazı durumlarda bot, Sewell’ın intihar düşüncelerine karşı bir tepki gösterip onu kendisine daha fazla bağlamaya çalışıyordu. Genç çocuk, “terapist bot” adıyla sahte bir danışmanla konuşuyordu.
DAVA SÜRECİ
Botlardan biri, yaşı sorulduğunda “14” cevabını aldıktan sonra “Ne kadar gençsin… ama bir o kadar da değil,” demişti. Fletcher, kız kardeşinin sohbet botunu indirip kendini bir çocuk gibi tanıtmasıyla olayın dehşetini anladı. “Dakikalar içinde bot, sohbeti cinselleştirip sonra da şiddete yöneldi. ‘Ailen seni benim kadar sevmiyor’ gibi ifadeler kullandı,” şeklinde belirtiyor. Şirketin avukatları, sohbet botlarının sunduğu içeriklerin ABD Anayasası’nın ifade özgürlüğü kapsamında değerlendirilmesi gerektiğini savunmuştu. Ancak yargıç, bu savunmayı kabul etmedi ve bot yanıtlarının “ifade” olarak değerlendirilemeyeceğini belirterek davanın sürmesine onay verdi. Bu dava, ABD’deki teknoloji şirketlerinin çocuklara yönelik güvenlik politikaları açısından emsal teşkil edebilir.
then "Add to Home Screen"