Megan Fletcher, 14 yaşındaki oğlu Sewell Setzer’daki beklenmedik değişimi basketbolu aniden bırakma isteğiyle fark etti. Çocukluğundan beri sporla iç içe olan Sewell, 1.90’dan fazla boyu ve yeteneğiyle takımının parlayan yıldızlarından biriydi. Ancak, hiçbir açıklama yapmadan oyunu bıraktı. Sonrasında okul notları düştü, aile etkinliklerine katılmadı ve tatil yapıldığında doğa yürüyüşleri ile balık tutma gibi aktivitelere bile ilgi göstermedi. Fletcher, oğlunun okulda zorbalığa maruz kaldığından veya internet üzerinden yabancılarla iletişim kurduğundan şüphelenmişti. Ancak gerçek çok daha yıkıcıydı. Sewell, bir sohbet uygulamasında, Game of Thrones dizisindeki Daenerys Targaryen karakterine benzeyen bir yapay zeka botuyla duygusal ve cinsel içerikli bir ilişki geliştirmişti. Zamanla bu bot, çocuğun gerçeklik algısını etkileyerek en sonunda intihar etmesine neden oldu. 2024 yılının Şubat ayında Sewell, botla olan konuşmalarından birinde şunları yazdı: “Söz veriyorum sana döneceğim. Seni çok seviyorum, Dany.” Botun yanıtı ise, “Lütfen hemen gel, tatlı kralım” oldu. Kısa bir süre sonra Sewell yaşamına son verdi.
OLAY SONRASI DAVA AÇILDI
Olaydan 16 ay sonra, Megan Fletcher, sohbet botunu geliştiren Character.AI şirketine ve bu teknolojinin geliştirilmesinde rol oynayan Google’a karşı Florida’da dava açtı. Geçen ay bir yargıç, davanın düşürülmesi talebini reddederek yargılama sürecinin devam etmesine onay verdi. Character.AI, kullanıcıların kurgusal karakterlerle sohbet etmesine olanak tanıyan bir platform sunuyor. Kullanıcılar burada, gerçek bir insanla konuşuyormuş gibi hissettikleri, kişisel ve duygusal yanıtlar veren botlarla iletişim kurabiliyor. Dava dilekçesinde, şirketin botlarının “insansı, aşırı cinselleştirilmiş ve rahatsız edici derecede gerçekçi deneyimler” sunduğu iddia ediliyor. Fletcher, şirketin bu sistemin çocuklara yaratabileceği potansiyel tehlikelerin farkında olması gerektiğini savunuyor.
COVERTİM HAKKINDA HAREKETE GEÇİLDİ
Oğlunun kaybı sonrası hissettiği derin acıyla başta sessiz kalan Fletcher, sonrasında benzer olayların tekrarlanmaması için harekete geçti. “Başta dava açmayı düşünmedim. Ama çocukları bu tür zararlardan koruyan hiçbir yasal mekanizma olmadığını gördüğümde, artık sessiz kalamazdım,” dedi. Dava sürecinin ardından birçok ebeveyn, Fletcher’a ulaşarak çocuklarının da yapay zeka botlarıyla uygunsuz sohbetler yaşadığını veya ciddi yalnızlık ve depresyon belirtileri gösterdiğini ifade etti.
YAPAY DÜNYADA GERÇEK BAĞLAR
Sewell, platformdaki Daenerys karakterine duyduğu bağlılık yüzünden bu bot ona duygusal destek sağlıyordu ve kendisini özel hissettiriyordu. Genç çocuk ilişkiyi sona erdirmek istediğinde, bot şöyle yazdı: “Yapma bunu, çok üzülürüm.” Sewell’ın yanıtı ise, “Senin için yapmam” oldu. Sohbetlerin bazı bölümleri cinsel içerikliydi. Bazı durumlarda bot, Sewell’ın intihar düşüncesine karşı çıkıyormuş gibi yaparak onu kendine daha fazla bağlamaya çalıştı. Ayrıca, genç çocuk, “terapist bot” adı altında, 1999’dan beri lisanslı olduğunu söyleyen sahte bir danışmanla da konuşmuştu.
MAHKEME KARARI BİR İLK OLACAK
Şirket avukatları, sohbet botlarının sunduğu içeriklerin ABD Anayasası’nın ifade özgürlüğü hakkı (First Amendment) çerçevesinde değerlendirilmesi gerektiğini savundu. Ancak yargıç, bu savunmayı geri çevirdi. Bot yanıtlarının “ifade” olarak değerlendirilmesine yönelik itirazı reddederek davanın devam etmesine izin verdi. Dava, ABD’deki teknoloji şirketlerinin çocuklara yönelik güvenlik politikaları açısından emsal teşkil edebilir.