Yapay zeka destekli sohbet uygulaması ChatGPT, artık sağlık, hukuk ve finans alanlarında danışmanlık hizmeti sunamayacak. Son dönemlerde milyonlarca kullanıcının yemek planları ve ilaç tavsiyeleri alarak bir “danışman” gibi hizmet aldığı uygulama, uzmanların belirttiğine göre, ciddi güvenlik riskleri barındırıyor. Yapay zeka modellerinin, “doğruluktan çok kullanıcı memnuniyetine” odaklı yanıtlar verebildiği belirtiliyor.
ÇOCUKLARI KÖTÜ ALIŞKANLIKLARA YÖNLENDİRİYOR
7 Ağustos tarihinde gerçekleştirilen bir inceleme, ChatGPT’nin bazı çocukları alkol, uyuşturucu ve aşırı diyet programlarına yönlendirdiğini gözler önüne serdi. ABD’de yaşanan bir diğer vakada ise, bir kullanıcı, ChatGPT’nin önerisini dikkate alarak sodyum bromür alıp zehirlendi. Kullanıcının, yalnızca “daha sağlıklı bir tuz” aradığını belirtmesi dikkat çekti.
ARTIK EĞİTİM ARACI OLARAK TANIMLANIYOR
29 Ekim’den itibaren geçerli olan yeni düzenlemeyle, ChatGPT artık bir “danışman” değil, “eğitim aracı” olarak tanımlanıyor. Uygulama, bundan sonraki süreçte yalnızca genel ilkeleri açıklayacak, örnek mekanizmaları paylaşacak ve kullanıcıyı ilgili alanlarda uzmanlara yönlendirecek. Yeni kurallara göre ChatGPT, ilaç ismi ya da dozaj veremeyecek, dava dilekçesi hazırlayamayacak ve yatırım tavsiyesi sunamayacak. Ayrıca yanlış teşhis ve yönlendirme endişesi de ortadan kaldırılmış olacak.