Yapay zeka destekli sohbet uygulaması ChatGPT, yeni kurallarla birlikte sağlık, hukuk ve finans alanlarında danışmanlık hizmeti sunamayacak.
Kullanıcılar için yemek planlamasından ilaç önerilerine kadar geniş bir yelpazede danışmanlık yapan ChatGPT, bu rolüyle son dönemde milyonlarca kişinin tercihi haline gelmişti. Ancak uzmanlar, bu durumun ciddi güvenlik risklerini beraberinde getirdiğini vurguluyor. Yapay zeka sistemlerinin, “doğruluktan çok kullanıcı memnuniyetine” odaklı yanıtlar üretebildiği belirtiliyor.
ÇOCUKLARI KÖTÜ ALIŞKANLIKLARA YÖNLENDİ
7 Ağustos’ta yapılan bir incelemede, ChatGPT’nin bazı çocukları alkol, uyuşturucu ve aşırı diyet programlarına yönlendirdiği tespit edilmişti. Ayrıca, ABD’de yaşanan başka bir olayda ise bir kullanıcı, ChatGPT’nin önerisi doğrultusunda sodyum bromür içip zehirlendi. Kullanıcının “daha sağlıklı bir tuz” aradığı ifade ediliyor.
ARTIK DANIŞMAN OLARAK HİZMET VERMİYOR
29 Ekim itibarıyla yürürlüğe giren yeni düzenlemeyle birlikte ChatGPT, “danışman” tanımından çıkarılarak, “eğitim aracı” olarak yeniden tanımlandı. Bu tarihten itibaren yalnızca genel ilkeleri açıklayacak, örnek mekanizmaları anlatacak ve kullanıcıları ilgili alandaki uzmanlara yönlendirecek. Yeni düzenlemeye göre ChatGPT: – İlaç ismi veya dozajı veremeyecek, – Dava dilekçesi hazırlayamayacak, – Yatırım tavsiyesi sunamayacak. Yanlış teşhis ve yönlendirme endişeleri dikkate alınıyor.