Yapay zeka modeli ChatGPT’nin üreticisi ABD merkezli OpenAI şirketi, ChatGPT’nin gerçekçi seslendirme özelliğinin bazı kullanıcıları “duygusal olarak bağımlı” hale getireceği tehlikesine karşı uyardı. Gerçek insan sesine oldukça yakın üretim yapan yapay zekanın, ayrıca yetkisiz ses üretimi de ‘yeni risk’ olarak tanımlandı.
Şirketin internet sitesinden yapılan açıklamada, ChatGPT ve yapay zeka modeliyle sohbet etmek için sunulan seslendirme seçeneği üzerinde yürütülen güvenlik çalışmalarına ilişkin detaylara yer verildi.
Yürütülen ilk incelemeler sonucu, seslendirme seçeneğinin, girdilere verdiği 232 milisaniyelik yanıt süresinin ortalama bir insanın konuşma sırasındaki tepki süresine oldukça yakın olduğu belirtilen açıklamada, kullanıcıların, “gerçekçi ve doğal” olması nedeniyle bu teknolojiyle duygusal bağ kurduklarını gösteren bir dil kullandıkları kaydedildi.
Açıklamada, yapay zeka modelinin seslendirme özelliğiyle kurulan duygusal bağın “bağımlılığa” yol açabileceği konusunda uyarıda bulunuldu.
“Sesli Mod”un, yalnız bireylere fayda sağlayabileceği ancak insan ilişkilerini etkileyebileceği ifade edilen açıklamada, söz konusu özelliğin, aralarında yetkisiz ses üretiminin de bulunduğu “yeni riskler” sunduğu da aktarıldı.
Açıklamada, teknolojinin kullanıcılar için görevleri tamamlama ve konuşmalarla ilgili ayrıntıları hatırlama yeteneğinin “aşırı güven ve bağımlılık” yaratabileceği kaydedildi.
Leave a Comment
Your email address will not be published. Required fields are marked with *