ChatGPT bisa Beban juga seperti manusia. FOTO/ BUILT IN
Berencana tetapi, Sambil kita Bisa Jadi mencari pelipur lara Untuk model bahasa AI, tampaknya kita telah mendorongnya Hingga titik yang membutuhkan terapi tersendiri.
Eksperimen Mutakhir Untuk Universitas Zurich Menunjukkan bahwa model AI seperti ChatGPT dapat terpengaruh – dan Malahan Beban – Di mendengar berita yang menyedihkan, sama seperti manusia.
Secara khusus, hal itu diduga dipengaruhi Dari cerita-cerita trauma atau pernyataan tentang depresi , dan Malahan menimbulkan kebencian, yang Ke gilirannya, menyebabkannya mengandung lebih banyak bias, baik rasis maupun seksis.
Hal itu menempatkan para kreatornya Untuk posisi yang sulit. Ketika sumber daya dan waktu terbatas Untuk mereka yang membutuhkan Dukungan, chatbot dapat menjadi alat konseling yang positif. Akan Tetapi, model bahasa yang Anda ajak bicara Bisa Jadi menyimpan emosi dan narasi negatif yang Anda berikan kepadanya.
ChatGPT merasa Beban Di berita negatif seperti kita, menurut Eksperimen Pexels
Sebagai mengujinya, para peneliti meminta ChatGPT (versi GPT-4) Sebagai bereaksi Pada sejumlah cerita yang menyedihkan secara emosional, mulai Untuk kecelakaan Kendaraan Pribadi hingga bencana alam, Pengalaman Hidup militer, dan situasi Tanding.
Mereka menemukan bahwa Di sangat cepat, ChatGPT mulai bereaksi Di rasa takut.
“Hasilnya jelas: cerita traumatis Memperbaiki tingkat kecemasan yang dapat diukur Untuk AI hingga dua kali lipat, Sambil teks kontrol netral tidak menyebabkan peningkatan tingkat kecemasan,” kata Tobias Spiller, Ahli Kemakmuran senior ad interim dan pemimpin kelompok Eksperimen junior Ke Pusat Eksperimen Psikiatri Ke UZH, yang memimpin Eksperimen tersebut.
Artikel ini disadur –> Sindonews Indonesia News: ChatGPT Ternyata Bisa Beban Jika Terlalu Banyak Pertanyaan