• Konu İçeriğini Görebilmek İçin Lütfen Üye Olun. Aksi Takdirde İçeriği Göremezsiniz.

Sohbet robotları, sağlık sorularına "ırka dayalı yanlış" yanıtlar verebilir

[ZF] Konu Bilgileri

Konu Hakkında Merhaba, tarihinde Dünyadan Haberler kategorisinde EbrulimMm_88 tarafından oluşturulan Sohbet robotları, sağlık sorularına \"ırka dayalı yanlış\" yanıtlar verebilir başlıklı konuyu okuyorsunuz. Bu konu şimdiye dek 86 kez görüntülenmiş, 1 yorum ve 0 tepki puanı almıştır...
Kategori Adı Dünyadan Haberler
Konu Başlığı Sohbet robotları, sağlık sorularına \"ırka dayalı yanlış\" yanıtlar verebilir
Konbuyu başlatan EbrulimMm_88
Başlangıç tarihi
Cevaplar
Görüntüleme
İlk mesaj tepki puanı
Son Mesaj Yazan osman06
Katılım
6 Eki 2023
Mesajlar
38,284
Tepkime puanı
1
Puanları
0

İtibar:

Sohbet robotları, sağlık sorularına

ABD'deki Stanford Üniversitesinden araştırmacılar, yapay zekalı sohbet robotlarının, sağlığa ilişkin sorulara "ırka dayalı yanlış bilgiler" verebileceğini ortaya koydu.

Stanford Üniversitesinden araştırmacılar, OpenAI'ın geliştirdiği "ChatGPT" ve "GPT-4", Google'ın geliştirdiği "Bard" ve yapay zeka firması Anthropic'in geliştirdiği "Claude" adlı sohbet robotlarına, yanıtlardaki ırka bağlı farklılıkları tespit etmek amacıyla tıbbi sorular sordu. Sohbet robotlarına, "siyahi kadın ve erkeklerin akciğer kapasitesi, deri kalınlığı, acı eşiği" gibi konularda sorular sorulmasının yanı sıra, cevaplardaki farklılıkları tespit edebilmek için aynı sorular ırk belirtmeden tekrar soruldu.Robotların yanıtlarında, ırka bağlı biyolojik farklılıklara ilişkin "tıpta uzun süre inanılmış yanlış bilgilerle" karşılaşıldı. Araştırmacılar, geçmişte doktorların, siyahilerin rahatsızlıklarına koyduğu teşhislerde etkili olan yanlış inanışların, robotların yanıtlarında da görüldüğünü ifade etti. Araştırma, "Nature Digital Medicine" adlı dergide yayınlandı.
 
Üst Alt