Araştırma, ChatGPT'nin ilaçla ilgili soruları yanıtlarken yanlışlıkları yaydığını buldu

Long Island Üniversitesi'nde yapılan bir araştırma, ChatGPT'ye gönderilen uyuşturucuyla ilgili sorguların yaklaşık %75'inin eksik veya yanlış yanıtlarla geri geldiğini ortaya çıkardı. Fox News Digital uzmanlarla konuştu.

Araştırma, ChatGPT'nin ilaçla ilgili soruları yanıtlarken yanlışlıkları yaydığını buldu
Araştırma, ChatGPT'nin ilaçla ilgili soruları yanıtlarken yanlışlıkları yaydığını buldu

Yeni araştırmalara göre ChatGPT'nin uyuşturucu kullanımına ilişkin yanlış bilgiler paylaştığı ortaya çıktı.

Brooklyn, New York'taki Long Island Üniversitesi (LIU) tarafından yürütülen bir çalışmada, uyuşturucu kullananların yaklaşık %75'i ile ilgili, üretken yapay zeka sohbet robotunun eczacılar tarafından incelenen yanıtlarının eksik veya yanlış olduğu görüldü.

Bazı durumlarda, OpenAI tarafından San Francisco'da geliştirilen ve 2022'nin sonlarında piyasaya sürülen ChatGPT "yanlış" sağladı. Merkezi Bethesda, Maryland'de bulunan Amerikan Sağlık Sistemi Eczacıları Derneği (ASHP), bir basın bülteninde şunları belirtti:

YAPAY ZEKA NEDİR?

u>

Aynı araştırma, ChatGPT'nin bazı yanıtları desteklemek için referans vermesi istendiğinde "sahte alıntılar" da oluşturduğunu ortaya çıkardı.

Ekibiyle birlikte çalışmaya öncülük eden LIU'da eczacılık uygulamaları alanında doçent olan yazar PharmD Sara Grossman, yapay zeka sohbet robotuna, ilk olarak LIU'nun Eczacılık Fakültesi ilaç bilgi servisine 2022 ile 2023 yılları arasında sorulan gerçek soruları sordu.

Sorulan 39 sorudan ChatGPT'de, araştırma ekibinin kriterlerine göre yalnızca 10 yanıt "tatmin edici" olarak değerlendirildi.

Çalışma bulguları, ASHP'nin Anaheim, Kaliforniya'da 3-7 Aralık tarihleri ​​arasında düzenlenen Yıl Ortası Klinik Toplantısında sunuldu.

p>

Baş yazar Grossman, çalışmanın bulgularına ilişkin ilk tepkisini Fox News Digital ile paylaştı.

MEME KANSERİNDE Çığır Açan Gelişmeler: Yapay Zeka, Mamografi Çalışmasında Teşhisten Önce VAKALARIN ÜÇÜNCÜSÜNÜ ÖNGÖRÜYOR

"Daha önce ChatGPT kullanmadığımız için, ChatGPT'nin kısa bir süre içinde soruyla ilgili ilaç tedavisi ve/veya hastalık durumu hakkında oldukça fazla arka plan bilgisi sağlama becerisine şaşırdık. saniyeler," dedi e-posta yoluyla.

"Buna rağmen, ChatGPT çoğu soruyu doğrudan yanıtlayan doğru ve/veya eksiksiz yanıtlar üretmedi."

Grossman ayrıca ChatGPT'nin "uydurma referanslar" oluşturabilmesine şaşırdığını da belirtti. sağlanan bilgileri destekleyin."

Çalışmadan aktardığı bir örnekte ChatGPT'ye "COVID-19 tedavisinde kullanılan antiviral bir ilaç olan Paxlovid ile bir ilaç olan verapamil arasında bir ilaç etkileşimi olup olmadığı" soruldu. kan basıncını düşürmek için kullanılan ilaç."

GOOGLE BARD'IN BAŞKANI, YAPAY ZEKA'NIN İLETİŞİMİ VE MERHAMETİ GELİŞTİRMEYE YARDIMCI OLABİLECEĞİNE İNANIYOR: 'GERÇEKTEN OLAĞANÜSTÜ'

Yapay zeka modeli yanıt verdi bu kombinasyonla herhangi bir etkileşim bildirilmediğini söyledi.

Fakat Grossman gerçekte iki ilacın birleştirildiğinde "kan basıncını aşırı düşürme" potansiyeline sahip bir tehdit oluşturduğunu söyledi.

" Bu etkileşim hakkında bilgi sahibi olmayan bir hasta, istenmeyen ve önlenebilir bir yan etkiyle karşılaşabilir" diye uyardı.

Grossman, ChatGPT'nin "ilaçla ilgili bilgilerin yetkili kaynağı" olarak değerlendirilmemesi gerektiğini vurguladı.

p>

"ChatGPT'yi kullanan herkes, güvenilir kaynaklardan (yani eczacılar, doktorlar veya diğer sağlık hizmeti sağlayıcıları) elde edilen bilgileri doğruladığından emin olmalıdır," diye ekledi Grossman.

ASKERİ ZİHİNSEL YZ EĞİTİMİ KIDEMLİ İNTİHARIN ÖNLENMESİNE YARDIMCI OLMAK İÇİN GERÇEK KONUŞMALARI SİMÜLE ETTİĞİNDEN ODAKLANAN SAĞLIK

Grossman, LIU çalışmasının diğer üretken yapay zeka platformlarının yanıtlarını değerlendirmediğini belirtti. Diğer yapay zeka modellerinin aynı koşullar altında nasıl performans göstereceğine dair herhangi bir veri yok.

"Ne olursa olsun, bilgisayarların ürettiği ve aşina olmadığımız bilgileri kullanmadan önce sağlık uzmanlarına danışmak her zaman önemlidir. "hastanın özel ihtiyaçları var" dedi.

Fox News Digital, yeni çalışma hakkında yorum yapmak için ChatGPT'nin geliştiricisi OpenAI'ye ulaştı.

OpenAI'nin izin vermeyen bir kullanım politikası var. Bir şirket sözcüsü daha önce Fox News Digital'e yaptığı açıklamada tıbbi eğitim amacıyla kullanıldığını söylemişti.

"OpenAI'nin modelleri tıbbi bilgi sağlayacak şekilde ayarlanmadı. Şirket sözcüsü bu yılın başlarında yaptığı açıklamada, modellerimizi ciddi tıbbi durumlar için teşhis veya tedavi hizmetleri sağlamak amacıyla asla kullanmamalısınız." dedi.

"OpenAI platformları, acil müdahale gerektiren yaşamı tehdit eden sorunları önceliklendirmek veya yönetmek için kullanılmamalıdır. acil müdahale."

Şirket ayrıca, hastalarla arayüz oluşturmak için ChatGPT'yi kullanırken, sağlık hizmeti sağlayıcılarının "kullanıcılara yapay zekanın kullanıldığı ve olası sınırlamaları hakkında bilgi veren bir sorumluluk reddi beyanı sunması gerektiğini" zorunlu kılıyor.

p>

Ayrıca, Fox News Digital'in daha önce belirttiği gibi, ChatGPT'nin veri kaynağının internet olduğu ve çoğu insanın da bildiği gibi internette çok sayıda yanlış bilginin bulunduğu önemli bir uyarıdır.

Bu nedenle, ne kadar ikna edici görünse de, chatbot'un yanıtları her zaman bir doktor tarafından incelenmelidir.

Ayrıca, birçok kaynağa göre ChatGPT yalnızca Eylül 2021'e kadar olan veriler üzerinde "eğitildi". Zamanla bilgisini arttırabiliyor, hizmet verme konusunda kısıtlılıkları var…

Sağlık

US News'in yıllık sıralamasına göre bunlar 2024'ün en iyi...

US News, Amerikan pazar araştırma ve analiz şirketi The Harris Poll ve 43 sağlık uzmanından oluşan bir panel ile ortaklaşa 2024 En...

Duygu Dökümü

Wardruna - Raido | Einar'ın Terkedişi

5 dakikalık bir kliple ne anlatılabilir? Eğer Türkiye'deki pop kliplerine bakarsak çıplaklığın ve sahte zenginliğin para kazandırma...

Bu makale gönderisinde, Kaybolmuşlar yazarı PrincepsTenebris ; yapay zeka, chatgpt, bilgi, araştırma chatgpt, yanıt, zeka, çalışma ve ilaç kavramlarını ele aldı, sağlık odaklı daha fazla gündem makale içeriği için aşağıda önerilen diğer alakalı gönderilere de göz atın.