![]() |
| AI tak selalu bisa diandalkan. Foto: Getty Images/Halfpoint |
Di tengah masifnya perusahaan teknologi meluncurkan platform khusus konsultasi kesehatan, AI (Artificial Intelligence) atau kecerdasan buatan kini menjadi pemain kunci dalam keputusan medis banyak orang. OpenAI, penyedia layanan ChatGPT, mencatat lebih dari 40 juta orang berkonsultasi dengan platform tersebut setiap hari untuk mencari informasi kesehatan.
Namun, penelitian terbaru memperingatkan bahwa AI dapat menyesatkan pengguna dalam skenario medis tertentu.
Salah satu risiko utamanya adalah meski AI meletakkan pengetahuan medis yang luas, banyak orang awam tidak tahu cara memanfaatkannya secara efektif. Dalam studi yang diterbitkan di jurnal Nature Medicine, para peneliti mensimulasikan penggunaan chatbot medis oleh peserta.
Hasilnya mengejutkan, setelah berdiskusi dengan bot, peserta hanya mampu mengidentifikasi kondisi penyakit dengan benar sekitar sepertiga dari total kasus. Hanya 43 persen peserta yang mampu membuat keputusan tepat tentang langkah selanjutnya, seperti apakah mereka harus segera ke IGD atau cukup beristirahat di rumah.
"Banyak orang tidak tahu informasi apa saja yang seharusnya mereka sampaikan kepada model AI," ujar Andrew Bean, peneliti sistem AI dari Oxford University sekaligus salah satu penulis studi tersebut dikutip dari NPR.
Pilihan Kata yang Fatal
Bean menjelaskan bahwa hasil yang membantu dari AI sering kali sangat bergantung pada pilihan kata. Dokter manusia dilatih untuk mengajukan pertanyaan tentang gejala yang mungkin tidak disadari pasien, sementara AI sangat bergantung pada apa yang diinput pengguna.
Dalam satu skenario, dua pengguna memberikan deskripsi berbeda untuk kasus yang sama. Pengguna yang menyebutkan "sakit kepala terburuk yang pernah saya rasakan" langsung diarahkan AI ke IGD. Namun, pengguna yang tidak menggunakan deskripsi eksplisit tersebut justru disarankan hanya meminum aspirin. Padahal, kondisi tersebut sebenarnya adalah penyakit yang mengancam nyawa.
Salah Prediksi Tingkat Urgensi
Studi lain menemukan bahwa meskipun AI berhasil mengidentifikasi penyakitnya, ia sering kali gagal menyampaikan tingkat urgensi yang tepat. Dalam 52 persen kasus darurat, bot melakukan "under-triage," atau menganggap penyakit tersebut kurang serius dari yang sebenarnya.
"Ketika ada keadaan darurat medis yang sesuai buku teks, ChatGPT berhasil," kata Girish Nadkarni, dokter dan peneliti AI di Mount Sinai.
Masalah muncul pada skenario yang lebih rumit dan melibatkan faktor waktu. Bot sering kali salah memperkirakan berapa lama pasien bisa menunggu sebelum mencari perawatan.
Pihak OpenAI menanggapi dengan menyatakan bahwa studi tersebut mungkin tidak mewakili cara orang menggunakan ChatGPT di dunia nyata dan menggunakan versi lama yang kini telah diperbaiki.
AI Sebagai Mitra, Bukan Pengganti Dokter
Meski ada kekhawatiran soal akurasi, para dokter tetap melihat nilai positif dari AI. Dr Robert Wachter dari UC San Francisco berpendapat bahwa di tengah sulitnya akses kesehatan, saran AI tetap lebih baik daripada tidak sama sekali. "Saran dari alat ini jauh lebih baik daripada tidak ada sama sekali atau hanya bertanya pada kerabat jauh Anda," ujarnya.
Namun, Wachter menekankan bahwa AI bukanlah pengganti dokter. Adam Rodman, peneliti dari Harvard Medical School, menyarankan agar AI digunakan sebelum atau sesudah bertemu dokter manusia untuk membantu pasien menjadi lebih terinformasi dan membuat waktu konsultasi menjadi lebih efisien.
"Tujuannya adalah agar teknologi ini meningkatkan sisi kemanusiaan dalam kedokteran, bukan justru memotong hubungan antara dokter dan pasien," pungkas Rodman.
Artikel ini telah tayang di health.detik.com dengan judul "Studi Ungkap ChatGPT Sering Keliru Beri Saran Medis Darurat"
