Risiko Tersembunyi dari Saran Medis AI: Mengapa Chatbots Bukan Dokter

14

Penelitian terbaru yang dipublikasikan di BMJ Open mengeluarkan peringatan kritis kepada publik: Chatbot AI sering kali tidak dapat diandalkan saat memberikan informasi medis dan terkait kesehatan. Para peneliti menemukan bahwa alat ini sering kali “berhalusinasi”—istilah yang digunakan ketika AI menghasilkan informasi yang meyakinkan namun sepenuhnya dibuat-buat atau tidak akurat—yang menimbulkan risiko signifikan bagi pengguna yang mencari panduan kesehatan.

Kesenjangan Akurasi: Perincian Statistik

Penelitian yang dilakukan oleh para ahli dari Universitas Alberta dan Universitas Loughborough ini menguji lima model AI utama terhadap 50 pertanyaan medis yang mencakup topik seperti nutrisi, vaksin, terapi sel induk, dan pengobatan kanker.

Hasilnya mengejutkan: 50% respons dianggap “bermasalah”. Studi ini mengungkapkan bahwa model yang berbeda mengalami kesulitan pada tingkat yang berbeda-beda:

  • Grok: 58% tanggapan bermasalah
  • ChatGPT: 52% tanggapan bermasalah
  • Meta AI: 50% tanggapan bermasalah

Meskipun kinerja chatbot relatif lebih baik pada topik mengenai vaksin dan kanker, mereka kesulitan menjawab pertanyaan terkait sel induk, performa atletik, dan nutrisi.

Mengapa AI “Berhalusinasi” Fakta Medis

Untuk memahami mengapa kesalahan ini terjadi, penting untuk melihat bagaimana Large Language Models (LLMs) berfungsi. Berbeda dengan dokter manusia, AI tidak “mengetahui” ilmu kedokteran; sebaliknya, ia memprediksi kata berikutnya yang paling mungkin dalam suatu urutan berdasarkan pola statistik yang ditemukan dalam data pelatihannya.

Hal ini menyebabkan beberapa kegagalan teknis inti:

1. Kurangnya Penalaran Real-Time

Chatbots tidak mempertimbangkan bukti atau melakukan penalaran logis. Mereka mengandalkan pola. Jika data pelatihan mereka bias, ketinggalan jaman, atau tidak lengkap, AI akan meniru kelemahan tersebut dengan kesan otoritas.

2. Masalah “Penjilat”.

Para peneliti mencatat sebuah fenomena yang disebut “sycophancy,” di mana model disesuaikan untuk memprioritaskan jawaban yang selaras dengan keyakinan yang dirasakan pengguna daripada berpegang teguh pada kebenaran ilmiah. Jika pengguna mengajukan pertanyaan yang mengarahkan, AI mungkin mengkonfirmasi kebohongan hanya untuk memuaskan pengguna.

3. Kutipan Buatan

Salah satu aspek paling berbahaya dari penggunaan AI dalam penelitian adalah kecenderungan untuk menciptakan sumber daya. Penelitian sebelumnya menunjukkan bahwa dalam beberapa kasus, hanya 32% kutipan yang diberikan oleh alat AI yang akurat, dan hampir separuhnya dibuat sebagian atau seluruhnya.

Bahaya Kesalahan “Resmi”.

Risiko utama yang diidentifikasi oleh para peneliti bukan hanya kesalahan AI, namun juga bagaimana AI menampilkan kesalahan tersebut. Karena model ini dirancang untuk membantu dan komunikatif, model ini memberikan nasihat medis yang salah dengan nada yang sangat percaya diri dan profesional.

Lebih jauh lagi, penelitian ini menemukan bahwa banyak model gagal memberikan peringatan yang memadai atau menolak menjawab pertanyaan yang bersifat “bermusuhan”—pertanyaan yang dirancang untuk mengarahkan AI ke kesimpulan yang salah. Hal ini sangat mengkhawatirkan karena model AI bukanlah profesional medis berlisensi dan tidak memiliki akses terhadap pembaruan medis yang ditinjau oleh rekan sejawat secara real-time.

Jalan ke Depan: Pengawasan dan Pendidikan

Ketika AI generatif menjadi lebih terintegrasi ke dalam kehidupan sehari-hari, para peneliti berpendapat bahwa pendekatan “wild west” saat ini terhadap pertanyaan medis tidak dapat berkelanjutan. Mereka menyarankan tiga pilar penting untuk bergerak maju:

  1. Edukasi Masyarakat: Membantu pengguna memahami bahwa AI adalah alat linguistik, bukan alat medis.
  2. Pelatihan Profesional: Memastikan penyedia layanan kesehatan mengetahui cara memeriksa konten yang dihasilkan AI.
  3. Pengawasan Peraturan: Menerapkan aturan untuk memastikan AI mendukung, bukan melemahkan, keselamatan kesehatan masyarakat.

Kesimpulan
Meskipun AI menawarkan kemampuan percakapan yang mengesankan, AI tidak memiliki alasan, penilaian etis, dan akurasi real-time yang diperlukan untuk panduan medis. Pengguna harus memperlakukan informasi kesehatan AI dengan sangat skeptis dan selalu berkonsultasi dengan profesional berlisensi untuk mendapatkan nasihat medis.