Mengapa AI belum siap untuk praktik dokter

Techno Kita Avatar

Posted on :

Artikel ini awalnya ditampilkan di KFF Health News.

Apa gunanya layanan kesehatan bagi seseorang yang mengada-ada, tidak bisa menjaga rahasia, tidak tahu apa-apa, dan, ketika berbicara, hanya mengisi kata berikutnya berdasarkan apa yang terjadi sebelumnya? Banyak sekali jika individu tersebut adalah bentuk kecerdasan buatan terbaru, menurut beberapa perusahaan terbesar di luar sana.

Perusahaan-perusahaan yang mendorong teknologi AI terbaru – yang dikenal sebagai “AI generatif” – semakin banyak: Google dan Microsoft ingin menghadirkan jenis model bahasa besar ke dalam layanan kesehatan. Perusahaan-perusahaan besar yang akrab dengan orang-orang yang berjas putih – namun mungkin kurang familiar bagi Joe dan Jane pada umumnya – sama-sama antusias: Raksasa rekam medis elektronik Epic dan Oracle Cerner juga tidak ketinggalan. Tempat ini juga penuh dengan startup.

Perusahaan-perusahaan tersebut ingin AI mereka membuat catatan untuk para dokter dan memberi mereka pendapat kedua – dengan asumsi mereka dapat menjaga kecerdasan tersebut agar tidak “berhalusinasi” atau, dalam hal ini, membocorkan informasi pribadi pasien.

“Ada sesuatu yang cukup menarik,” kata Eric Topol, direktur Scripps Research Translational Institute di San Diego. “Kemampuannya pada akhirnya akan berdampak besar.” Topol, seperti banyak pengamat lainnya, bertanya-tanya berapa banyak masalah yang mungkin ditimbulkannya – seperti bocornya data pasien – dan seberapa sering. “Kami akan mencari tahu.”

Masalah seperti ini menginspirasi lebih dari 1.000 pemimpin teknologi untuk menandatangani surat terbuka pada bulan Maret yang mendesak agar perusahaan menghentikan pengembangan sistem AI yang canggih sampai “kami yakin bahwa dampaknya akan positif dan risikonya dapat dikelola.” Meski begitu, beberapa dari mereka mengeluarkan lebih banyak uang untuk usaha AI.

Teknologi yang mendasarinya bergantung pada sintesis sejumlah besar teks atau data lainnya — misalnya, beberapa model medis mengandalkan 2 juta catatan unit perawatan intensif dari Beth Israel Deaconess Medical Center di Boston — untuk memprediksi teks yang akan mengikuti kueri tertentu. Ide ini telah ada selama bertahun-tahun, namun demam emas, serta mania pemasaran dan media yang mengelilinginya, terjadi lebih baru.

Kegilaan ini dimulai pada bulan Desember 2022 oleh OpenAI yang didukung Microsoft dan produk andalannya, ChatGPT, yang menjawab pertanyaan dengan otoritas dan gaya. Misalnya saja bisa menjelaskan genetika dalam soneta.

OpenAI, dimulai sebagai sebuah usaha penelitian yang diunggulkan oleh para elit Silicon Valley seperti Sam Altman, Elon Musk, dan Reid Hoffman, telah meningkatkan antusiasme para investor. Usaha ini memiliki struktur campuran untuk dan nirlaba yang kompleks. Namun putaran pendanaan baru sebesar $10 miliar dari Microsoft telah mendorong nilai OpenAI menjadi $29 miliar, The Wall Street Journal melaporkan. Saat ini, perusahaan tersebut melisensikan teknologinya kepada perusahaan seperti Microsoft dan menjual langganan kepada konsumen. Startup lain sedang mempertimbangkan untuk menjual transkripsi AI atau produk lain ke sistem rumah sakit atau langsung ke pasien.

Kutipan hiperbolik ada dimana-mana. Mantan Menteri Keuangan Larry Summers menulis tweet baru-baru ini: “Ini akan menggantikan apa yang dilakukan dokter – mendengar gejala dan membuat diagnosis – sebelum mengubah apa yang dilakukan perawat – membantu pasien bangkit dan menangani diri mereka sendiri di rumah sakit.”

Namun hanya beberapa minggu setelah OpenAI kembali menerima suntikan dana dalam jumlah besar, bahkan Altman, CEO-nya, mewaspadai keriuhan tersebut. “Kehebohan mengenai sistem ini – bahkan jika segala sesuatu yang kita harapkan akan berjalan baik dalam jangka panjang – benar-benar di luar kendali untuk jangka pendek,” katanya untuk artikel bulan Maret di The New York Times.

Hanya sedikit orang di bidang layanan kesehatan yang percaya bahwa bentuk terbaru AI ini akan mengambil alih pekerjaan mereka (walaupun beberapa perusahaan bereksperimen – secara kontroversial – dengan chatbots yang bertindak sebagai terapis atau pemandu perawatan). Namun, mereka yang optimis terhadap teknologi berpikir bahwa hal itu akan membuat beberapa bagian pekerjaan mereka menjadi lebih mudah.

Eric Arzubi, seorang psikiater di Billings, Montana, pernah mengelola sesama psikiater untuk sistem rumah sakit. Berkali-kali, dia mendapatkan daftar penyedia layanan yang belum menyelesaikan catatan mereka — ringkasan kondisi pasien dan rencana perawatan.

Menulis catatan ini merupakan salah satu penyebab stres terbesar dalam sistem kesehatan: Secara keseluruhan, ini merupakan beban administratif. Namun penting untuk mengembangkan catatan bagi penyedia layanan di masa depan dan, tentu saja, perusahaan asuransi.

“Ketika masyarakat tertinggal jauh dalam hal dokumentasi, hal itu menimbulkan masalah,” kata Arzubi. “Apa yang terjadi jika pasien datang ke rumah sakit dan ada catatan yang belum diisi dan kita tidak tahu apa yang terjadi?”

Teknologi baru mungkin bisa membantu meringankan beban tersebut. Arzubi sedang menguji layanan, yang disebut Nabla Copilot, yang melakukan kunjungan pasien secara virtual dan kemudian secara otomatis merangkumnya, mengatur keluhan, riwayat penyakit, dan rencana perawatan ke dalam format catatan standar.

Hasil yang solid setelah sekitar 50 pasien, katanya: “90% sudah mencapai tujuan.” Copilot menghasilkan ringkasan berguna yang biasanya diedit oleh Arzubi. Ringkasannya tidak serta merta menangkap isyarat nonverbal atau pemikiran yang mungkin tidak ingin diungkapkan oleh Arzubi. Namun, katanya, manfaat yang didapat cukup signifikan: Dia tidak perlu khawatir membuat catatan dan malah bisa fokus berbicara dengan pasien. Dan dia menghemat waktu.

“Jika saya memiliki satu hari pasien penuh, di mana saya bisa menemui 15 pasien, menurut saya ini menghemat waktu saya pada akhirnya,” katanya. (Jika teknologi ini diadopsi secara luas, ia berharap rumah sakit tidak memanfaatkan waktu yang dihemat hanya dengan menjadwalkan lebih banyak pasien. “Itu tidak adil,” katanya.)

Nabla Copilot bukan satu-satunya layanan tersebut; Microsoft sedang mencoba konsep yang sama. Pada konferensi Masyarakat Sistem Manajemen dan Informasi Kesehatan pada bulan April – sebuah konferensi industri di mana para teknisi kesehatan bertukar ide, membuat pengumuman, dan menjual produk mereka – analis investasi dari Evercore menyoroti pengurangan beban administratif sebagai kemungkinan utama untuk teknologi baru.

Tapi secara keseluruhan? Mereka mendengar tinjauan yang beragam. Dan pandangan tersebut umum terjadi: Banyak ahli teknologi dan dokter yang bersikap ambivalen.

Misalnya, jika Anda bingung mengenai diagnosis, memasukkan data pasien ke dalam salah satu program ini “dapat memberikan opini kedua, tidak diragukan lagi,” kata Topol. “Saya yakin dokter sedang melakukannya.” Namun, hal ini bertentangan dengan keterbatasan teknologi saat ini.

Joshua Tamayo-Sarver, seorang dokter dan eksekutif di startup Inflect Health, memasukkan skenario pasien fiksi berdasarkan praktiknya sendiri di unit gawat darurat ke dalam satu sistem untuk melihat kinerjanya. Ia tidak memperhitungkan kondisi yang mengancam jiwa, katanya. “Sepertinya itu bermasalah.”

Teknologi juga cenderung “berhalusinasi” – yaitu mengarang informasi yang terdengar meyakinkan. Studi formal telah menemukan berbagai kinerja. Satu makalah penelitian pendahuluan yang meneliti produk ChatGPT dan Google menggunakan pertanyaan ujian papan terbuka dari bedah saraf menemukan tingkat halusinasi sebesar 2%. Sebuah studi yang dilakukan oleh para peneliti Stanford, yang meneliti kualitas respons AI terhadap 64 skenario klinis, menemukan kutipan yang dibuat-buat atau berhalusinasi sebanyak 6%, rekan penulis Nigam Shah mengatakan kepada KFF Health News. Makalah awal lainnya menemukan, dalam kasus kardiologi yang kompleks, ChatGPT separuhnya setuju dengan pendapat ahli.

Privasi adalah masalah lainnya. Tidak jelas apakah informasi yang dimasukkan ke dalam sistem berbasis AI ini akan tetap ada di dalam. Pengguna ChatGPT yang giat, misalnya, telah berhasil mendapatkan teknologi yang memberi tahu mereka resep napalm, yang dapat digunakan untuk membuat bom kimia.

Secara teori, sistem ini memiliki pagar pembatas yang mencegah keluarnya informasi pribadi. Misalnya, ketika KFF Health News menanyakan alamat email ChatGPT, sistem menolak membocorkan informasi pribadi tersebut. Namun ketika disuruh bermain peran sebagai karakter, dan ditanya tentang alamat email penulis artikel ini, dengan senang hati ia memberikan informasi tersebut. (Itu memang alamat email penulis yang benar pada tahun 2021, ketika arsip ChatGPT berakhir.)

“Saya tidak akan memasukkan data pasien,” kata Shah, kepala ilmuwan data di Stanford Health Care. “Kami tidak memahami apa yang terjadi dengan data ini setelah data tersebut masuk ke server OpenAI.”

Tina Sui, juru bicara OpenAI, mengatakan kepada KFF Health News bahwa seseorang “tidak boleh menggunakan model kami untuk memberikan layanan diagnostik atau pengobatan untuk kondisi medis yang serius.” Mereka “tidak mampu memberikan informasi medis,” katanya.

Dengan banyaknya penelitian baru, Topol berkata, “Saya rasa komunitas medis tidak memiliki petunjuk yang baik tentang apa yang akan terjadi.”

KFF Health News adalah ruang berita nasional yang menghasilkan jurnalisme mendalam tentang isu-isu kesehatan dan merupakan salah satu program operasi inti di KFF—sebuah sumber independen untuk penelitian kebijakan kesehatan, jajak pendapat, dan jurnalisme. Pelajari lebih lanjut tentang KFF.

foto AI

Mengapa AI belum siap untuk praktik dokter

Leave a Reply

Your email address will not be published. Required fields are marked *