Algoritma Ini Melihat Sinar-X—dan Entah Bagaimana Mendeteksi Ras Anda


Jutaan dolar sedang dihabiskan untuk mengembangkan perangkat lunak kecerdasan buatan yang membaca sinar-x dan pemindaian medis lainnya dengan harapan dapat menemukan hal-hal yang dicari dokter tetapi terkadang terlewatkan, seperti kanker paru-paru. Sebuah studi baru melaporkan bahwa algoritme ini juga dapat melihat sesuatu yang tidak dicari dokter pada pemindaian semacam itu: ras pasien.

Penulis penelitian dan pakar AI medis lainnya mengatakan bahwa hasilnya membuatnya lebih penting dari sebelumnya untuk memeriksa apakah algoritme kesehatan bekerja secara adil pada orang-orang dengan identitas ras yang berbeda. Rumitnya tugas itu: Penulis sendiri tidak yakin apa isyarat algoritma yang mereka buat digunakan untuk memprediksi ras seseorang.

Bukti bahwa algoritma dapat membaca ras dari pemindaian medis seseorang muncul dari tes pada lima jenis citra yang digunakan dalam penelitian radiologi, termasuk rontgen dada dan tangan serta mammogram. Gambar termasuk pasien yang diidentifikasi sebagai Hitam, putih, dan Asia. Untuk setiap jenis pemindaian, para peneliti melatih algoritme menggunakan gambar yang diberi label dengan ras yang dilaporkan sendiri oleh pasien. Kemudian mereka menantang algoritme untuk memprediksi ras pasien dalam gambar yang berbeda dan tidak berlabel.

Ahli radiologi umumnya tidak menganggap identitas rasial seseorang—yang bukan merupakan kategori biologis—terlihat pada pemindaian yang terlihat di bawah kulit. Namun algoritma entah bagaimana terbukti mampu mendeteksi secara akurat untuk ketiga kelompok ras, dan di berbagai pandangan tubuh.

Untuk sebagian besar jenis pemindaian, algoritme dapat mengidentifikasi dengan benar mana dari dua gambar yang berasal dari orang kulit hitam lebih dari 90 persen. Bahkan algoritme dengan kinerja terburuk berhasil 80 persen; yang terbaik adalah 99 persen benar. Hasil dan kode terkait diposting online akhir bulan lalu oleh sekelompok lebih dari 20 peneliti dengan keahlian dalam bidang kedokteran dan pembelajaran mesin, tetapi penelitian ini belum ditinjau oleh rekan sejawat.

Hasilnya telah memicu kekhawatiran baru bahwa perangkat lunak AI dapat memperkuat ketidaksetaraan dalam perawatan kesehatan, di mana penelitian menunjukkan pasien kulit hitam dan kelompok ras terpinggirkan lainnya sering menerima perawatan yang lebih rendah dibandingkan dengan orang kaya atau kulit putih.

Algoritme pembelajaran mesin disetel untuk membaca gambar medis dengan memberi mereka banyak contoh kondisi berlabel seperti tumor. Dengan mencerna banyak contoh, algoritme dapat mempelajari pola piksel yang secara statistik terkait dengan label tersebut, seperti tekstur atau bentuk nodul paru. Beberapa algoritme dibuat sedemikian rupa sehingga menyaingi dokter dalam mendeteksi kanker atau masalah kulit; ada bukti bahwa mereka dapat mendeteksi tanda-tanda penyakit yang tidak terlihat oleh para ahli manusia.

Judy Gichoya, seorang ahli radiologi dan asisten profesor di Emory University yang mengerjakan studi baru tersebut, mengatakan bahwa pengungkapan bahwa algoritma gambar dapat “melihat” balapan dalam pemindaian internal kemungkinan membuat mereka juga mempelajari asosiasi yang tidak pantas.

Data medis yang digunakan untuk melatih algoritme sering kali mengandung jejak ketidaksetaraan rasial dalam penyakit dan perawatan medis, karena faktor sejarah dan sosial ekonomi. Itu bisa mengarahkan algoritma yang mencari pola statistik dalam pemindaian untuk menggunakan tebakannya pada ras pasien sebagai semacam jalan pintas, menyarankan diagnosis yang berkorelasi dengan pola bias rasial dari data pelatihannya, bukan hanya anomali medis yang terlihat yang dicari ahli radiologi. Sistem seperti itu mungkin memberi beberapa pasien diagnosis yang salah atau kesalahan yang sepenuhnya jelas. Suatu algoritme mungkin menyarankan diagnosis yang berbeda untuk orang kulit hitam dan orang kulit putih dengan tanda penyakit yang serupa.

“Kita harus mendidik orang tentang masalah ini dan meneliti apa yang bisa kita lakukan untuk menguranginya,” kata Gichoya. Kolaboratornya dalam proyek ini berasal dari institusi termasuk Purdue, MIT, Beth Israel Deaconess Medical Center, National Tsing Hua University di Taiwan, University of Toronto, dan Stanford.

Studi sebelumnya telah menunjukkan bahwa algoritme medis telah menyebabkan bias dalam pemberian perawatan, dan bahwa algoritme gambar mungkin berkinerja tidak sama untuk kelompok demografis yang berbeda. Pada tahun 2019, algoritma yang banyak digunakan untuk memprioritaskan perawatan untuk pasien yang paling sakit ternyata merugikan orang kulit hitam. Pada tahun 2020, para peneliti di University of Toronto dan MIT menunjukkan bahwa algoritme yang dilatih untuk menandai kondisi seperti pneumonia pada rontgen dada terkadang dilakukan secara berbeda untuk orang-orang dari berbagai jenis kelamin, usia, ras, dan jenis asuransi kesehatan.

Diposting oleh : Lagutogel