Agensi Ini Ingin Mengetahui Secara Tepat Seberapa Banyak Anda Mempercayai AI


Asisten profesor Universitas Harvard Himabindu Lakkaraju mempelajari peran kepercayaan dalam pengambilan keputusan manusia dalam pengaturan profesional. Dia bekerja dengan hampir 200 dokter di rumah sakit di Massachusetts untuk memahami bagaimana kepercayaan pada AI dapat mengubah cara dokter mendiagnosis pasien.

Untuk penyakit umum seperti flu, AI tidak terlalu membantu, karena profesional manusia dapat mengenalinya dengan mudah. Tetapi Lakkaraju menemukan bahwa AI dapat membantu dokter mendiagnosis penyakit yang sulit diidentifikasi seperti penyakit autoimun. Dalam karya terbarunya, Lakkaraju dan rekan kerjanya memberikan catatan dokter tentang sekitar 2.000 pasien dan prediksi dari sistem AI, kemudian meminta mereka untuk memprediksi apakah pasien akan mengalami stroke dalam enam bulan. Mereka memvariasikan informasi yang diberikan tentang sistem AI, termasuk akurasinya, interval kepercayaan, dan penjelasan tentang cara kerja sistem. Mereka menemukan bahwa prediksi dokter adalah yang paling akurat ketika mereka diberi informasi paling banyak tentang sistem AI.

Lakkaraju mengatakan dia senang melihat bahwa NIST mencoba untuk mengukur kepercayaan, tetapi dia mengatakan bahwa agensi tersebut harus mempertimbangkan peran yang dapat dimainkan oleh penjelasan dalam kepercayaan manusia terhadap sistem AI. Dalam percobaan, akurasi prediksi stroke oleh dokter turun ketika dokter diberikan penjelasan tanpa data untuk menginformasikan keputusan, menyiratkan bahwa penjelasan saja dapat membuat orang terlalu mempercayai AI.

“Penjelasan dapat menghasilkan kepercayaan yang luar biasa tinggi bahkan ketika itu tidak dijamin, yang merupakan resep untuk masalah,” katanya. “Tapi begitu Anda mulai menghitung seberapa bagus penjelasannya, kepercayaan orang perlahan terkalibrasi.”

Negara-negara lain juga mencoba menghadapi pertanyaan tentang kepercayaan pada AI. AS termasuk di antara 40 negara yang menandatangani prinsip AI yang menekankan kepercayaan. Sebuah dokumen yang ditandatangani oleh sekitar selusin negara Eropa mengatakan bahwa kepercayaan dan inovasi berjalan seiring, dan dapat dianggap sebagai “dua sisi mata uang yang sama.”

NIST dan OECD, sekelompok 38 negara dengan ekonomi maju, sedang mengerjakan alat untuk menetapkan sistem AI sebagai risiko tinggi atau rendah. Pemerintah Kanada membuat proses penilaian dampak algoritme pada 2019 untuk bisnis dan lembaga pemerintah. Di sana, AI terbagi dalam empat kategori—dari tidak berdampak pada kehidupan orang atau hak-hak komunitas hingga risiko yang sangat tinggi dan melanggengkan kerugian pada individu dan komunitas. Menilai suatu algoritma membutuhkan waktu sekitar 30 menit. Pendekatan Kanada mengharuskan pengembang memberi tahu pengguna untuk semua kecuali sistem dengan risiko terendah.

Anggota parlemen Uni Eropa sedang mempertimbangkan peraturan AI yang dapat membantu menentukan standar global untuk jenis AI yang dianggap berisiko rendah atau tinggi dan cara mengatur teknologinya. Seperti undang-undang privasi GDPR Eropa, strategi AI UE dapat memimpin perusahaan terbesar di dunia yang menggunakan kecerdasan buatan untuk mengubah praktik mereka di seluruh dunia.

Peraturan tersebut menyerukan pembuatan daftar publik dari bentuk AI berisiko tinggi yang digunakan dalam database yang dikelola oleh Komisi Eropa. Contoh AI yang dianggap berisiko tinggi termasuk dalam dokumen termasuk AI yang digunakan untuk pendidikan, pekerjaan, atau sebagai komponen keselamatan untuk utilitas seperti listrik, gas, atau air. Laporan itu kemungkinan akan diubah sebelum disahkan, tetapi rancangan tersebut menyerukan larangan AI untuk penilaian sosial warga oleh pemerintah dan pengenalan wajah waktu nyata.

Laporan UE juga mendorong agar bisnis dan peneliti dapat bereksperimen di bidang yang disebut “kotak pasir”, yang dirancang untuk memastikan kerangka hukum “ramah inovasi, tahan masa depan, dan tahan terhadap gangguan.” Awal bulan ini, pemerintahan Biden memperkenalkan Satuan Tugas Sumber Daya Penelitian Kecerdasan Buatan Nasional yang bertujuan untuk berbagi data pemerintah untuk penelitian tentang masalah-masalah seperti perawatan kesehatan atau mengemudi otonom. Rencana akhir akan membutuhkan persetujuan dari Kongres.

Untuk saat ini, skor kepercayaan pengguna AI sedang dikembangkan untuk praktisi AI. Namun, seiring waktu, skor tersebut dapat memberdayakan individu untuk menghindari AI yang tidak dapat dipercaya dan mendorong pasar untuk menerapkan sistem yang kuat, teruji, dan tepercaya. Tentu saja itu jika mereka tahu AI sedang digunakan sama sekali.


Lebih Banyak Cerita WIRED yang Hebat

Diposting oleh : Lagutogel