Peneliti Ini Mengatakan AI Bukan Buatan atau Cerdas


Perusahaan teknologi suka untuk menggambarkan kecerdasan buatan sebagai alat yang tepat dan kuat untuk kebaikan. Kate Crawford mengatakan bahwa mitologi itu cacat. Dalam bukunya Atlas AI, dia mengunjungi tambang litium, gudang Amazon, dan arsip tengkorak frenologi abad ke-19 untuk menggambarkan sumber daya alam, keringat manusia, dan sains buruk yang mendasari beberapa versi teknologi. Crawford, seorang profesor di University of Southern California dan peneliti di Microsoft, mengatakan banyak aplikasi dan efek samping AI membutuhkan regulasi yang mendesak.

Crawford baru-baru ini mendiskusikan masalah ini dengan penulis senior WIRED, Tom Simonite. Transkrip yang diedit mengikuti.

WIRED: Hanya sedikit orang yang memahami semua detail teknis dari kecerdasan buatan. Anda berpendapat bahwa beberapa ahli yang mengerjakan teknologi salah memahami AI lebih dalam.

KATE CRAWFORD: Ini disajikan sebagai cara yang sangat halus dan obyektif untuk membuat keputusan, sesuatu yang dapat kita masukkan ke dalam segala hal mulai dari mengajar anak-anak hingga memutuskan siapa yang mendapat jaminan. Tapi namanya menipu: AI bukanlah buatan atau kecerdasan.

AI dibuat dari sejumlah besar sumber daya alam, bahan bakar, dan tenaga kerja manusia. Dan itu tidak cerdas dalam bentuk kecerdasan manusia apa pun. Ia tidak dapat membedakan berbagai hal tanpa pelatihan manusia yang ekstensif, dan ia memiliki logika statistik yang sama sekali berbeda tentang bagaimana makna dibuat. Sejak dimulainya AI pada tahun 1956, kami telah membuat kesalahan yang mengerikan ini, semacam dosa asal di lapangan, untuk mempercayai bahwa pikiran itu seperti komputer dan sebaliknya. Kami menganggap hal-hal ini analog dengan kecerdasan manusia dan tidak ada yang bisa lebih jauh dari kebenaran.

Anda mengambil mitos itu dengan menunjukkan bagaimana AI dibangun. Seperti banyak proses industri, prosesnya berubah menjadi berantakan. Beberapa sistem pembelajaran mesin dibuat dengan data yang dikumpulkan dengan tergesa-gesa, yang dapat menyebabkan masalah seperti layanan pengenalan wajah yang lebih rentan kesalahan pada minoritas.

Kita perlu melihat produksi kecerdasan buatan dari ujung ke ujung. Benih dari masalah data ditanam pada tahun 1980-an, ketika menjadi umum untuk menggunakan kumpulan data tanpa pengetahuan yang mendalam tentang apa yang ada di dalamnya, atau perhatian terhadap privasi. Itu hanya bahan “mentah”, digunakan kembali di ribuan proyek.

Ini berkembang menjadi ideologi ekstraksi data massal, tetapi data bukanlah substansi yang tidak bergerak — data selalu membawa konteks dan politik. Kalimat dari Reddit akan berbeda dari yang ada di buku anak-anak. Gambar dari database mugshot memiliki sejarah yang berbeda dari yang dari Oscar, tetapi semuanya digunakan dengan cara yang sama. Ini menyebabkan sejumlah masalah di hilir. Pada tahun 2021, masih belum ada standar seluruh industri untuk mencatat jenis data apa yang disimpan dalam set pelatihan, bagaimana data itu diperoleh, atau potensi masalah etika.

Anda melacak akar perangkat lunak pengenal emosi hingga sains meragukan yang didanai oleh Departemen Pertahanan pada 1960-an. SEBUAH review terbaru lebih dari 1.000 makalah penelitian tidak menemukan bukti bahwa emosi seseorang dapat disimpulkan dengan andal dari wajah mereka.

Deteksi emosi mewakili fantasi bahwa teknologi akhirnya akan menjawab pertanyaan yang kita miliki tentang sifat manusia yang bukan merupakan pertanyaan teknis sama sekali. Ide yang begitu diperdebatkan di bidang psikologi ini membuat lompatan ke dalam pembelajaran mesin karena ini adalah teori sederhana yang sesuai dengan alatnya. Merekam wajah orang dan menghubungkannya dengan keadaan emosional yang sederhana dan telah ditentukan sebelumnya bekerja dengan pembelajaran mesin — jika Anda melepaskan budaya dan konteks dan bahwa Anda mungkin mengubah cara Anda melihat dan merasakan ratusan kali sehari.

Itu juga menjadi putaran umpan balik: Karena kami memiliki alat pendeteksi emosi, orang mengatakan kami ingin menerapkannya di sekolah dan ruang sidang dan untuk menangkap calon pengutil. Baru-baru ini perusahaan menggunakan pandemi sebagai dalih untuk menggunakan pengenalan emosi pada anak-anak di sekolah. Ini membawa kita kembali ke masa lalu frenologis, keyakinan bahwa Anda mendeteksi karakter dan kepribadian dari wajah dan bentuk tengkorak.

Atas kebaikan Cath Muscat

Anda berkontribusi pada pertumbuhan baru-baru ini dalam penelitian tentang bagaimana AI dapat memiliki efek yang tidak diinginkan. Tapi bidang itu terkait dengan orang-orang dan pendanaan dari industri teknologi, yang mencari keuntungan dari AI. Google baru-baru ini memaksa keluar dua peneliti yang dihormati tentang etika AI, Timnit Gebru dan Margaret Mitchell. Apakah keterlibatan industri membatasi penelitian yang mempertanyakan AI?

Diposting oleh : Lagutogel