Alondra Nelson Ingin Jadikan Sains dan Teknologi Lebih Adil


Pandemi mengajarkan pelajaran yang perlu kita pelajari lagi, kata Alondra Nelson: Sains dan teknologi memiliki segala sesuatu yang berkaitan dengan masalah masyarakat, ketidaksetaraan, dan kehidupan sosial.

Setelah satu tahun di mana sains menjadi dipolitisasi di tengah pandemi dan kampanye presiden, pada bulan Januari presiden terpilih Joe Biden menunjuk Nelson wakil direktur sains dan masyarakat di Kantor Kebijakan Sains dan Teknologi Gedung Putih, sebuah posisi baru. Nelson akan membangun divisi sains dan masyarakat dalam OSTP yang ditujukan untuk menangani masalah mulai dari data dan demokrasi hingga pendidikan STEM. Pertama, Biden menjadikan penasihat sainsnya Eric Lander, yang juga direktur OSTP, sebagai bagian dari kabinetnya.

Nelson telah menghabiskan karirnya di persimpangan ras, teknologi, dan masyarakat, menulis tentang topik seperti bagaimana Afrofuturisme dapat membuat dunia lebih baik dan bagaimana Black Panthers menggunakan perawatan kesehatan sebagai bentuk aktivisme, memimpin organisasi untuk mengembangkan minat awal dalam genetika. Dia penulis beberapa buku, termasuk Kehidupan Sosial DNA, yang melihat kebangkitan industri pengujian genetika konsumen dan bagaimana keinginan untuk belajar tentang garis keturunan mereka membuat orang kulit hitam dan Mormon menjadi pengguna awal teknologi tersebut.

Nelson adalah seorang profesor di Institute for Advanced Studies di Princeton, New Jersey. Sebelum pengangkatannya, dia menulis buku tentang OSTP dan inisiatif ilmiah utama pemerintahan Obama, yang mencakup serangkaian laporan tentang AI dan kebijakan pemerintah.

Dalam sambutan formal pertamanya dalam peran barunya pada bulan Januari, Nelson menyebut sains sebagai fenomena sosial dan mengatakan bahwa teknologi seperti kecerdasan buatan dapat mengungkapkan atau mencerminkan arsitektur sosial berbahaya yang mendasari pengejaran kemajuan ilmiah. Dalam sebuah wawancara dengan WIRED, Nelson mengatakan bahwa komunitas kulit hitam khususnya terlalu terpapar bahaya sains dan teknologi dan kurang terlayani oleh manfaatnya.

Dalam wawancara itu, dia berbicara tentang rencana pemerintahan Biden untuk penelitian ilmiah, mengapa pemerintah tidak memiliki posisi formal untuk melarang pengenalan wajah, dan masalah-masalah yang berkaitan dengan teknologi dan masyarakat yang baru muncul yang menurutnya harus ditangani selama masa pemerintahan pemerintahan. Transkrip yang diedit mengikuti.

WIRED: Pada bulan Januari Anda berbicara tentang “arsitektur sosial berbahaya yang terletak di bawah kemajuan ilmiah yang kami kejar” dan mengutip pengeditan gen dan kecerdasan buatan. Apa yang mendorong Anda untuk menyebutkan pengeditan gen dan AI dalam pernyataan publik pertama Anda dalam peran ini?

Alondra Nelson: Saya pikir apa yang dimiliki ilmu genetika dan AI adalah bahwa mereka adalah data sentris. Ada hal-hal yang kita ketahui tentang data dan bagaimana analisis data bekerja pada skala yang sama benarnya dengan analisis genomik skala besar seperti halnya pembelajaran mesin dalam beberapa hal, jadi ini agak mendasar. Apa yang menurut saya masih perlu kita tangani sebagai sebuah bangsa adalah pertanyaan tentang asal data yang dianalisis dengan alat AI dan pertanyaan tentang siapa yang dapat membuat keputusan tentang variabel apa yang digunakan dan pertanyaan apa yang diajukan untuk penelitian ilmiah dan teknis. Yang saya harapkan berbeda dan khas dari OSTP ini adalah rasa kejujuran tentang masa lalu. Ilmu pengetahuan dan teknologi telah merugikan beberapa komunitas, mengabaikan komunitas, dan membuat orang tidak bisa melakukan pekerjaan sains dan teknologi.

Bekerja di pemerintahan yang pada hari pertama mengidentifikasi masalah kesetaraan ras dan memulihkan kepercayaan pada pemerintah sebagai masalah utama berarti bahwa pekerjaan kebijakan sains dan teknologi harus benar-benar jujur ​​tentang masa lalu dan bagian dari pemulihan kepercayaan pada pemerintah—bagian dari pemulihan kepercayaan pada kemampuan sains dan teknologi untuk melakukan kebaikan apa pun di dunia—benar-benar terbuka tentang sejarah kekurangan dan kegagalan sains dan teknologi.

Sayangnya, ada banyak contoh. Bulan depan akan ada peringatan lain dari kisah Associated Press yang mengungkap studi sifilis Tuskegee hampir 40 tahun yang lalu, jadi kita akan membahas ulang tahun itu lagi. Kemudian tentu saja kami mendapat masalah dalam AI dari penelitian bahwa data yang digunakan tidak lengkap dan ketidaklengkapan mereka berarti mereka membuat kesimpulan yang tidak lengkap, tidak akurat, dan, ketika digunakan dalam layanan sosial dan sistem peradilan pidana pada khususnya. , memiliki efek berbahaya yang tidak proporsional pada komunitas Hitam dan coklat.

Lander mengatakan dalam sidang konfirmasinya bahwa OSTP akan membahas diskriminasi yang berasal dari algoritme bias. Bagaimana itu akan berhasil?

Diposting oleh : Lagutogel