Algoritma AI Melangsingkan Tubuh agar Sesuai dengan Lemari Es Anda
[ad_1]
Kecerdasan buatan telah membuat langkah luar biasa, tetapi sering kali membutuhkan data dan daya komputer dalam jumlah yang tidak masuk akal untuk mencapainya. Sekarang beberapa peneliti AI fokus untuk membuat teknologi seefisien mungkin.
Minggu lalu, para peneliti menunjukkan bahwa dimungkinkan untuk memasukkan algoritma penglihatan AI yang kuat ke dalam chip komputer sederhana dan berdaya rendah yang dapat berjalan selama berbulan-bulan dengan baterai. Trik ini dapat membantu menghadirkan kemampuan AI yang lebih canggih, seperti pengenalan gambar dan suara, ke peralatan rumah tangga dan perangkat yang dapat dikenakan, bersama dengan gadget medis dan sensor industri. Ini juga dapat membantu menjaga kerahasiaan dan keamanan data dengan mengurangi kebutuhan untuk mengirim apa pun ke cloud.
“Hasil ini cukup menarik bagi kami,” kata Song Han, asisten profesor di MIT yang memimpin proyek tersebut. Meskipun untuk saat ini pekerjaan tersebut adalah eksperimen lab, namun “dapat dengan cepat dipindahkan ke perangkat dunia nyata,” kata Han.
Mikrokontroler adalah chip komputer yang relatif sederhana, berbiaya rendah, dan berdaya rendah yang ditemukan di dalam miliaran produk, termasuk mesin mobil, perkakas listrik, remote TV, dan implan medis.
Para peneliti pada dasarnya menemukan cara untuk mengurai algoritma pembelajaran mendalam, program jaringan saraf besar yang secara longgar meniru cara neuron terhubung dan menyala di otak. Selama dekade terakhir, pembelajaran mendalam telah mendorong kemajuan besar dalam AI, dan ini adalah fondasi dari ledakan AI saat ini.
Algoritme pembelajaran mendalam biasanya berjalan pada chip komputer khusus yang membagi komputasi paralel yang diperlukan untuk melatih dan menjalankan jaringan dengan lebih efektif. Melatih model bahasa yang dikenal sebagai GPT-3, yang mampu menghasilkan bahasa yang meyakinkan saat diberi perintah, memerlukan chip AI mutakhir yang setara yang berjalan dengan kemiringan penuh selama 355 tahun. Penggunaan semacam itu telah menyebabkan penjualan GPU yang melonjak, chip yang sangat cocok untuk pembelajaran mendalam, serta semakin banyak chip khusus AI untuk smartphone dan gadget lainnya.
Ada dua bagian dalam pendekatan penelitian baru. Pertama, para peneliti menggunakan algoritme untuk mengeksplorasi kemungkinan arsitektur jaringan saraf, mencari yang sesuai dengan batasan komputasi mikrokontroler. Bagian lainnya adalah pustaka perangkat lunak yang ringkas dan hemat memori untuk menjalankan jaringan. Pustaka ini dirancang bersama dengan arsitektur jaringan, untuk menghilangkan redundansi dan memperhitungkan kekurangan memori pada mikrokontroler. “Apa yang kami lakukan seperti menemukan jarum di tumpukan jerami,” kata Han.
Para peneliti menciptakan algoritma computer vision yang mampu mengidentifikasi 1.000 jenis objek dalam gambar dengan akurasi 70 persen. Algoritma berdaya rendah terbaik sebelumnya hanya mencapai akurasi sekitar 54 persen. Itu juga membutuhkan 21 persen memori dan mengurangi latensi hingga 67 persen, dibandingkan dengan metode yang ada. Tim tersebut menunjukkan performa serupa untuk algoritme pembelajaran mendalam yang mendengarkan “kata bangun” tertentu dalam umpan audio. Han mengatakan perbaikan lebih lanjut harus dimungkinkan dengan menyempurnakan metode yang digunakan.
“Ini memang cukup mengesankan,” kata Jae-sun Seo, seorang profesor di Arizona State University yang bekerja pada pembelajaran mesin dengan sumber daya yang terbatas.
“Aplikasi komersial dapat mencakup kacamata pintar, perangkat augmented reality yang terus menjalankan deteksi objek,” kata Seo. “Dan perangkat edge dengan pengenalan ucapan di perangkat tanpa terhubung ke cloud.”
John Cohn, seorang peneliti di MIT-IBM Watson AI Research Group dan bagian dari tim di balik pekerjaan tersebut, mengatakan beberapa pelanggan IBM tertarik untuk menggunakan teknologi tersebut. Dia mengatakan satu kegunaan yang jelas adalah pada sensor yang dirancang untuk memprediksi masalah dengan mesin industri. Saat ini, sensor-sensor ini perlu terhubung ke jaringan nirkabel sehingga komputasi dapat dilakukan dari jarak jauh, pada sistem yang lebih bertenaga.
Aplikasi penting lainnya bisa jadi di perangkat medis. Han mengatakan dia telah mulai bekerja dengan rekan-rekannya di MIT pada perangkat yang menggunakan pembelajaran mesin untuk terus memantau tekanan darah.
Lebih Banyak Kisah WIRED Hebat
Diposting oleh : Lagutogel