Algoritma AI Melangsingkan Tubuh agar Sesuai dengan Lemari Es Anda

Algoritma AI Melangsingkan Tubuh agar Sesuai dengan Lemari Es Anda

[ad_1]

Kecerdasan buatan telah membuat langkah luar biasa, tetapi sering kali membutuhkan data dan daya komputer dalam jumlah yang tidak masuk akal untuk mencapainya. Sekarang beberapa peneliti AI fokus untuk membuat teknologi seefisien mungkin.

Minggu lalu, para peneliti menunjukkan bahwa dimungkinkan untuk memasukkan algoritma penglihatan AI yang kuat ke dalam chip komputer sederhana dan berdaya rendah yang dapat berjalan selama berbulan-bulan dengan baterai. Trik ini dapat membantu menghadirkan kemampuan AI yang lebih canggih, seperti pengenalan gambar dan suara, ke peralatan rumah tangga dan perangkat yang dapat dikenakan, bersama dengan gadget medis dan sensor industri. Ini juga dapat membantu menjaga kerahasiaan dan keamanan data dengan mengurangi kebutuhan untuk mengirim apa pun ke cloud.

“Hasil ini cukup menarik bagi kami,” kata Song Han, asisten profesor di MIT yang memimpin proyek tersebut. Meskipun untuk saat ini pekerjaan tersebut adalah eksperimen lab, namun “dapat dengan cepat dipindahkan ke perangkat dunia nyata,” kata Han.

Mikrokontroler adalah chip komputer yang relatif sederhana, berbiaya rendah, dan berdaya rendah yang ditemukan di dalam miliaran produk, termasuk mesin mobil, perkakas listrik, remote TV, dan implan medis.

Panduan WIRED untuk Kecerdasan Buatan

Algoritme supersmart tidak akan mengambil semua pekerjaan, tetapi mereka belajar lebih cepat dari sebelumnya, melakukan segalanya mulai dari diagnostik medis hingga menayangkan iklan.

Para peneliti pada dasarnya menemukan cara untuk mengurai algoritma pembelajaran mendalam, program jaringan saraf besar yang secara longgar meniru cara neuron terhubung dan menyala di otak. Selama dekade terakhir, pembelajaran mendalam telah mendorong kemajuan besar dalam AI, dan ini adalah fondasi dari ledakan AI saat ini.

Algoritme pembelajaran mendalam biasanya berjalan pada chip komputer khusus yang membagi komputasi paralel yang diperlukan untuk melatih dan menjalankan jaringan dengan lebih efektif. Melatih model bahasa yang dikenal sebagai GPT-3, yang mampu menghasilkan bahasa yang meyakinkan saat diberi perintah, memerlukan chip AI mutakhir yang setara yang berjalan dengan kemiringan penuh selama 355 tahun. Penggunaan semacam itu telah menyebabkan penjualan GPU yang melonjak, chip yang sangat cocok untuk pembelajaran mendalam, serta semakin banyak chip khusus AI untuk smartphone dan gadget lainnya.

Ada dua bagian dalam pendekatan penelitian baru. Pertama, para peneliti menggunakan algoritme untuk mengeksplorasi kemungkinan arsitektur jaringan saraf, mencari yang sesuai dengan batasan komputasi mikrokontroler. Bagian lainnya adalah pustaka perangkat lunak yang ringkas dan hemat memori untuk menjalankan jaringan. Pustaka ini dirancang bersama dengan arsitektur jaringan, untuk menghilangkan redundansi dan memperhitungkan kekurangan memori pada mikrokontroler. “Apa yang kami lakukan seperti menemukan jarum di tumpukan jerami,” kata Han.

Para peneliti menciptakan algoritma computer vision yang mampu mengidentifikasi 1.000 jenis objek dalam gambar dengan akurasi 70 persen. Algoritma berdaya rendah terbaik sebelumnya hanya mencapai akurasi sekitar 54 persen. Itu juga membutuhkan 21 persen memori dan mengurangi latensi hingga 67 persen, dibandingkan dengan metode yang ada. Tim tersebut menunjukkan performa serupa untuk algoritme pembelajaran mendalam yang mendengarkan “kata bangun” tertentu dalam umpan audio. Han mengatakan perbaikan lebih lanjut harus dimungkinkan dengan menyempurnakan metode yang digunakan.

Siluet manusia dan robot bermain kartu

Rahasia Machine Learning? Guru Manusia

“Ini memang cukup mengesankan,” kata Jae-sun Seo, seorang profesor di Arizona State University yang bekerja pada pembelajaran mesin dengan sumber daya yang terbatas.

“Aplikasi komersial dapat mencakup kacamata pintar, perangkat augmented reality yang terus menjalankan deteksi objek,” kata Seo. “Dan perangkat edge dengan pengenalan ucapan di perangkat tanpa terhubung ke cloud.”

John Cohn, seorang peneliti di MIT-IBM Watson AI Research Group dan bagian dari tim di balik pekerjaan tersebut, mengatakan beberapa pelanggan IBM tertarik untuk menggunakan teknologi tersebut. Dia mengatakan satu kegunaan yang jelas adalah pada sensor yang dirancang untuk memprediksi masalah dengan mesin industri. Saat ini, sensor-sensor ini perlu terhubung ke jaringan nirkabel sehingga komputasi dapat dilakukan dari jarak jauh, pada sistem yang lebih bertenaga.

Aplikasi penting lainnya bisa jadi di perangkat medis. Han mengatakan dia telah mulai bekerja dengan rekan-rekannya di MIT pada perangkat yang menggunakan pembelajaran mesin untuk terus memantau tekanan darah.


Lebih Banyak Kisah WIRED Hebat

Diposting oleh : Lagutogel

Releated

Teks Yang Didukung AI Dari Program Ini Bisa Menipu Pemerintah

Teks Yang Didukung AI Dari Program Ini Bisa Menipu Pemerintah

[ad_1] Pada bulan Oktober 2019, Idaho mengusulkan untuk mengubah program Medicaidnya. Negara bagian membutuhkan persetujuan dari pemerintah federal, yang meminta umpan balik publik melalui Medicaid.gov. Sekitar 1.000 komentar tiba. Tapi setengahnya bukan dari warga yang peduli atau bahkan troll internet. Mereka dihasilkan oleh kecerdasan buatan. Dan sebuah penelitian menemukan bahwa orang tidak dapat membedakan antara […]

Algoritma Membantu Komunitas Mendeteksi Pipa Timbal

Algoritma Membantu Komunitas Mendeteksi Pipa Timbal

[ad_1] Lebih dari enam Bertahun-tahun setelah penduduk Flint, Michigan, menderita keracunan timbal yang meluas dari air minum mereka, ratusan juta dolar telah dihabiskan untuk meningkatkan kualitas air dan meningkatkan perekonomian kota. Namun warga masih melaporkan sejenis PTSD komunitas, menunggu di antrean panjang toko bahan makanan untuk membeli air kemasan dan filter. Laporan media Rabu mengatakan […]