Sekarang untuk Trik Terbaru AI: Menulis Kode Komputer


Ini bisa memakan waktu tahun untuk belajar bagaimana menulis kode komputer dengan baik. SourceAI, startup Paris, berpikir pemrograman seharusnya tidak menjadi masalah besar.

Perusahaan sedang menyempurnakan alat yang menggunakan kecerdasan buatan untuk menulis kode berdasarkan deskripsi teks singkat tentang apa yang harus dilakukan kode tersebut. Beri tahu alat perusahaan untuk “mengalikan dua angka yang diberikan oleh pengguna,” misalnya, dan itu akan menyiapkan selusin baris dalam Python untuk melakukan hal itu.

Ambisi SourceAI adalah tanda revolusi yang lebih luas dalam pengembangan perangkat lunak. Kemajuan dalam pembelajaran mesin telah memungkinkan untuk mengotomatiskan berbagai tugas pengkodean yang berkembang, dari segmen kode yang melengkapi otomatis dan menyempurnakan algoritme hingga mencari kode sumber dan menemukan bug yang mengganggu.

Pengodean otomatis dapat mengubah pengembangan perangkat lunak, tetapi keterbatasan dan titik buta AI modern dapat menimbulkan masalah baru. Algoritme pembelajaran mesin dapat berperilaku tidak terduga, dan kode yang dihasilkan oleh mesin mungkin mengandung bug berbahaya kecuali jika diteliti dengan cermat.

SourceAI, dan program serupa lainnya, bertujuan untuk memanfaatkan GPT-3, program bahasa AI yang kuat yang diumumkan pada Mei 2020 oleh OpenAI, sebuah perusahaan San Francisco yang berfokus untuk membuat kemajuan mendasar dalam AI. Para pendiri SourceAI termasuk di antara beberapa ratus orang pertama yang mendapatkan akses ke GPT-3. OpenAI belum merilis kode untuk GPT-3, tetapi memungkinkan beberapa pengguna mengakses model melalui API.

GPT-3 adalah jaringan saraf tiruan yang sangat besar yang dilatih pada sekumpulan besar teks yang diambil dari web. Ini tidak memahami arti teks itu, tetapi dapat menangkap pola dalam bahasa dengan cukup baik untuk menghasilkan artikel tentang subjek tertentu, meringkas tulisan secara ringkas, atau menjawab pertanyaan tentang isi dokumen.

“Saat menguji alat tersebut, kami menyadari bahwa alat tersebut dapat menghasilkan kode,” kata Furkan Bektes, pendiri dan CEO SourceAI. “Saat itulah kami memiliki ide untuk mengembangkan SourceAI.”

Dia bukan orang pertama yang menyadari potensi itu. Tak lama setelah GPT-3 dirilis, seorang programmer menunjukkan bahwa itu dapat membuat aplikasi web khusus, termasuk tombol, kolom input teks, dan warna, dengan mencampurkan potongan kode yang telah dimasukkan. Perusahaan lain, Debuild, berencana untuk mengkomersilkan teknologinya.

SourceAI bertujuan untuk memungkinkan penggunanya menghasilkan program yang lebih luas dalam berbagai bahasa, sehingga membantu mengotomatiskan pembuatan lebih banyak perangkat lunak. “Pengembang akan menghemat waktu dalam pengkodean, sementara orang yang tidak memiliki pengetahuan tentang pengkodean juga akan dapat mengembangkan aplikasi,” kata Bektes.

Perusahaan lain, TabNine, menggunakan versi model bahasa OpenAI sebelumnya, GPT-2, yang telah dirilis OpenAI, untuk membangun alat yang menawarkan untuk melengkapi baris atau fungsi secara otomatis ketika pengembang mulai mengetik.

Beberapa raksasa perangkat lunak tampaknya juga tertarik. Microsoft menginvestasikan $ 1 miliar di OpenAI pada 2019 dan telah menyetujui lisensi GPT-3. Pada konferensi Build raksasa perangkat lunak pada bulan Mei, Sam Altman, salah satu pendiri OpenAI, mendemonstrasikan bagaimana GPT-3 dapat melengkapi kode secara otomatis untuk pengembang. Microsoft menolak berkomentar tentang bagaimana mungkin menggunakan AI dalam alat pengembangan perangkat lunaknya.

Brendan Dolan-Gavitt, asisten profesor di Departemen Ilmu dan Teknik Komputer di NYU, mengatakan model bahasa seperti GPT-3 kemungkinan besar akan digunakan untuk membantu pemrogram manusia. Produk lain akan menggunakan model untuk “mengidentifikasi kemungkinan bug dalam kode Anda saat Anda menulisnya, dengan mencari hal-hal yang ‘mengejutkan’ model bahasa,” katanya.

Namun, menggunakan AI untuk menghasilkan dan menganalisis kode bisa menjadi masalah. Dalam makalah yang diposting online pada bulan Maret, para peneliti di MIT menunjukkan bahwa program AI yang dilatih untuk memverifikasi bahwa kode akan berjalan dengan aman dapat ditipu dengan membuat beberapa perubahan yang hati-hati, seperti mengganti variabel tertentu, untuk membuat program berbahaya. Shashank Srikant, seorang mahasiswa PhD yang terlibat dalam pekerjaan ini, mengatakan model AI tidak boleh terlalu diandalkan. “Begitu model ini masuk ke produksi, segalanya bisa menjadi sangat buruk dengan cepat,” katanya.

Dolan-Gavitt, profesor NYU, mengatakan sifat model bahasa yang digunakan untuk menghasilkan alat pengkodean juga menimbulkan masalah. “Saya pikir menggunakan model bahasa secara langsung mungkin akan menghasilkan kode yang bermasalah dan bahkan tidak aman,” katanya. “Lagi pula, mereka dilatih tentang kode yang ditulis manusia, yang sering kali bermasalah dan tidak aman.”


Diposting oleh : Lagutogel