AI Dapat Segera Menulis Kode Berdasarkan Bahasa Biasa


Dalam beberapa tahun terakhir, peneliti telah menggunakan kecerdasan buatan untuk meningkatkan terjemahan antar bahasa pemrograman atau secara otomatis memperbaiki masalah. Sistem AI DrRepair, misalnya, telah terbukti menyelesaikan sebagian besar masalah yang memunculkan pesan kesalahan. Tetapi beberapa peneliti memimpikan hari ketika AI dapat menulis program berdasarkan deskripsi sederhana dari non-ahli.

Pada hari Selasa, Microsoft dan OpenAI berbagi rencana untuk menghadirkan GPT-3, salah satu model paling canggih di dunia untuk menghasilkan teks, ke pemrograman berdasarkan deskripsi bahasa alami. Ini adalah aplikasi komersial pertama GPT-3 yang dilakukan sejak Microsoft menginvestasikan $ 1 miliar di OpenAI tahun lalu dan memperoleh hak lisensi eksklusif untuk GPT-3.

“Jika Anda dapat mendeskripsikan apa yang ingin Anda lakukan dalam bahasa alami, GPT-3 akan menghasilkan daftar formula yang paling relevan untuk Anda pilih,” kata CEO Microsoft Satya Nadella dalam pidato utama di konferensi pengembang Build perusahaan. Kode itu menulis sendiri.

Atas kebaikan Microsoft

VP Microsoft Charles Lamanna memberi tahu WIRED bahwa kecanggihan yang ditawarkan oleh GPT-3 dapat membantu orang mengatasi tantangan kompleks dan memberdayakan orang dengan sedikit pengalaman pengkodean. GPT-3 akan menerjemahkan bahasa alami ke dalam PowerFx, bahasa pemrograman yang cukup sederhana yang mirip dengan perintah Excel yang diperkenalkan Microsoft pada bulan Maret.

Ini adalah demonstrasi terbaru dalam menerapkan AI pada pengkodean. Tahun lalu di Microsoft’s Build, CEO OpenAI Sam Altman mendemonstrasikan model bahasa yang disesuaikan dengan kode dari GitHub yang secara otomatis menghasilkan baris kode Python. Seperti yang dijelaskan WIRED bulan lalu, startup seperti SourceAI juga menggunakan GPT-3 untuk menghasilkan kode. IBM bulan lalu menunjukkan bagaimana Project CodeNet, dengan 14 juta sampel kode dari lebih dari 50 bahasa pemrograman, dapat mengurangi waktu yang dibutuhkan untuk memperbarui program dengan jutaan baris kode Java untuk sebuah perusahaan otomotif dari satu tahun menjadi satu bulan.

Fitur baru Microsoft didasarkan pada arsitektur jaringan saraf yang dikenal sebagai Transformer, yang digunakan oleh perusahaan teknologi besar termasuk Baidu, Google, Microsoft, Nvidia, dan Salesforce untuk membuat model bahasa besar menggunakan data pelatihan teks yang diambil dari web. Model bahasa ini terus berkembang menjadi lebih besar. Versi BERT Google terbesar, model bahasa yang dirilis pada tahun 2018, memiliki 340 juta parameter, blok pembangun jaringan saraf. GPT-3, yang dirilis satu tahun lalu, memiliki 175 miliar parameter.

Namun, upaya semacam itu masih harus menempuh jalan panjang. Dalam satu tes baru-baru ini, model terbaik hanya berhasil 14 persen dari waktu pada tantangan pemrograman pengantar yang disusun oleh sekelompok peneliti AI.

Diposting oleh : Lagutogel