
Penelitian baru oleh sekelompok peneliti yang berafiliasi dengan Stanford mengungkapkan bahwa alat pembuat kode AI seperti Github Copilot dapat menimbulkan risiko keamanan yang lebih besar daripada yang disadari banyak pengguna.
Studi ini secara khusus mengamati Codex, produk OpenAI yang salah satu pendirinya adalah Elon Musk.
Codex memberdayakan Microsoft GitHub Copilot, yang dirancang untuk membuat pengkodean lebih mudah dan lebih mudah diakses dengan menerjemahkan bahasa alami ke dalam kode dan menyarankan perubahan berdasarkan bukti kontekstual.
Masalah pengkodean AI
Rekan penulis utama studi tersebut, Neil Perry, menjelaskan bahwa “sistem pembuatan kode saat ini tidak menggantikan programmer manusia.”
Studi tersebut meminta 47 programmer dari berbagai tingkat keahlian untuk menggunakan Codex untuk memecahkan masalah keamanan menggunakan bahasa pemrograman Python, JavaScript, dan C. Ditemukan bahwa peserta yang mengandalkan Codex lebih cenderung menulis kode yang tidak aman dibandingkan dengan kontrol.
Perry menjelaskan, “Programmer menggunakan [coding tools] untuk melakukan tugas-tugas di luar bidang keahlian mereka, dan mereka yang menggunakannya untuk mempercepat tugas-tugas yang telah mereka latih harus dengan hati-hati meninjau hasil dan konteks di mana mereka digunakan di seluruh proyek.”
Ini bukan pertama kalinya alat pengkodean bertenaga AI berada di bawah pengawasan. Bahkan, salah satu solusi GitHub untuk meningkatkan kualitas kode di Copilot mengakibatkan perusahaan milik Microsoft itu digugat karena tidak menugaskan pekerjaan ke developer lain. Hasilnya adalah tuntutan hukum sebesar $9 miliar untuk 3,6 juta pelanggaran Bagian 1202 individu.
Untuk saat ini, alat pembuat kode bertenaga AI paling baik dianggap sebagai bantuan yang dapat mempercepat pengembangan, daripada pengganti lengkap, namun, jika pengembangan selama beberapa tahun terakhir adalah sesuatu yang harus dilakukan, mereka dapat segera menggantikan pengkodean tradisional. .
Melalui TechCrunch (terbuka di tab baru)
Recent Comments