PolyCoder, kod sumber terbuka yang menjana AI yang boleh mengatasi Codex 

Pengarang: @Laurent - Fotolia.com

Pada masa ini, Kami telah mula melihat peningkatan dalam penyelesaian berbeza yang mereka mula tawarkan berhubung dengan penjanaan kod menggunakan kecerdasan buatan (AI) dan bidang pemprosesan bahasa semula jadi (NLP) telah membuka jalan kepada siri AI penjanaan kod dalam pelbagai bahasa pengaturcaraan.

Yang mana kita boleh menyerlahkan contohnya GitHub Copilot, AlphaCode dan Codex dan yang kini kita boleh menambah penyelesaian baharu daripada tangan penyelidik di Universiti Carnegie Mellon yang baru-baru ini memperkenalkan "PolyCoder", penjana kod berdasarkan model bahasa GPT-2 OpenAI yang dilatih pada pangkalan data kod 249 GB dalam 12 bahasa pengaturcaraan.

Mengenai PolyCoder

Pengarang PolyCoder mendakwa bahawa ia adalah mampu menulis C dengan lebih tepat daripada mana-mana model yang diketahui, termasuk Codex.

Kod yang menjana AI, boleh menulis kod sumber dalam bahasa pengaturcaraan yang berbeza Sejurus selepas itu, ia berjanji untuk mengurangkan kos pembangunan perisian sambil membenarkan pembangun menumpukan pada tugas yang kurang berulang dan kreatif.

PolyCoder dikuasakan oleh data daripada pelbagai repositori GitHub, meliputi 12 bahasa pengaturcaraan popular: C, C#, C++, Go, Java, JavaScript, PHP, Python, Ruby, Rust, Scala dan TypeScript.

Set data tidak ditapis berjumlah 631 GB data dan 38,9 juta fail. Pasukan itu berkata demikian memilih untuk melatih PolyCoder dengan GPT-2 kerana kekangan bajet. PolyCoder tersedia sebagai sumber terbuka, dan para penyelidik berharap ia dapat mendemokrasikan penyelidikan dalam bidang penjanaan kod AI, yang sehingga kini telah dikuasai oleh syarikat yang dibiayai dengan baik.

Para penyelidik percaya bahawa PolyCoder ia berfungsi lebih baik daripada model lain dalam menjana kod dalam bahasa C. Walau bagaimanapun, Codex sentiasa mengatasinya dalam bahasa lain. "PolyCoder secara mendadak mengatasi Codex dan semua model lain dalam bahasa C.

“Apabila Copilot keluar di GitHub musim panas lalu, menjadi jelas bahawa model kod bahasa yang sangat besar ini boleh menjadi sangat berguna dalam membantu pembangun dan meningkatkan produktiviti mereka. Tetapi tiada model walaupun hampir dengan skala itu tersedia secara umum, "kata para penyelidik kepada VentureBeat melalui e-mel. “Jadi [PolyCoder] bermula dengan Vincent cuba memikirkan model terbesar yang boleh dilatih pada pelayan makmal kami, yang akhirnya menjadi 2700 bilion parameter… dan model itu adalah satu liga di hadapan model berorientasikan kod lain yang kami miliki . tersedia secara umum pada masa itu.”

Apabila membandingkan hanya model sumber terbuka, PolyCoder mengatasi model GPT-Neo 2.7B bersaiz serupa dalam C, JavaScript, Rust, Scala dan TypeScript." mereka menunjukkan "Dalam 11 bahasa yang lain, semua model sumber terbuka lain, termasuk kita sendiri, adalah jauh lebih teruk (lebih membingungkan) daripada Codex," tambah penyelidik CMU.

Dengan ini, PolyCoder diletakkan sebagai penyelesaian yang sangat menarik, memandangkan sementara makmal penyelidikan seperti OpenAI Elon Musk dan DeepMind Alphabet telah membangunkan AI penjanaan kod yang berkuasa, kebanyakan sistem yang paling berjaya tidak tersedia dalam sumber terbuka. Syarikat berpendapatan rendah tidak mempunyai akses kepadanya dan keadaan ini mengehadkan penyelidikan mereka di lapangan.

Sebagai contoh, data latihan daripada OpenAI Codex, yang menguasakan ciri Copilot GitHub, belum didedahkan kepada umum, menghalang penyelidik daripada memperhalusi model AI atau mengkaji aspek tertentu daripadanya, seperti kebolehoperasian.

"Syarikat teknologi besar tidak mengeluarkan model mereka secara terbuka, yang benar-benar menghalang penyelidikan saintifik dan pendemokrasian model kod bahasa yang besar itu," kata para penyelidik. “Sedikit sebanyak, kami berharap usaha sumber terbuka kami akan meyakinkan orang lain untuk melakukan perkara yang sama. Tetapi gambaran besarnya ialah masyarakat sepatutnya dapat melatih model ini sendiri. Model kami menolak had apa yang boleh anda latih pada satu pelayan – apa-apa yang lebih besar memerlukan kumpulan pelayan, yang meningkatkan kos secara mendadak.”

Akhirnya sekiranya anda berminat untuk mengetahui lebih lanjut mengenainya, anda boleh menyemak butiran di pautan berikut.


Tinggalkan komen anda

Alamat email anda tidak akan disiarkan. Ruangan yang diperlukan ditanda dengan *

*

*

  1. Bertanggungjawab atas data: Miguel Ángel Gatón
  2. Tujuan data: Mengendalikan SPAM, pengurusan komen.
  3. Perundangan: Persetujuan anda
  4. Komunikasi data: Data tidak akan disampaikan kepada pihak ketiga kecuali dengan kewajiban hukum.
  5. Penyimpanan data: Pangkalan data yang dihoskan oleh Occentus Networks (EU)
  6. Hak: Pada bila-bila masa anda boleh menghadkan, memulihkan dan menghapus maklumat anda.