PolyCoder, Codex'ten daha iyi performans gösterebilecek AI üreten bir açık kaynak kodu 

Yazar: @Laurent - Fotolia.com

Şu anda, artış görmeye başladık. ile ilgili olarak sunmaya başladıkları farklı çözümler yapay zeka kullanarak kod oluşturma (AI) ve doğal dil işleme (NLP) alanı, çeşitli programlama dillerinde bir dizi kod üreten AI'nın yolunu açmıştır.

Olan örneğin GitHub Copilot, AlphaCode ve Codex'i vurgulayabiliriz ve şimdi buna yeni bir çözüm ekleyebileceğimiz Carnegie Mellon Üniversitesi araştırmacıları kim yakın zamanda tanıtılan "PolyCoder", 2 programlama dilinde 249 GB kod veritabanında eğitilmiş OpenAI'nin GPT-12 dil modeline dayalı bir kod üreticisi.

PolyCoder Hakkında

PolyCoder'ın yazarları bunun olduğunu iddia ediyor. Codex dahil olmak üzere bilinen herhangi bir modelden daha doğru bir şekilde C yazabilir.

AI üreten kod, farklı programlama dillerinde kaynak kodu yazabilir Yarasadan, geliştiricilerin daha az tekrarlayan, yaratıcı görevlere odaklanmasına izin verirken yazılım geliştirme maliyetlerini düşürmeyi vaat ediyor.

PolyCoder, 12 popüler programlama dilini kapsayan çeşitli GitHub depolarından alınan verilerle desteklenmiştir: C, C#, C++, Go, Java, JavaScript, PHP, Python, Ruby, Rust, Scala ve TypeScript.

Filtrelenmemiş veri seti toplam 631 GB veri ve 38,9 milyon dosyadan oluşuyordu. Takım dedi ki bütçe kısıtlamaları nedeniyle PolyCoder'ı GPT-2 ile eğitmeyi seçti. PolyCoder açık kaynak olarak mevcuttur ve araştırmacılar, şimdiye kadar iyi finanse edilen şirketlerin hakim olduğu AI kod oluşturma alanındaki araştırmaları demokratikleştirebileceğini umuyorlar.

Araştırmacılar PolyCoder'ın C dilinde kod üretmede diğer modellerden daha iyi çalışır. Ancak, Codex her zaman diğer dillerde bunu geride bırakmıştır. "PolyCoder, Codex'ten ve C dilindeki diğer tüm modellerden önemli ölçüde daha iyi performans gösteriyor.

"Copilot geçen yaz GitHub'da çıktığında, bu çok büyük dil kodu modellerinin geliştiricilere yardımcı olma ve üretkenliklerini artırma konusunda çok yararlı olabileceği ortaya çıktı. Ancak bu ölçeğe yakın hiçbir model kamuya açık değildi," diyor araştırmacılar VentureBeat'e e-posta ile. "Böylece [PolyCoder], Vincent'ın laboratuvar sunucumuzda eğitilebilecek en büyük modelin ne olduğunu bulmaya çalışmasıyla başladı ve sonuçta 2700 milyar parametre oluştu... ve bu model, sahip olduğumuz diğer kod odaklı modellerin bir lig önündeydi. . o sırada kamuya açıktı.”

Yalnızca açık kaynaklı modelleri karşılaştırırken, PolyCoder, C, JavaScript, Rust, Scala ve TypeScript'te benzer boyuttaki GPT-Neo 2.7B modelinden daha iyi performans gösteriyor." işaret ediyorlar CMU araştırmacıları, "Diğer 11 dilde, bizimki de dahil olmak üzere diğer tüm açık kaynak modelleri Codex'ten önemli ölçüde daha kötü (daha fazla şaşkınlık)" diye ekledi.

Bununla PolyCoder çok ilginç bir çözüm olarak konumlanıyor, çünkü Elon Musk'ın OpenAI'si ve Alphabet'in DeepMind'i gibi araştırma laboratuvarları güçlü kod üreten yapay zeka geliştirmiş olsa da, en başarılı sistemlerin çoğu açık kaynakta mevcut değil. Düşük gelirli şirketlerin buna erişimi yoktur ve bu durum sahadaki araştırmalarını sınırlandırmaktadır.

Örneğin, GitHub'ın Copilot özelliğine güç veren OpenAI Codex'ten gelen eğitim verilerinin kamuya açıklanmaması, araştırmacıların AI modelini iyileştirmesini veya birlikte çalışabilirlik gibi belirli yönlerini incelemesini engelledi.

Araştırmacılar, "Büyük teknoloji şirketleri, bilimsel araştırmaları ve bu tür büyük dil kodu modellerinin demokratikleşmesini gerçekten engelleyen modellerini kamuya açıklamıyorlar" dedi. “Bir dereceye kadar, açık kaynak çabalarımızın başkalarını da aynı şeyi yapmaya ikna edeceğini umuyoruz. Ancak büyük resim, topluluğun bu modelleri kendi başlarına eğitebilmesi gerektiğidir. Modelimiz, tek bir sunucu üzerinde eğitebileceklerinizin sınırını zorladı - daha büyük olan her şey bir sunucu havuzu gerektirir ve bu da maliyeti önemli ölçüde artırır."

Nihayet onun hakkında daha fazla bilgi edinmekle ilgileniyorsanayrıntılarını kontrol edebilirsiniz. aşağıdaki bağlantı.


Yorumunuzu bırakın

E-posta hesabınız yayınlanmayacak. Gerekli alanlar ile işaretlenmiştir *

*

*

  1. Verilerden sorumlu: Miguel Ángel Gatón
  2. Verilerin amacı: Kontrol SPAM, yorum yönetimi.
  3. Meşruiyet: Onayınız
  4. Verilerin iletilmesi: Veriler, yasal zorunluluk dışında üçüncü kişilere iletilmeyecektir.
  5. Veri depolama: Occentus Networks (AB) tarafından barındırılan veritabanı
  6. Haklar: Bilgilerinizi istediğiniz zaman sınırlayabilir, kurtarabilir ve silebilirsiniz.