FSF thotë "e papranueshme dhe e padrejtë" dhe do të financojë artikuj mbi çështjet dhe çështjet ligjore

Jo shumë kohë më parë ne ndajmë këtu në blog lajmet e «Copilot» e cila është një UA që premton të kursejë kohë duke ndihmuar në shkrimin e kodit të përdoruesit me sugjerimet e tyre që bazohen në miliarda linja të kodit publik, përdoruesit e të cilëve kanë kontribuar publikisht në GitHub, duke përdorur një sistem të inteligjencës artificiale të quajtur Codex nga firma kërkimore OpenAI.

Ndërsa Copilot është një kursimtar i madh i kohës dhe GitHub përshkruan Copilot si ekuivalentin e AI të "programimit të çifteve", në të cilën dy zhvillues punojnë së bashku në një kompjuter të vetëm. Ideja është që një zhvillues mund të dalë me ide të reja ose të zbulojë çështje që zhvilluesi tjetër mund të ketë humbur, edhe nëse kërkon më shumë orë punë.

Në praktikëSidoqoftë, Copilot është më shumë një mjet i dobishëm për të kursyer kohë integron burimet që zhvilluesit do të duhej t'i kërkonin diku tjetër. Ndërsa përdoruesit futin të dhëna në Copilot, mjeti sugjeron copëza që ato të shtohen me klikimin e një butoni. Në atë mënyrë ata nuk kanë pse të humbin kohë duke kërkuar dokumentacionin API ose duke kërkuar kodin shembull në faqe si StackOverflow.

Një rrjet nervor në GitHub Copilot është trajnuar duke përdorur sasi masive të të dhënave, të përbëra nga kodi - miliona linja të ngarkuara nga 65 milion përdoruesit e GitHub, platforma më e madhe në botë për zhvilluesit që të bashkëpunojnë dhe ndajnë punën e tyre.

Qëllimi është që Copilot të mësojë mjaft për modelet e kodit për të qenë në gjendje të hakojë vetë. Ju mund të merrni kodin jo të plotë nga një partner njerëzor dhe ta përfundoni punën duke shtuar pjesët që mungojnë. Në shumicën e rasteve, duket se është e suksesshme për ta bërë këtë. GitHub planifikon të shesë qasjen në mjet tek zhvilluesit.

Ashtu si shumica e mjeteve të inteligjencës artificiale, GitHub gjithashtu dëshiron që Copilot të bëhet më i zgjuar me kalimin e kohës bazuar në të dhënat që mbledh të përdoruesve.

Kur përdoruesit pranojnë ose refuzojnë sugjerimet e Copilot, modeli i tij i mësimit të makinerisë do të përdorë atë reagim për të përmirësuar sugjerimet e ardhshme, kështu që mjeti mund të bëhet më njerëzor ndërsa mëson.

Menjëherë pas lëshimit të Copilot, disa zhvillues filluan të alarmohen nga përdorimi i kodit publik për të trajnuar inteligjencën artificiale të mjetit. Një shqetësim është ai Nëse Copilot riprodhon pjesë të mëdha të kodit ekzistues, mund të jetë shkelje e të drejtës së autorit ose pastroni kodin me burim të hapur për përdorim komercial pa licencën e duhur.

Në lidhje me të Fondacioni i Softuerit të Lirë ka njoftuar se ka nisur një thirrje financuar për të kërkuar raporte teknike mbi implikimet e Copilot për komunitetin e softuerit të lirë

"Ne tashmë e dimë se Copilot siç është është i papranueshëm dhe i padrejtë, nga këndvështrimi ynë. Kërkon drejtimin e softuerit jo të lirë (Visual Studio ose pjesë të Visual Studio Code) dhe Copilot është një shërbim si zëvendësim i softuerit.

Arsyeja është se Copilot kërkon drejtimin e softuerit jo të lirë, si Microsoft Visual Studio IDE ose botues i Visual Studio Code, mban FSF -në dhe përbën një "shërbim si zëvendësim i softuerit", që do të thotë se është një mënyrë për të fituar fuqi mbi llogaritjen e njerëzve të tjerë.

Meqenëse si e tillë Copilot është një shtesë e Visual Studio Code që përdor mësimin e makinerisë të trajnuar në softuer me burim të hapur të licencuar lirshëm për të sugjeruar linja të kodit ose veçorive për zhvilluesit ndërsa shkruajnë softuer.

Sidoqoftë, Copilot ngre shumë pyetje të tjera që kërkojnë shqyrtim të mëtejshëm.

“Fondacioni i Softuerit të Lirë ka marrë shumë pyetje në lidhje me pozicionin tonë në këto çështje. Ne mund të shohim që përdorimi i softuerit me burim të hapur nga Copilot ka shumë implikime për një pjesë të madhe të komunitetit të softuerit të lirë. Zhvilluesit duan të dinë nëse trajnimi i një rrjeti nervor në softuerin e tyre mund të konsiderohet me të vërtetë përdorim i drejtë. Të tjerët që mund të jenë të interesuar të përdorin Copilot pyesin nëse copëzat e kodit dhe materiali tjetër i kopjuar nga depot e pritura nga GitHub mund të rezultojnë në shkelje të së drejtës së autorit. 

Fuente: https://www.fsf.org/


Përmbajtja e artikullit i përmbahet parimeve tona të etika editoriale. Për të raportuar një gabim klikoni këtu.

Bëhu i pari që komenton

Lini komentin tuaj

Adresa juaj e emailit nuk do të publikohet. Fusha e kërkuar janë shënuar me *

*

*

  1. Përgjegjës për të dhënat: Miguel Ángel Gatón
  2. Qëllimi i të dhënave: Kontrolloni SPAM, menaxhimin e komenteve.
  3. Legjitimimi: Pëlqimi juaj
  4. Komunikimi i të dhënave: Të dhënat nuk do t'u komunikohen palëve të treta përveç me detyrim ligjor.
  5. Ruajtja e të dhënave: Baza e të dhënave e organizuar nga Occentus Networks (BE)
  6. Të drejtat: Në çdo kohë mund të kufizoni, rikuperoni dhe fshini informacionin tuaj.