Inilabas ng Google ang source code ng AI na "TAPAS"

Inanunsyo ng Google ang paglabas ng source code ng "TAPAS" (PArSing ng Table), isang neural network (artipisyal na katalinuhan) binuo sa loob upang masagot ang isang katanungan sa natural na wika at makuha ang sagot mula sa isang pamanggit na database o spreadsheet.

Upang makakuha ng pinakamainam na mga resulta sa TAPAS, ang mga nag-develop na namamahala sa proyekto ay nakatuon sa kanilang sarili sa pagsasanay sa neural network na may 6.2 milyong mga pares talahanayan sa teksto na kinuha mula sa Wikipedia. Upang mapatunayan, kailangang ibalik ng neural network ang mga nawawalang salita kapwa sa mga talahanayan at sa mga teksto kung saan hindi ito sinanay. Ang katumpakan ng paggaling ay 71,4% bilang isang benchmark test ay ipinapakita na ang neural network ay nagbibigay ng tumpak o maihahambing na mga sagot kaysa sa karibal na mga algorithm sa lahat ng tatlong mga hanay ng data.

Tungkol sa TAPAS

Karaniwan ang pokus ng proyektong ito ay upang makonsulta, maproseso at maipakita ang impormasyon na nauugnay sa mga tuntunin ng query na ginawa ng gumagamit sa natural na wika, na nagpapadali sa isang malaking sukat ng pagkuha ng impormasyon.

Isang pangunahing halimbawa ng paggamit ng TAPAS ay kung nais ng isang gumagamit na suriin ang data ng benta, kita, mga kahilingan, bukod sa iba pang mga bagay. Bukod doon kailangan mong isaalang-alang iyon Ang TAPAS ay hindi lamang limitado sa pagkuha ng impormasyon mula sa isang database, ngunit may kakayahan din itong magsagawa ng mga kalkulasyon, hinahanap ng algorithm ang sagot sa mga cell ng talahanayan, parehong direkta at sa pamamagitan ng pagdaragdag, pag-average at iba pang mga operator, bukod sa maaari rin itong maghanap ng sagot sa pagitan ng maraming mga talahanayan nang sabay.

Sinasabi ng Google na Ang Mga Tapas ay Nagtagumpay o Tumutugma sa Nangungunang Tatlong Mga Open Source Algorithm upang pag-aralan ang mga kaugnay na data. Ang kakayahan ni Tapas na kumuha ng mga tiyak na item mula sa malalaking mga lalagyan ng data ay maaari ring ipahiram sa sarili upang mapabuti ang mga kakayahan sa pagtugon.

Underhood, Gumagamit ang Tapas ng pagkakaiba-iba ng BERT natural na diskarte sa pagproseso ng wika ginamit sa mga paghahanap na isinagawa ng Google engine.

Ang BERT ay nagbibigay ng higit na katumpakan kaysa sa tradisyunal na mga diskarte sapagkat pinapayagan nito ang isang AI na suriin ang isang pagkakasunud-sunod ng teksto hindi lamang mula kaliwa hanggang kanan o pakanan pakaliwa tulad ng karaniwang pagsasanay, ngunit pareho sa parehong oras.

Ang bersyon na ipinatupad ng Google para sa TAPAS ay nagpapahintulot sa AI na isaalang-alang hindi lamang ang katanungang inilagay ng mga gumagamit at ang data na nais nilang hilingin, ngunit pati na rin ang istraktura ng mga mesa na nauugnay kung saan nakaimbak ang data.

Paano mai-install ang TAPAS sa Linux?

Mula noon Ang TAPAS ay mahalagang isang modelo ng BERT at samakatuwid ay may parehong mga kinakailangan. Nangangahulugan ito na ang isang malaking modelo ay maaaring sanayin sa haba ng pagkakasunud-sunod ng 512 na mangangailangan ng isang TPU.

Upang mai-install ang TAPAS sa Linux kailangan namin ang compiler ng protokol, na matatagpuan sa karamihan ng mga pamamahagi ng Linux.

Sa Debian, Ubuntu at mga derivatives ng mga ito, maaari naming mai-install ang tagatala gamit ang sumusunod na utos:

sudo apt-get install protobuf-compiler

Sa kaso ng Arch Linux, Manjaro, Arco Linux o anumang iba pang hango ng Arch Linux, nag-install kami kasama ng:

sudo pacman -S protobuf

Ngayon, upang mai-install ang TAPAS, kailangan lamang makuha namin ang source code at sumulat kasama ng mga sumusunod na utos:

git clone https://github.com/google-research/tapas
cd tapas
pip install -e .

At upang patakbuhin ang test suite, ginagamit namin ang tox library na maaaring patakbuhin sa pamamagitan ng pagtawag:

pip install tox
tox

Mula dito ang AI ay kailangang sanayin sa lugar ng interes. Kahit na ang ilang mga may kasanayang mga modelo ay inaalok sa Repository ng GitHub.

Bilang karagdagan, maaari mong gamitin ang iba't ibang mga pagpipilian sa pagsasaayos, tulad ng pagpipilian max_seq_length upang lumikha ng mas maiikling pagkakasunud-sunod. Bawasan nito ang kawastuhan ngunit gagawing masasanay ang modelo ng GPU. Ang isa pang pagpipilian ay upang mabawasan ang laki ng batch (train_batch_size), ngunit malamang na makakaapekto rin ito sa kawastuhan.

Panghuli kung nais mong malaman ang tungkol dito Tungkol sa AI na ito, maaari mong suriin ang mga detalye ng paggamit, pagpapatupad at iba pang impormasyon Sa sumusunod na link.


Iwanan ang iyong puna

Ang iyong email address ay hindi nai-publish. Mga kinakailangang patlang ay minarkahan ng *

*

*

  1. Responsable para sa data: Miguel Ángel Gatón
  2. Layunin ng data: Kontrolin ang SPAM, pamamahala ng komento.
  3. Legitimation: Ang iyong pahintulot
  4. Komunikasyon ng data: Ang data ay hindi maiparating sa mga third party maliban sa ligal na obligasyon.
  5. Imbakan ng data: Ang database na naka-host ng Occentus Networks (EU)
  6. Mga Karapatan: Sa anumang oras maaari mong limitahan, mabawi at tanggalin ang iyong impormasyon.