Google presenterar Coral NPU: Den öppna AI-plattformen för framtidens smarta hårdvara

Nyckelord:
  • Coral NPU erbjuder 512 GOPS med en förbrukning på endast milliwatt.
  • Synaptics blir den första tillverkaren att integrera den i sina Astra SL2610-chip.
  • Idealisk för AI vid kanten: tal-, syn- och gestigenkänning.
  • Baserad på RISC-V-arkitektur och utformad för maximal energieffektivitet.
  • Inkluderar kompilatorer och stöd för TensorFlow, JAX och PyTorch.

NPU Coral

För några dagar sedan tillkännagav Google i ett blogginlägg att Coral NPU-lansering, En öppen källkodsplattform som kombinerar en specialiserad hårdvaruaccelerator för AI med en komplett uppsättning programvaruverktyg.

Coral NPU framstår som en banbrytande arkitektur, utformad i nära samarbete mellan Google Research och Google DeepMind. Denna gemensamma ansträngning har resulterat i en design som sätter artificiell intelligens i centrum, vilket markerar en milstolpe i utvecklingen av nästa generations edge AI-system.

Coral NPU: En AI-först-arkitektur

Den grundläggande principen som styr designen av Coral NPU är förmågan att hålla AI:n igång oavbrutet med minimal strömförbrukning, vilket är anledningen till att Coral NPU är utformad för att köra AI-applikationer kontinuerligt utan att kompromissa med enheternas energiautonomi. Dess grundversion uppnår en prestanda på 512 miljarder operationer per sekund (GOPS) med bara några få milliwatt strömförbrukning, en anmärkningsvärt låg siffra jämfört med andra acceleratorer på marknaden.

Denna arkitektur har noggrant optimerats för att möjliggöra heldags AI-lösningar i bärbara enheter och andra autonomikänsliga enheter.

Dessutom, Dess arkitektur gör det möjligt för tillverkare att anpassa och modifiera designen enligt behoven hos sina egna system-on-chip (SoC). Företaget Synaptics kommer att vara först med att integrera den här tekniken i sin nya Astra SL2610-processorserie, designad för IoT-enheter, och som innehåller det Coral-baserade Torq NPU-delsystemet.

Coral NPU:s flexibilitet och effektivitet gör den till ett verktyg idealisk för bildbehandling, ljud och igenkänningsuppgiftero. Bland anmärkningsvärda tillämpningar finns visuell rekonstruktion, ansikts- och objektigenkänning, realtidsöversättning och transkription samt gest- och röststyrning. Den kan också upptäcka användaraktivitet (som att gå, springa eller sova) och anpassa sig till den fysiska miljön.

Med dessa funktioner lovar Coral NPU att möjliggöra en ny generation av smarta konsumentenheter, såsom klockor, headset och augmented reality-glasögon, som kan köra avancerad AI direkt på enheten utan att förlita sig på molnet.

Teknisk kraft driven av RISC-V

Hjärtat av Coral NPU är baserad på 32-bitars RV32IMF_Zve32x RISC-V-arkitekturen, åtföljs av en AXI4-buss och en fyrstegs pipeline som möjliggör effektiv instruktionskörning. Dess design kombinerar sändning i ordning och slutförande i fel ordning med en skalär och vektoriell metod för att balansera prestanda och effektivitet.

Systemet erbjuder SIMD-operationer för parallell databehandling i 128-bitarsvektorer, tillsammans med 8 KB instruktionsminne och 32 KB dataminne. Denna konfiguration kompletteras av tre huvudkomponenter:

  • En RISC-V skalär kärna, programmerbar i C, ansvarig för dataflödeshantering och ultralåg strömförbrukning.
  • En SIMD-vektorkoprocessor, kompatibel med RVV v1.0-tillägg, utformad för att hantera stora informationsvolymer parallellt.
  • En matris-coprocessor, optimerad för att accelerera viktiga multiplikations-adderande (MAC) operationer i neurala nätverk.

Öppet och kompatibelt utvecklingsekosystem

Google har följt lanseringen från Coral NPU med en komplett utvecklingsmiljö vilket inkluderar AI-modellkompilatorer (IREE och TFLM), en C-kompilator och en utvecklarsimulator.

La NPU är kompatibel med de mest populära AI-ramverken, såsom TensorFlow, JAX och PyTorch, och tillåter att modeller kompileras till en universell mellanrepresentation, som slutligen översätts till RISC-V-instruktioner med hjälp av LLVM-backend.

Med detta initiativ driver Google inte bara införandet av öppen hårdvara för AI, utan lägger också grunden för ett samarbetsekosystem där tillverkare, utvecklare och öppen källkodsgemenskapen kan förnya sig på en gemensam plattform.

Om du är det intresserad av att veta mer om det, bör du veta att det här projektet, under Apache 2.0-licensen, och du kan konsulteradokumentation och verktyg som Google erbjuder för utvecklare och designers.