Google представляет Coral NPU: открытую платформу искусственного интеллекта для будущего интеллектуального оборудования

Ключевые моменты:
  • Coral NPU обеспечивает производительность 512 GOPS при потреблении всего лишь милливатт.
  • Synaptics станет первым производителем, который интегрирует ее в свои чипы Astra SL2610.
  • Идеально подходит для ИИ на периферии: распознавание речи, зрения и жестов.
  • Основан на архитектуре RISC-V и разработан для максимальной энергоэффективности.
  • Включает компиляторы и поддержку TensorFlow, JAX и PyTorch.

НПУ Коралл

Несколько дней назад Google объявил в своем блоге о том, что Запуск Coral NPU, una платформа с открытым исходным кодом который сочетает в себе специализированный аппаратный ускоритель для ИИ с полным набором программных инструментов.

Coral NPU — новаторская архитектура, разработанная в тесном сотрудничестве Google Research и Google DeepMind. Результатом совместных усилий стала разработка, в центре которой — искусственный интеллект, что стало важной вехой в развитии систем искусственного интеллекта нового поколения.

Coral NPU: архитектура, ориентированная на ИИ

Основополагающий принцип, лежащий в основе конструкции Coral NPU, — это способность поддерживать бесперебойную работу ИИ с минимальным потреблением энергии. Именно поэтому Coral NPU предназначен для непрерывной работы приложений ИИ Без ущерба для энергетической автономности устройств. Базовая версия достигает производительности 512 миллиардов операций в секунду (GOPS) с энергопотреблением всего в несколько милливатт, что является удивительно низким показателем по сравнению с другими ускорителями на рынке.

Эта архитектура была тщательно оптимизирована для обеспечения круглосуточной работы ИИ-решений в носимых устройствах и других устройствах, чувствительных к автономности.

Кроме того, Его архитектура позволяет производителям адаптировать и модифицировать дизайн в соответствии с потребностями собственных систем на кристалле (SoC). Компания Synaptics станет первой компанией, которая интегрирует эту технологию в новой серии процессоров Astra SL2610, разработанной для устройств Интернета вещей, включающей подсистему Torq NPU на базе Coral.

Гибкость и эффективность Coral NPU делают его инструментом идеально подходит для задач обработки изображений, звука и распознаванияo. Среди известных приложений — визуальная реконструкция, распознавание лиц и объектов, перевод и транскрипция в реальном времени, а также управление жестами и голосом. Он также может распознавать активность пользователя (например, ходьбу, бег или сон) и адаптироваться к окружающей среде.

Благодаря этим возможностям Coral NPU обещает создать новое поколение потребительских интеллектуальных устройств, таких как часы, гарнитуры и очки дополненной реальности, способных запускать передовой ИИ непосредственно на устройстве, не полагаясь на облако.

Техническая мощь, обеспечиваемая RISC-V

Сердце Coral NPU основан на 32-битной архитектуре RV32IMF_Zve32x RISC-V, В сочетании с шиной AXI4 и четырёхступенчатым конвейером, обеспечивающим эффективное выполнение инструкций, он сочетает в себе упорядоченную диспетчеризацию и внеочередное завершение со скалярно-векторным подходом для баланса производительности и эффективности.

Система предлагает операции SIMD для параллельной обработки данных в 128-битных векторах, а также 8 КБ памяти инструкций и 32 КБ памяти данных. Эта конфигурация дополняется тремя основными компонентами:

  • Скалярное ядро ​​RISC-V, программируемое на языке C, отвечающее за управление потоками данных и сверхнизкое энергопотребление.
  • Векторный сопроцессор SIMD, совместимый с расширениями RVV v1.0, предназначенный для параллельной обработки больших объемов информации.
  • Матричный сопроцессор, оптимизированный для ускорения основных операций умножения-сложения (MAC) в нейронных сетях.

Открытая и совместимая экосистема разработки

Google сопровождала запуск от Кораллового НПУ с полной средой разработки который включает в себя компиляторы моделей ИИ (IREE и TFLM), компилятор C и симулятор для разработчиков.

La NPU совместим с наиболее популярными фреймворками ИИ, таких как TensorFlow, JAX и PyTorch, и позволяет компилировать модели в универсальное промежуточное представление, которое в конечном итоге транслируется в инструкции RISC-V с использованием бэкэнда LLVM.

С помощью этой инициативы Google не только стимулирует внедрение открытого аппаратного обеспечения для ИИ, но и закладывает основу для совместной экосистемы, в которой производители, разработчики и сообщество открытого исходного кода могут создавать инновации на общей платформе.

Если вы интересно узнать об этом больше, вы должны знать, что этот проект находится под лицензией Apache 2.0, и вы можете проконсультироватьсядокументация и инструменты которые Google предлагает разработчикам и дизайнерам.