Search
Filters
Close

Edge AI System

Embedded Systems for deep learning inference in AI industrial applications. Solutions based on VPU, GPU and FPGA

View as Grid List
Sort by

GP-3000

Dual Full-length GPU Expandable Computer

GEB-3301

GPU Expansion Box with 1 x PCIe x16 and 1 x PCIe x4 Slots for GP-3000 Series

GEB-3601

GPU Expansion Box with 2 x PCIe x16 (Signal PCIe x8), 1 x PCIe x4 and 1 x PCIe x1 Slots for GP-3000 Series

GM-1000

Fanless embedded system with integrated GPU and 8th or 9th gen. Intel Core i3 / i5 / i7 and Xeon (Coffee Lake)


Cosa significa edge AI ?

La Edge AI consiste nell'applicazione di algoritmi d'intelligenza artificiale a bordo di edge computer che sono dislocati alla periferia della rete e che comunicano e/o ripartiscono il proprio carico di lavoro con un cloud o un server privato. Questo approccio consente di ovviare ai limiti del cloud e consentire l'operatività tipica delle applicazioni industriali.


Edge AI e Deep Learning

Nell'implementazione dell'intelligenza artificiale è bene distinguere tra machine learning in cui vengono prese decisioni sulla base di modelli e strutture pre-acquisite e deep learning che si spinge oltre applicando le conoscenze apprese a set di dati del tutto nuovi.  Il deep learning si basa su architetture di reti neurali (DNN) profonde e ricorrenti. Queste reti neurali artificiali sono simili alla struttura del nostro cervello. Dati come immagini, suoni e testo vengono utilizzati per creare rappresentazioni con caratteristiche che li definiscono e che risultano dall'astrazione dei dati di input su diversi livelli di nodi paralleli. In questo modo, problemi non lineari complessi possono essere risolti indipendentemente.

 

Le fasi della Edge AI: training ed inferenza

Nella Edge AI esistono due fasi fondamentali: il training in cui vengono fornite al modello informazioni sufficienti per poter svolgere con una certa accuratezza l'inferenza a livello edge, ovvero il meccanismo con cui il sistema di AI è in grado di svolgere ragionamenti induttivi alla periferia della rete in quello che è definito processo di inferenza.


Soluzioni hardware dedicate per Edge AI

Per eseguire i processi di training ed inferenza in maniera performante ed efficiente sono necessarie piattaforme hardware dedicate che sono ottimizzate in base ai vari framework e linguaggi di programmazione. Sono 5 le architetture principali utilizzate in applicazioni industriali: CPU, GPU, VPU, TPU ed FPGA. Ciascuna architettura presenta le proprie peculiarità e si adatta a specifici ambiti applicativi. Un approccio tipico è quello che vede il coesistere di architetture CPU con acceleratori hardware come VPU, GPU, TPU ed FPGA, in grado di processare in maniera efficiente gli algoritmi di IA. La nostra gamma di prodotti spazia da sistemi per inferenza a basso consumo basata su VPU fino a soluzioni per GPU ad alta potenza (fino a 350w). La gamma comprende anche soluzioni server per training.