Cerca
Filters
Close

Edge AI System

Sistemi Edge AI per inferenza in applicazioni di intelligenza artificiale in ambito industriale. I nostri sistemi Edge AI comprendono soluzioni basate architetture VPU, GPU, TPU ed FPGA.

Vedi come Griglia Lista
Ordina per

GP-3000

PC embedded con 1 o 2 slot per schede GPU ad alte prestazioni

GEB-3301

Box d'espansione per schede GPU con 1 slot PCIe x16 e uno slot PCIe x4

GEB-3601

Box d'espansione per schede GPU con 2 slot PCIe x16, 1x slot PCIe x4 e 1 slot PCIe x1

GM-1000

PC embedded fanless con GPU integrata e processori 8th e 9th gen. Intel Core i3 / i5 / i7 e Xeon (Coffee Lake)


Cosa significa edge AI ?

La Edge AI consiste nell'applicazione di algoritmi d'intelligenza artificiale a bordo di edge computer che sono dislocati alla periferia della rete e che comunicano e/o ripartiscono il proprio carico di lavoro con un cloud o un server privato. Questo approccio consente di ovviare ai limiti del cloud e consentire l'operatività tipica delle applicazioni industriali.


Edge AI e Deep Learning

Nell'implementazione dell'intelligenza artificiale è bene distinguere tra machine learning in cui vengono prese decisioni sulla base di modelli e strutture pre-acquisite e deep learning che si spinge oltre applicando le conoscenze apprese a set di dati del tutto nuovi.  Il deep learning si basa su architetture di reti neurali (DNN) profonde e ricorrenti. Queste reti neurali artificiali sono simili alla struttura del nostro cervello. Dati come immagini, suoni e testo vengono utilizzati per creare rappresentazioni con caratteristiche che li definiscono e che risultano dall'astrazione dei dati di input su diversi livelli di nodi paralleli. In questo modo, problemi non lineari complessi possono essere risolti indipendentemente.

 

Le fasi della Edge AI: training ed inferenza

Nella Edge AI esistono due fasi fondamentali: il training in cui vengono fornite al modello informazioni sufficienti per poter svolgere con una certa accuratezza l'inferenza a livello edge, ovvero il meccanismo con cui il sistema di AI è in grado di svolgere ragionamenti induttivi alla periferia della rete in quello che è definito processo di inferenza.


Soluzioni hardware dedicate per Edge AI

Per eseguire i processi di training ed inferenza in maniera performante ed efficiente sono necessarie piattaforme hardware dedicate che sono ottimizzate in base ai vari framework e linguaggi di programmazione. Sono 5 le architetture principali utilizzate in applicazioni industriali: CPU, GPU, VPU, TPU ed FPGA. Ciascuna architettura presenta le proprie peculiarità e si adatta a specifici ambiti applicativi. Un approccio tipico è quello che vede il coesistere di architetture CPU con acceleratori hardware come VPU, GPU, TPU ed FPGA, in grado di processare in maniera efficiente gli algoritmi di IA. La nostra gamma di prodotti spazia da sistemi per inferenza a basso consumo basata su VPU fino a soluzioni per GPU ad alta potenza (fino a 350w). La gamma comprende anche soluzioni server per training.