Movatterモバイル変換


[0]ホーム

URL:


Vai al contenuto
WikipediaL'enciclopedia libera
Ricerca

Acceleratore di Intelligenza Artificiale

Da Wikipedia, l'enciclopedia libera.

Unacceleratore di Intelligenza Artificiale[1] (o ancheArtificial Intelligence Accelerator[2] eNPU,Neural Processing Unit[3]) è una classe dimicroprocessori progettati per fornireaccelerazione hardware areti neurali artificiali,visione artificiale e algoritmi diapprendimento automatico per larobotica, l'Internet delle cose e altre applicazioni basate sull'uso dei dati.

Le possibili applicazioni di tali dispositivi includono leauto a guida autonoma, gliaeromobili a pilotaggio remoto, ladiagnostica medica, l'elaborazione del linguaggio naturale e latraduzione automatica.

Storia

[modifica |modifica wikitesto]

Nei computer leCPU sono spesso affiancate daacceleratori hardware per svolgere meglio determinate funzioni, tra cui ad esempio leschede video e leschede audio. Con l'aumento delle attività legate all'apprendimento profondo e all'intelligenza artificiale, sono state sviluppate unità hardware specializzate per accelerare lo svolgimento di queste attività.

Primi sviluppi

[modifica |modifica wikitesto]

Già nei primi anni novanta iprocessori di segnali digitali venivano impiegati come acceleratori di reti neurali per i software diriconoscimento ottico dei caratteri e sempre in quegli anni vi furono anche dei tentativi di utilizzo di acceleratori basati suFPGA.

Calcolo eterogeneo

[modifica |modifica wikitesto]

Ilcalcolo eterogeneo ha dato il via all'inserimento di diversi processori in un singolo sistema, ciascuno dei quali specializzato per un'apposita funzione. Architetture come iprocessori Cell hanno introdotto alcune caratteristiche tipiche degli acceleratori di Intelligenza Artificiale, tra cui l'architettura dataflow. Gli stessi processori Cell sono stati in seguito utilizzati per l'Intelligenza Artificiale.

Uso delle GPU

[modifica |modifica wikitesto]

LeGPU sono dispositivi hardware specializzati nellamanipolazione di immagini. Poiché le reti neurali e la manipolazione di immagini condividono le stesse basi matematiche, le GPU sono frequentemente utilizzate per applicazioni diapprendimento automatico. Per questo motivo, i produttori di GPU hanno cominciato a incorporare hardware specifico per le reti neurali, come ad esempio itensor core.

Uso dei FPGA

[modifica |modifica wikitesto]

Iframework per l'apprendimento profondo sono in continua evoluzione e questo rende difficoltosa la progettazione di hardware specifico. Dispositivi riconfigurabili come iField Programmable Gate Array (FPGA) semplificano la gestione di hardware e software in evoluzione.

Esempi

[modifica |modifica wikitesto]

Chip specifici

[modifica |modifica wikitesto]

Google ha sviluppato un acceleratore chiamatotensor processing unit specificamente progettato per il suo frameworkTensorFlow, estensivamente usato per lereti neurali convoluzionali.[4]

Intel ha sviluppato il Nervana NNP, un chip progettato con un'architettura per l'apprendimento profondo.[5]

GPU

[modifica |modifica wikitesto]

La linea diGPUTesla diNVIDIA dispongono di funzioni per l'intelligenza artificiale.[6]

AMD produce la linea di GPU Radeon Instinct specificamente orientata all'apprendimento profondo.[7]

Coprocessori

[modifica |modifica wikitesto]

ISystem-on-a-chipApple A11 Bionic,Apple M1 (e successori a questi) dispongono di un acceleratore di Intelligenza Artificiale chiamato Neural Engine.[8]

Il microprocessore Snapdragon 845 diQualcomm contiene uncore per il processamento dell'Intelligenza Artificiale.[9]

Un acceleratore basato su reti neurali è anche presente nei processori Kirin 970[10] e980[11] diHiSilicon.

Nel gennaio 2018,CEVA ha lanciato una famiglia di quattro microprocessori per l'Intelligenza Artificiale chiamati NeuPro.[12]

Note

[modifica |modifica wikitesto]
  1. ^ Antonio Cisternino,Acceleratori di intelligenza artificiale: cosa sono, le differenze, quali usare, 6 ottobre 2023.
  2. ^Artificial Intelligence (AI) Accelerators, suintel.com, Intel, 12 ottobre 2024.
  3. ^Cosa sono e a cosa servono le Neural Processing Unit, sufastweb.it.
  4. ^(EN)An in-depth look at Google’s first Tensor Processing Unit (TPU), sucloud.google.com.URL consultato l'8 luglio 2018(archiviato dall'url originale il 19 luglio 2018).
  5. ^(EN)Intel® Nervana™ Neural Network Processors (NNP) Redefine AI Silicon, suai.intel.com.
  6. ^NVIDIA Tesla, sunvidia.it.
  7. ^(EN)AMD introduces Radeon Instinct: Accelerating Machine Intelligence, suamd.com.
  8. ^Apple A12 Bionic, suapple.com.
  9. ^(EN)Snapdragon 845, suqualcomm.com.
  10. ^(EN)Key Information About the Huawei Kirin 970, suhisilicon.com.
  11. ^Kirin 980 ufficiale: il primo SoC al mondo da 7 nanometri ha un cervello in più di voi!, sumobileworld.it.
  12. ^(EN)CEVA NeuPro, suceva-dsp.com.

Voci correlate

[modifica |modifica wikitesto]

Altri progetti

[modifica |modifica wikitesto]

Altri progetti

  Portale Informatica: accedi alle voci di Wikipedia che trattano di informatica
Estratto da "https://it.wikipedia.org/w/index.php?title=Acceleratore_di_Intelligenza_Artificiale&oldid=141772058"
Categorie:

[8]ページ先頭

©2009-2025 Movatter.jp