Movatterモバイル変換


[0]ホーム

URL:


Vai al contenuto
WikipediaL'enciclopedia libera
Ricerca

GPU

Da Wikipedia, l'enciclopedia libera.
(Reindirizzamento daGraphics processing unit)
Schema a blocchi generico di una GPU (2017)

L'unità di elaborazione grafica (in acronimoGPU, dall'ingleseGraphics Processing Unit), è unprocessore progettato per accelerare la creazione di immagini in unframe buffer, destinato all'output su un dispositivo di visualizzazione. Le GPU vengono utilizzate insistemi embedded cometelefoni cellulari,personal computer econsole di gioco. In un personal computer una GPU può essere presente suscheda video o incorporata sullascheda madre, mentre in alcuneCPU sono incorporate neldie della CPU stessa.[1]

Negli anni settanta il termine GPU descriveva un'unità di elaborazione programmabile, che lavorava indipendentemente dalla CPU ed era responsabile della manipolazione e dell'output della grafica.[2][3] Successivamente, nel 1994,Sony ha utilizzato il termine in riferimento alla GPU progettata daToshiba per la consolePlayStation.[4] Il termine GPU è stato reso popolare daNVIDIA nel 1999, che ha commercializzato laGeForce 256 come "la prima GPU al mondo".[5]

Descrizione

[modifica |modifica wikitesto]
Niente fonti!
Questa voce o sezione sull'argomento elettronicanon cita le fonti necessarie o quelle presenti sono insufficienti.

Le GPU moderne, sebbene operino afrequenze più basse delleCPU, sono molto più veloci di esse nell'eseguire i compiti in cui sono specializzate.

La GPU attualmente entra pesantemente in funzione solo nell'accelerazione 3D; nell'accelerazione 2D i dati vengono elaborati dallaCPU e allocati dalla GPU in una parte della memoria chiamataframebuffer; da lì, ilRAMDAC (random access memory digital-to-analog converter) legge i valori di colore da assegnare ai singolipixel e genera il segnale per lo schermo.

Diversamente, quando viene elaborata un'immagine 3D, la CPU del computer si occupa solo del calcolo delle coordinate geometriche dei vertici dei poligoni che compongono gli oggetti della scena, e lascia alla GPU il compito di riempire le facce formate da questi vertici (mesh) e del calcolo delle ombre e degli effetti grafici da applicare ai poligoni, sgravandosi da pesanti operazioni di calcolo. Dopo di ciò i dati risultanti verranno normalmente posizionati nelframe buffer, per poi passare per ilRAMDAC e arrivare alla resa grafica.

Dal punto di vista terminologico abbiamo tre soluzioni con architetture diverse[N 1]:

  • GPU dedicata: è presente una scheda video specifica;
  • GPU integrata: la sezione grafica è condivisa con la CPU, ossia è sulchipset;
  • GPU doppia: GPU integrata (per applicazioni video ordinarie) e GPU dedicata (per flussi video pesanti: resa grafica, giochi, ecc.); questa soluzione può essere configurata con commutazione automatica oppure manuale (ovvero l'utente decide quale scheda utilizzare), agendo sul BIOS o meglio sullo strumento relativo alla sezione grafica.

Storia

[modifica |modifica wikitesto]
GPU Atari Blitter
GPU Nvidia GeForce 4 MX
GPU ATI Radeon Graphics HD4650

Le moderne GPU discendono dai chip graficimonolitici di fineanni settanta e deglianni ottanta.

Questi chip non avevano la funzioneBitBLT, o l'avevano solo sotto forma disprite, e solitamente non avevano funzioni per il disegno diforme.

Alcune GPU potevano eseguire più operazioni in unadisplay list e usare ilDMA per ridurre il carico sulla CPU; uno dei primi esempi è stato il co-processoreANTIC, usato sul computerAtari 800 eAtari 5200. Alla fine degli anni ottanta e all'inizio deglianni novanta, le GPU di fascia alta venivano spesso implementate con microprocessori non specializzati ad alta velocità; alcune schede grafiche (molto costose) perPC eworkstation usavano chipDSP (digital signal processor) (come la serie TMS340 dellaTI) per implementare funzioni veloci di disegno, e moltestampanti laser venivano fornite con un elaboratore di immaginirasterPostScript (un caso speciale di una GPU) funzionante su una CPURISC come l'AMD 29000.

Man mano che la tecnologia di costruzione di chip migliorava, è diventato possibile spostare sia le funzioni di disegno sia la funzione BitBLT sulla stessa scheda (e, in seguito, nello stesso chip) insieme a un normale controllore di frame buffer come ilVGA; questi "acceleratori 2D" semplificati non erano così flessibili come le GPU basate su microprocessore, ma erano molto più facili da costruire e da vendere. L'Amiga è stato il primo computer per il mercato di massa a includere unblitter nel suo hardware video e il sistema graficoIBM 8514 è stato una delle prime schede video per PC a implementare nell'hardware le primitive 2D.

All'inizio degli anni '90, la diffusione diMicrosoft Windows ha generato un grande interesse verso lagrafica raster 2D ad alta velocità e altarisoluzione (che in passato era stato il dominio delle workstationUnix e dei MacintoshApple). Per il mercato dei PC, la dominanza di Windows ha significato che i produttori di dispositivi grafici per PC adesso potevano focalizzare gli sforzi di sviluppo su una sola interfaccia di programmazione, laGDI.

Nel1991,S3 Graphics ha introdotto il primo acceleratore 2D su singolo chip, l'S3 86C911 (il cui nome è stato ispirato dall'autovetturaPorsche 911 come indicazione dell'aumento di velocità che prometteva). L'86C911 ha generato molti imitatori; nel1995, tutti i principali produttori di chip grafici per PC avevano aggiunto il supporto per l'accelerazione 2D ai loro chip. Entro questo tempo, gli acceleratori per Windows non programmabili avevano sorpassato, in termini di prestazioni di Windows, i costosi coprocessori grafici a uso generico, per cui i co-processori scomparvero dal mercato dei PC.

Nel 1999 fu introdotta la prima generazione di schede graficheGeForce prodotte dallaNVIDIA Corporation, pensate appositamente per la grafica 3D. Un anno dopoATI Technologies introdusse il primo chip della famigliaRadeon. Questi due brand acquistarono sempre più quote di mercato e oggi si spartiscono il mercato delle schede grafiche per i videogiochi.

Con l'avvento dell'APIDirectX versione 8 e di simili funzionalità inOpenGL, le GPU hanno aggiunto l'ombreggiatura (shading) programmabile alle loro funzioni. Ogni pixel poteva adesso essere elaborato da un breve programma che poteva ricevere in input delletexture e ogni vertice geometrico poteva analogamente essere elaborato da un breve programma prima di essere proiettato sullo schermo. Nel2003, con l'introduzione dellaNVIDIAGeForce FX (detta anche NV30), gli ombreggiatori (shader) dipixel e divertici potevano realizzare dei cicli, delle lunghe operazioni a virgola mobile, e in generale stavano diventando rapidamente flessibili quanto una CPU dedicata all'elaborazione d'immagini raster.

L'avvento dell'interfaccia AGP (accelerated graphics port), con standard di interfaccia 2x - 4x e 8x, fece in modo di consentire una maggiore banda passante di informazioni per permettere un accesso diretto alla memoria fisica del computer da parte della scheda grafica, in modo da poter gestire texture e oggetti 3D di grandi dimensioni, garantendo una maggiore velocità nelle operazioni di calcolo grafico. Le velocità sono di, rispettivamente, 533 MB/s per AGP 1x/2x, 1066 MB/s per AGP 4x e 2133 MB/s per AGP 8x.

L'avvento del PCI Express portò all'inesorabile declino dell'interfaccia AGP, garantendo velocità di trasferimento di molto superiori e permettendo l'utilizzo di schede grafiche con maggiori richieste di consumi energetici. Questo portò alla costruzione di chip grafici molto più evoluti dei precedenti, aprendo la strada a una sempre più realistica grafica in continuo sviluppo sia per usi professionali sia per usi domestici.

L'ultima versione oggi disponibile di DirectX è la 12, integrata inWindows 10, con un aggiornamento in Vista, che rappresenta un ulteriore passo avanti nella programmabilità delle GPU, grazie all'introduzione dishader unificati. Con l'upgrade a DirectX 10 e 11 è inoltre possibile godere degli effetti video di Tessellation (generazione automatica scalare di poligoni su superfici piane e no) che permette di generare minuziosi particolari delle Texture senza sconvolgere lo scenario in modo massivo. Inoltre, con l'avvento deiBlu-ray Disc la GPU dovrà essere progettata per gestire il segnale e le chiaviAACS che servono per verificare l'autenticità del film.I nuovi chip grafici godono di upscaling su video di scarsa qualità, di maggiore velocità di riproduzione dei filmati e dei contenuti DVD oltre i 25 fps e di un complessivo miglioramento dei colori, delle luci e dei rapidi cambi di scena.

Oggi le GPU, ad alto parallelismo, hanno cominciato a contendere alla CPU funzioni computazionali, e un sottosettore della ricerca, chiamatoGPGPU (sigla di General Purpose Computing on GPU), ha trovato impiego in vari campi come l'esplorazione petrolifera, l'elaborazione di immagini scientifiche e perfino la determinazione del prezzo delle opzioni sulleazioni di borsa. Le tecnologie più note per l'elaborazioneGPGPU sono NVIDIACUDA, ATI CTM (precedentemente noto come ATI Stream) eOpenCL.

Crisi da carenza

[modifica |modifica wikitesto]

Nel 2020 si è assistito a una carenza di reperibilità di schede video, causata da un duplice motivo: crisi dei materiali e della logistica causata dalCOVID-19 e la crescente richiesta dei miner dicriptovalute[6]

Note

[modifica |modifica wikitesto]
Annotazioni
  1. ^Si assimila di seguito GPU (cioè il processore grafico) alla scheda video di cui, in realtà, il processore è solo un componente
Fonti
  1. ^(EN) Denny Atkin,Computer Shopper: The Right GPU for You, sucomputershopper.com.URL consultato il 2 dicembre 2020(archiviato dall'url originale il 6 maggio 2007).
  2. ^(EN) E.T. Barron e R.M. Glorioso,A micro controlled peripheral processor, sudl.acm.org, settembre 1973.URL consultato il 2 dicembre 2020.
  3. ^(EN) Ken Levine,Core standard graphic package for the VGI 3400, sudl.acm.org, agosto 1978.URL consultato il 2 dicembre 2020.
  4. ^(EN) Jon Peddie,Is it Time to Rename the GPU?, sucomputer.org.URL consultato il 2 dicembre 2020.
  5. ^(EN)NVIDIA Launches the World's First Graphics Processing Unit: GeForce 256, sunvidia.com.URL consultato il 2 dicembre 2020(archiviato dall'url originale il 12 aprile 2016).
  6. ^Schede video introvabili? La colpa è (anche) del mining delle criptovalute, sucorriere.it.URL consultato il 17 dicembre 2021.

Voci correlate

[modifica |modifica wikitesto]

Altri progetti

[modifica |modifica wikitesto]

Altri progetti

Collegamenti esterni

[modifica |modifica wikitesto]
V · D · M
Hardware eperiferiche percomputer
Drive ·Periferiche
Dispositivi di ingressoTastiera ·Dispositivo di puntamento (Joystick ·Penna ottica ·Mouse ·Touchpad ·Trackball ·Trackpoint ·Gamepad ·Tavoletta grafica ·Paddle) ·Microfono ·Scanner ·Webcam
Dispositivi di uscitaMonitor ·Altoparlanti ·Altoparlantino ·Stampante ·Plotter
Disp. di ingresso e uscitaModem ·Schermo tattile ·Stampante multifunzione
PorteEthernet ·Firewire (IEEE 1394) ·Porta parallela ·Porta seriale ·USB (Universal Serial Bus)
Schede elettronicheScheda madre ·Daughterboard ·Scheda di rete ·Scheda video ·Scheda di acquisizione video ·Scheda audio
ProcessoreCPU ·Coprocessore (Coprocessore matematico ·GPU ·DSP ·ALU)
Memoria
Memoria primariaRAM ·ROM ·Memoria cache
Memoria di massa
Memoria flashScheda di memoria ·Unità a stato solido ·Chiave USB
Memoria magneticaDisco rigido ·Floppy disk(drive) ·Cassetta
Dischi otticiCD(lettore ·masterizzatore) ·DVD(Masterizzatore) ·Blu-ray Disc
Controllo di autoritàGND(DE4582114-8 ·J9U(EN, HE987007572552505171
 Portale Informatica: accedi alle voci di Wikipedia che trattano di informatica
Estratto da "https://it.wikipedia.org/w/index.php?title=GPU&oldid=143853906"
Categorie:
Categorie nascoste:

[8]ページ先頭

©2009-2025 Movatter.jp