Da una board di test NVIDIA alcune info sulle GPU di prossima generazione

Da una board di test NVIDIA alcune info sulle GPU di prossima generazione

L'immagine di una scheda di testing interna di NVIDIA permette di evidenziare alcune delle presunte caratteristiche delle proposte di prossima generazione dell'azienda americana

di pubblicata il , alle 10:01 nel canale Schede Video
NVIDIAGeForce
 

Grazie ad un post su Reddit emerge una immagine che lascia capire come le schede video NVIDIA di prossima generazione non siano poi così lontane dal debutto. Nello scatto è raffigurata quella che è una engineering board interna di NVIDIA, presumibilmente basata su una delle GPU basate su architettura di prossima generazione.

Da questa immagine possiamo ricavare alcune informazioni, ma non di certo certezze sulle specifiche delle GPU di prossima generazione. Un elemento sicuro è la presenza di memoria GDDR6, con 12 moduli che lasciano quindi emergere un bus da 384bit complessivi. Il chip dovrebbe essere quello GV102, successore della GPU GP102 che è adottata nelle schede GeForce GTX 1080Ti. Questa configurazione di memoria implica la presenza di 12 Gbytes totali, per una bandwidth di 672 GB/s considerando un data rate di 14 Gbps per le memorie video.

Nella parte superiore destra del PCB troviamo 3 connettori di alimentazione a 8 pin ciascuno: questo non vuol dire di certo che la nuova GPU debba necessarimente richiedere ben 3 connettori di alimentazione di questo tipo, ciascuno capace di erogare sino a 150 Watt. E' invece plausibile che questa caratteristica serva a NVIDIA per poter testare la GPU non solo in configurazione stock ma anche in overclock spinto. Del resto con due connettori a 8 pin che affiancano lo slot PCI Express 16x una scheda video può ricevere sino a 375 Watt, quantitativo che è più che sufficiente anche in presenza di overclock estremi.

Sempre in alto si nota un connettore che è simile a quello adottato da NVIDIA per la tecnologia NVLink: possibile che questa configurazione venga adottata da NVIDIA per le GPU di prossima generazione in configurazioni a due schede che operano in parallelo. Si nota anche la presenza di un singolo connettore mini Display Port per uno schermo, ideale nel momento in cui si utilizza una scheda di questo tipo per il testing interno ma non di certo per una proposta destinata al mercato retail.

Per ora non possiamo ricavare di più da questa immagine, ma quantomeno pare assodato che NVIDIA sia al lavoro internamente per completare lo sviluppo delle schede basate su GPU di prossima generazione. Da test board di questo tipo derivano poi le scelte di componenti che verranno implementate nelle schede reference, che NVIDIA proporrà sul mercato anche attraverso i propri partner AIB.

12 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
al13527 Giugno 2018, 11:50 #1
nvidia serie TI al top come al solito
tra l'altro si sono normalizzati i prezzi delle schede video, era ora!
CrapaDiLegno27 Giugno 2018, 11:54 #2
Questi articoli mi fanno davvero ridere, scusate se mi permetto.

A meno che la foto non abbia una data si può estrapolare qualsiasi cosa da questa foto ma di certo non a che punto sono con lo sviluppo delle schede.

Le mie considerazioni:
- se la foto è di ieri manca la GPU, che non è ancora stata sfornata dalle fabbriche, non sono tanto avanti con lo sviluppo
- non ha connettori per le uscite video, per cui o è una Tesla o una scheda per mining
- dal punto precedente, o stanno creando schede Tesla con il GV102 (o GT102 se l'archietettura è Turing è GA102 se è Ampere) da cui si può presumere che saranno una bomba per i calcoli o stanno pensando a fare schede per miner, che vuol dire che saranno una bomba con i calcoli.
2 su 2 = saranno una bomba per i calcoli.
- Stanno ancora testando le memorie GDDR6 appena sfornate da Micron, figuriamoci quando saranno in grado di creare una scheda funzionante al 100%
- Il connettore nvlink di serie per lo SLI prevede che nel die ci sia un controller (abbastanza costoso in termini di spazio e di rese per via del clock necessario oltre ce di consumi) per questo bus = GV/T/A102 creato anche per schede HPC, quindi Volta/Ampere/Turing = una bomba con i calcoli.
- Se il nuovo SLI è+ basato su nvlink significa che anche il GV/T/A104 lo avrà oppure non avremo supporto SLI dalla 1180 in giù.
- Manca la GPU perché hanno fatto un casino come con il GF100 e ora stanno cercando di sistemare il tutto con qualche barbatrucco sul PCB.
- Dal punto precedente, visto il pregresso, i 3 connettori di alimentazione sono necessari per cloccare la GPU a un livello di performance decente
- Visto che il nuovo PP a 12nm ha come maggior pregio la diminuzione dei consumi, se nvidia ha intenzione di lanciare una scheda top gamma con almeno 2 connettori di alimentazione significa che avremo in mano una bestia assurda

Da quanto scritto prima si può ricavare quello che si vuole, perché in realtà la foto non ci mostra nulla di utile, quali sono i problemi aperti, quelli soluti e sopratutto quando tutto ciò è avvenuto.

Buon divertimento a cercare qualcosa che sarà vero di quanto scritto al prossimo lancio.
CrapaDiLegno27 Giugno 2018, 12:01 #3
Originariamente inviato da: Bivvoz
Speriamo di no, dovrebbero andare vero il multi-gpu (che sembra funzionare anche bene) non verso nuove soluzioni proprietarie con cavetti.

Che il multi GPU funzioni bene ho i miei seri dubbi.
Il carico di lavoro per supportarlo è molto grande e buona parte del lavoro deve essere fatto o a mano a basso livello o tramite driver.
Nel primo caso hai massima libertà, ma ance il problem di riuscire a far funzionare il tuo motore con tutte le configurazioni possibili.
Nel secondo caso perdi la libertà ma ti garantisci la massima compatibilità, come con lo SLI/CF delle DX11.
CrapaDiLegno27 Giugno 2018, 12:20 #4
Originariamente inviato da: Bivvoz
Qui abbiamo un esempio: https://www.youtube.com/watch?v=uz1ZO5gLCT0

Visto che ha prestazioni superiori direi che funziona meglio si più dire.
Carico maggiore sulla cpu non direi, pesa un po' di più perchè ha prestazioni superiori, andrebbe provato lockando i frame allo stesso valore.
Il lavoro deve essere fatto a basso livello i driver non centrano.
Non devi preoccuparti di nessuna configurazione, se è compatibile al sistema non frega nulla di quale configurazione hai e usa tutte le risorse disponibili in modo trasparente.

p.s: tra l'altro si possono usare due schede diverse come una 1070 e una 1080, ma anche di produttori diversi mischiando una nvidia e una amd, una nvidia e una intel e via dicendo.


Non ho detto che non funziona.
Ma come vedi passare da 109 FPS mono GPU a 130FPS dual GPU lascia un po' a desiderare.
Se mischi schede di tipo diverso, come detto, non è che non funziona, ma funziona addirittura peggio perché devi prevedere un meccanismo che autoregoli in carico tra le due schede che non può più essere 50-50. E questo non lo fai facilmente e devi fartelo a manina. Non hai modo di fare ottimizzazioni per ciascuna configurazione possibile.
Quindi, come detto, che funzioni ok, che funzioni bene ho miei dubbi, per cui invece che avere il doppio del silicio che dà il 30% in più con il doppio dei consumi, magari dal punto di vista delle performance/costi/consumi/supporto meglio mettere il 30% di silicio in più che garantiscono maggiore performance a tutti i giochi ed evitare diversi casini che non sono semplici da risolvere lato programmazione.
CrapaDiLegno27 Giugno 2018, 13:44 #5
Originariamente inviato da: Bivvoz
Veramente nel video linkato provano 2 1080ti in SLI e sempre 2 1080ti in mGPU.

Che ci sia la necessità di prevedere il meccanismo da te descritto, che ci siano problemi con schede diverse e servano ottimizzazioni per ogni configurazione non mi risulta, dove l'hai sentita questa cosa?


Oh, l'ho guardato al volo e mi sono concentrato solo sui numerini.

Come non ti risulta? E secondo te come fa il motore a ripartire il lavoro tra due GPU? Così, a naso manda un po' di comandi di qui e un po' di là?
Lo sai come funziona lo SLI/multiGPU, vero? Cioè che c'è una GPU master che deve raccattare le informazioni da una (o più GPU slave e fino a quando non ha recuperato tutti i dati da ciascuna non può creare l'immagine da spedire sul monitor. A meno di non avere un meccanismo di bilanciamento automatico interno (altro lavoro per il programmatore) la suddivisione preventiva del lavoro in più parti che devono finire allo stesso istante (nel futuro) non è banale. Se la divisione non è bilanciata, hai un ritardo in cui qualcuno aspetta qualcun altro e hai un calo di frame.

Perché credi che il multi GPU, oltre a quello ibrido tra schede diverse o persino tra architetture diverse, non è supportato in maniera così estensiva?
Credi che sia un lavoro banale?
lucusta27 Giugno 2018, 15:07 #6
Originariamente inviato da: CrapaDiLegno
Le mie considerazioni:
- se la foto è di ieri manca la GPU, che non è ancora stata sfornata dalle fabbriche, non sono tanto avanti con lo sviluppo

non c'è l'indicazione della data, ne tantomeno si può riconoscere la componentistica... potrebbe essere anche una board prototipale per pascal.

Originariamente inviato da: CrapaDiLegno
- non ha connettori per le uscite video, per cui o è una Tesla o una scheda per mining

in alto a sinistra si vede un LVDS.

Originariamente inviato da: CrapaDiLegno
- dal punto precedente, o stanno creando schede Tesla con il GV102 (o GT102 se l'archietettura è Turing è GA102 se è Ampere) da cui si può presumere che saranno una bomba per i calcoli o stanno pensando a fare schede per miner, che vuol dire che saranno una bomba con i calcoli.
2 su 2 = saranno una bomba per i calcoli.


dal punto precedente capisci che è una scheda prototipale, invece da questo...
Gx102, il chip per HPC confido che usi ancora le HBM2; farlo con le normali GDDRxx sarebbe tornare due generazioni indietro.
per fare calcolo, molti calcoli, ha necessità di banda, molta banda.
oltretutto il consumo di 12 chip GDDR6 non sarà certo contenuto (e quando scali sul numero delle schede si fa sentire).
quindi non è una scheda prototipale per chip HPC, ed è da escludere tutta la gamma che ricoprono questi chip, forse anche quella Titan...

Originariamente inviato da: CrapaDiLegno
- Stanno ancora testando le memorie GDDR6 appena sfornate da Micron, figuriamoci quando saranno in grado di creare una scheda funzionante al 100%

dipende dallo stadio di sviluppo... non sapendo a quando risale la foto, non si ha nessun punto di riferimento.
comunque Micron è in produzione con le GDDR6, significa che le board di testing risalgono almeno a un anno fa (poi le board di testing delle memorie sono assai diverse e non necessitano assolutamente di una GPU).

Originariamente inviato da: CrapaDiLegno
- Il connettore nvlink di serie per lo SLI prevede che nel die ci sia un controller (abbastanza costoso in termini di spazio e di rese per via del clock necessario oltre ce di consumi) per questo bus = GV/T/A102 creato anche per schede HPC, quindi Volta/Ampere/Turing = una bomba con i calcoli.

SLI nel consumer è morto, perchè costerebbe meno mettere 2 schede medie in parallelo con relativa perdita prestazionale che prendere una di pari potenza.
quando sali con la potenza è il costo della ram che incomincia a pesare, perchè devi imbottire di chip le schede non tanto per la capacità totale, ma per la banda massima disponibile.
se avessero fatto una titan con 16x32, ossia un bus da 512bit con chip da 8000mhz GDDR5 da 512 MB avrebbero ottenuto 512GB/s di banda e 8GB di ram; credi che ci sia qualche gioco, oggi, che non rientri in 8GB di ram?
credi che 512GB/s sarebbero stati un collo di bottiglia o una liberazione per quel chip?
li avrebbero pagati sostanzialmente anche meno, con un 'incremento di banda del 10%... ci sarebbero voluti, però, più controller (ed un differente disegno del chip).

Originariamente inviato da: CrapaDiLegno
- Se il nuovo SLI è+ basato su nvlink significa che anche il GV/T/A104 lo avrà oppure non avremo supporto SLI dalla 1180 in giù.

come scritto prima questa è una scheda prototipale proprio per i chip "piccoli" non certo per gli HPC; essendo scheda prototipale, ha buona configurazione (se vedi hai la selezione per tutte le fasi della scheda (17), che puoi interrompere con i jumper in alto, mentre da bios puoi tranquillamente configurare quanti chip memoria usare e la piazzola del chip sembra adatta ad ospitare ben più di un solo tipo di chip... insomma.. è una scheda prototipale universale, ma su ram GDDRxx, quindi dedicata al mondo consumer, non HPC).

Originariamente inviato da: CrapaDiLegno
- Manca la GPU perché hanno fatto un casino come con il GF100 e ora stanno cercando di sistemare il tutto con qualche barbatrucco sul PCB.

?
Originariamente inviato da: CrapaDiLegno
- Dal punto precedente, visto il pregresso, i 3 connettori di alimentazione sono necessari per cloccare la GPU a un livello di performance decente

potendo essere anche una scheda prototipale universale per la nuova famiglia di chip, meglio alimentarla a dovere, anche perchè le varie fasi sono configurabili, quindi un PIN potrebbe alimentare solo alcune di esse; quando la configuri per il chip più piccolo una o due linee di alimentazione non servono più..

Originariamente inviato da: CrapaDiLegno
- Visto che il nuovo PP a 12nm ha come maggior pregio la diminuzione dei consumi, se nvidia ha intenzione di lanciare una scheda top gamma con almeno 2 connettori di alimentazione significa che avremo in mano una bestia assurda

?
è una scheda prototipale... non c'entra nulla con quelle fatte in serie, quindi non puoi dedurne nulla.

Originariamente inviato da: CrapaDiLegno
Da quanto scritto prima si può ricavare quello che si vuole, perché in realtà la foto non ci mostra nulla di utile, quali sono i problemi aperti, quelli soluti e sopratutto quando tutto ciò è avvenuto.

Buon divertimento a cercare qualcosa che sarà vero di quanto scritto al prossimo lancio.


appunto... è solo una foto di un pezzo di HW con cui mai nessuno avrà mai a che fare e non dà indicazioni di nulla.
c'era o non c'era era lo stesso.
tuttodigitale27 Giugno 2018, 18:10 #7
Originariamente inviato da: CrapaDiLegno
Questi articoli mi fanno davvero ridere, scusate se mi permetto.

A meno che la foto non abbia una data si può estrapolare qualsiasi cosa da questa foto ma di certo non a che punto sono con lo sviluppo delle schede.

Le mie considerazioni:
- se la foto è di ieri manca la GPU, che non è ancora stata sfornata dalle fabbriche, non sono tanto avanti con lo sviluppo
- non ha connettori per le uscite video, per cui o è una Tesla o una scheda per mining
- dal punto precedente, o stanno creando schede Tesla con il GV102 (o GT102 se l'archietettura è Turing è GA102 se è Ampere) da cui si può presumere che saranno una bomba per i calcoli o stanno pensando a fare schede per miner, che vuol dire che saranno una bomba con i calcoli.
2 su 2 = saranno una bomba per i calcoli.
- Stanno ancora testando le memorie GDDR6 appena sfornate da Micron, figuriamoci quando saranno in grado di creare una scheda funzionante al 100%
- Il connettore nvlink di serie per lo SLI prevede che nel die ci sia un controller (abbastanza costoso in termini di spazio e di rese per via del clock necessario oltre ce di consumi) per questo bus = GV/T/A102 creato anche per schede HPC, quindi Volta/Ampere/Turing = una bomba con i calcoli.
- Se il nuovo SLI è+ basato su nvlink significa che anche il GV/T/A104 lo avrà oppure non avremo supporto SLI dalla 1180 in giù.
- Manca la GPU perché hanno fatto un casino come con il GF100 e ora stanno cercando di sistemare il tutto con qualche barbatrucco sul PCB.
- Dal punto precedente, visto il pregresso, i 3 connettori di alimentazione sono necessari per cloccare la GPU a un livello di performance decente
- Visto che il nuovo PP a 12nm ha come maggior pregio la diminuzione dei consumi, se nvidia ha intenzione di lanciare una scheda top gamma con almeno 2 connettori di alimentazione significa che avremo in mano una bestia assurda

Da quanto scritto prima si può ricavare quello che si vuole, perché in realtà la foto non ci mostra nulla di utile, quali sono i problemi aperti, quelli soluti e sopratutto quando tutto ciò è avvenuto.

Buon divertimento a cercare qualcosa che sarà vero di quanto scritto al prossimo lancio.


il tuo commento non è che non faccia ridere:
i 3 connettori di alimentazioni sono necessari per non avere nessun tipo di problema: quelli di nvidia non sanno a priori il rendimento e l'efficienza del chip prima che venga messo sul silicio, i bug sono dietro l'angolo. Potrebbero benissimo trovarsi un chip che a 1GHz scaldi come un forno, e di solito un nuovo step richiede circa 3 mesi. E visto che il costo di quel PCB è una tantum è meglio abbondare.

per il resto se è l'ennesimo chip a 12nm, su architettura Volta non vedo come possa essere più potente o posizionarsi in un mercato di fascia superiore di quello coperto da GV100, chip da oltre 800mmq.

i 12nm dopo un anno non è che sia nuovissimo, e i risultati ottenuti con GV100 mi sembrano più che soddisfacenti... e un chip più piccolo e maggiormente orientato al gioco non può che rendere meglio.
CrapaDiLegno28 Giugno 2018, 08:54 #8
@lucusta e tuttodigitale

Siete dei campioni a comprendere il sarcasmo. Complimetoni, sopratutto lucusta che è stato lì a inventarsi giustificazioni per ogni punto che ho elencato
tuttodigitale28 Giugno 2018, 10:36 #9
Originariamente inviato da: CrapaDiLegno
Che il multi GPU funzioni bene ho i miei seri dubbi.
Il carico di lavoro per supportarlo è molto grande e buona parte del lavoro deve essere fatto o a mano a basso livello o tramite driver.
Nel primo caso hai massima libertà, ma ance il problem di riuscire a far funzionare il tuo motore con tutte le configurazioni possibili.
Nel secondo caso perdi la libertà ma ti garantisci la massima compatibilità, come con lo SLI/CF delle DX11.


guarda che è esattamente il contrario...
lato applicativo hai la massima compatibilità possibile, il rovescio della medaglia è che quel lavoro lo deve fare lo sviluppatore del gioco. Prova lato driver a fare collaborare 2 gpu di produttori diversi, anche con potenza elaborativa simile....

Poi le dx12 rende possibile l'utilizzo del frame pipeling per meglio partizionare il carico di lavoro tra le diverse GPU anche di fascia differente.

lungi da me criticarti , ma come puoi dire che la gestione lato driver garantisce il massimo della compatibilità....di solito le soluzioni SLI/CF sono le prime che vengono abbandonate lato driver....invece teoricamente basta avere 2 gpu con HW in grado di eseguire il gioco, anche di generazione diversa, con potenza non esageratamente differente (si consiglia di non superare il rapporto 2:1) e avere comunque prestazioni discretamente superiori alla soluzione singola.

Originariamente inviato da: CrapaDiLegno
@lucusta e tuttodigitale

Siete dei campioni a comprendere il sarcasmo.


i tuoi commenti sono sempre pieni di sarcasmo
CrapaDiLegno28 Giugno 2018, 13:37 #10
Originariamente inviato da: tuttodigitale
guarda che è esattamente il contrario...
lato applicativo hai la massima compatibilità possibile, il rovescio della medaglia è che quel lavoro lo deve fare lo sviluppatore del gioco. Prova lato driver a fare collaborare 2 gpu di produttori diversi, anche con potenza elaborativa simile....

Poi le dx12 rende possibile l'utilizzo del frame pipeling per meglio partizionare il carico di lavoro tra le diverse GPU anche di fascia differente.

lungi da me criticarti , ma come puoi dire che la gestione lato driver garantisce il massimo della compatibilità....di solito le soluzioni SLI/CF sono le prime che vengono abbandonate lato driver....invece teoricamente basta avere 2 gpu con HW in grado di eseguire il gioco, anche di generazione diversa, con potenza non esageratamente differente (si consiglia di non superare il rapporto 2:1) e avere comunque prestazioni discretamente superiori alla soluzione singola.



i tuoi commenti sono sempre pieni di sarcasmo


Per compatibilità si intende non il supporto su qualsiasi configurazione ma il fatto che non devi farti il lavoro a mano per ogni configurazione.
Compatibilità era inteso diversamente da configurazioni supportate.
Significa che lasci che sia il driver a fare il lavoro e ti adegui a quello che è in grado di fare lui. In questo modo di garantisci la compatibilità con tutto ciò che è supportato dal driver, da qui a quando viene supportata la tua applicazione.
Guarda che non c'è nulla di "gratuito" con le DX12: come detto garantiscono più libertà ma non la compatibilità.
Infatti non vedo tutta questa rincorsa a creare giochi che supportino il multiGPU, neanche simmetrico, figuriamoci quello asimmetrico o persino quello con architetture diverse. E' un lavoraccio quello di far collaborare 2 GPU indipendenti in modo preciso che porti ad avere un reale migliormento dele prestazioni e non mi sembra che sia molto supportato.
In quasi tutti i test di giochi testati in DX12 usare 2 GPU è esattamente uguale ad averne una sola.

Per quanto riguarda il sarcasmo, la mia era una lista di liberi pensieri che si creavano man mano che guardavo la scheda e cercavo di capire lo stato dello sviluppo, così come fatto da Corsini. Ogni libera interpretazione è ugualmente valida a quella data da Corsini, visto che, o ha informazioni che non ci ha detto direttamente, oppure senza una data e una descrizione di cosa fosse, qualsiasi cosa è valida, pure quanto scritto da lucusta.

E comunque è vero, spesso sono sarcastico

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^