E se cambi auto a quanti fps viaggia ? :asd:
Le auto hanno tutte stessa velocità (https://i.imgur.com/pJibyZG.gif)
Il problema è che Rocket League lo conosco alla perfezione e se qualcosa non va la noto subito.
Con gli altri giochi... boh :hmm:
Si nota con tutti Blu :sisi:
Può essere un bug che affligge solo Rocket League.
Non è che poi a me tutti i giochi vanno a quella fluidità.
Se un gioco da 60fps ne perde 50 te ne accorgi sì...
Ma se ne perde 4-5, col Gsync non è detto che te ne accorgi. Io non gioco col numerello in sovraimpressione.
Visto che se ne è parlato anche qui, è bene riportare che la modalità ULTRA LATENZA ( :hihi: ) limita il frame rate:
NVIDIA's frame rate limiter automatically sets a limit some amount lower than your refresh rate.
At 144Hz it is only 5 FPS lower (139 FPS) which is reasonable, however at 240Hz it caps to 224 FPS which seems lower than it needs to be.
https://www.resetera.com/threads/g-sync-thread.5961/page-18#post-26687864
Tu non dovresti avere limiti ma solo il mio avatar natalizio.
Ormai siamo oltre i messaggi subliminali :hihi:
Grandi novità per i driver AMD:
https://www.resetera.com/threads/amd-radeon-adrenalin-2020-19-12-2-drivers.158298/
Nvidia registra quattro nuovi marchi negli USA, fra i quali Hopper. Hopper si vocifera sia il nome dell'architettura di GPU che succederà ad Ampere.
https://videocardz.com/newz/nvidia-registers-hopper-and-aerial-trademarks
Davvero bella l'interfaccia dei nuovi driver AMD. Poi speriamo pure che funzionino a dovere :look:
Ci sono le varie sezioni che devo ancora ben studiare, ma per ora il mio interesse è stato carpito dalla sezione "prestazioni" con tanto di consumo, temperatura, velocità ventole, tutto in tempo reale.
E poi la sezione "compatibilità".
All'interno di essa, un algoritmo analizza i giochi installati e dà il risultato di compatibilità di GPU e CPU con riferimento ai requisiti raccomandati e minimi.
Nel mio caso:
(https://i.imgur.com/sW9D08pm.png) (https://i.imgur.com/sW9D08p.png)
Pure i driver ti suggeriscono di aggiornare, li avrà modificati Bob. :o :asd:
Citazione di: Turrican3 il 8 Gennaio, 2020, 21:39:10
Pure i driver ti suggeriscono di aggiornare, li avrà modificati Bob. :o :asd:
Anche io lo penso :hihi:
Probabilmente sto per vincere il premio "fesso dell'anno", ma ascoltate 'sto audio:
https://drive.google.com/open?id=1G6GiSnfNn5Fdtw5Y9muQ_yGGvt1prkS8
Si sente ogni qual volta faccio partire un gioco, sia esso Steam o di un'altra piattaforma (con alcuni però non lo fa, tipo POD fatto partire da GOG).
Prima non lo faceva mica :look:
E non sapete che Cpu gli viene spassionatamente consigliata :lol:
Blu ma ti devo risolvere tutto io ^..^ ?
Quel suono è stato introdotto nei driver del 2020, quello che pochissimi sanno è che imita il suono di un gioco arcade quando si introduceva la monetina (Cit. Bob )
Vuoi eliminarlo ?
It's Radeon Anti-Lag option. If you stop this option, you will no longer hear it. Go Game>Games>Select your game>Radeon Anti-Lag>Off.
L'upgrade advisor di AMD consiglia di default un 3950x in quanto top gamma. Però mi sono accorto che è possibile cambiare la CPU consigliata con praticamente tutta la produzione attuale AMD, per scovare quella più adatta alle proprie esigenze.
Riguardo il suono e l'anti lag. Può essere vero, ma i miei tentativi hanno portato ad un nulla di fatto.
Va detto che ho avuto qualche difficoltà con i settaggi grafici di questi driver, in quanto pur cambiando le impostazioni globali, quelle dei singoli giochi rimanevano ben salde sulla configurazione consigliata da AMD.
Adesso credo di avere risolto.
In ogni caso, l'antilag mi sembra utile, quindi mi abituerò al suono :bua:
https://www.eurogamer.net/amp/digitalfoundry-2020-intel-reveals-their-first-discrete-graphics-card-dg1-en-route-to-developers
Nel frattempo sta per arrivare la prima scheda grafica di Intel, che si chiama DG1. Discrete Graphics 1 probabilmente o qualcosa del genere. :D
Tuttavia è il modello della fascia che punta ai bassi consumi, per capire se c'è davvero un terzo incomodo pronto a ficcarsi tra AMD ed Nvidia toccherà aspettare quelli più performanti.
A mio avviso, al momento Intel farebbe bene a concentrarsi sulle CPU piuttosto che spendere soldi sulle GPU.
Il mercato delle GPU gaming è complicato.
Bell'eufemismo. :bua:
Una misteriosa GPU da parte di AMD, identificata come AMD Radeon RX, è comparsa su alcuni benchmark e a quanto pare è in grado di battere la potente Nvidia RTX 2080 Ti, cosa che potrebbe far pensare alla "grossa Navi" discreta preannunciata da Lisa Su nei giorni scorsi.
La GPU AMD in questione non ha ancora un nome identificativo preciso ma è comparsa insieme alla nuova CPU AMD Ryzen 7 4800H, probabilmente ancora un prototipo di una linea che potrebbe essere introdotta nei prossimi mesi sul mercato. Il confronto al momento è sul solo benchmark OpenVR, dunque riguarda le performance in realtà virtuale ed è meno indicativo di altri, ma il fatto che si mostri più potente di una Nvidia GeForce RTX 2080 Ti è veramente impressionante.
Nel benchmark in questione, testato con HTC Vive MV alla risoluzione 1512x1680, la nuova GPU AMD raggiunge 103,32 frame al secondo, dove invece la GeForce RTX 2080 Ti ottiene solo 88,10 fps. Si tratta dunque di prestazioni superiori del 17% rispetto alla prestigiosa GPU Nvidia, al momento il top nel settore desktop standard.
Ovviamente si tratta di un benchmark poco indicativo delle capacità complessive di una scheda grafica, ma l'idea è che la misteriosa GPU possa essere la grossa Navi discreta su base RDNA 2 che AMD dovrebbe lanciare sul mercato nei prossimi mesi e l'inizio sembra decisamente promettente. (multiplayer.it)
Certo bisogna vedere le tempistiche, magari esce (se mai dovesse uscire) quando già nvidia avrà partorito la la serie 3080 :sweat:
Non mi stupirebbe vedere una eventuale RX 5900 più potente della 2080 ti.
Bisogna anche vedere a che prezzo, e bisogna pure vedere, come giustamente dici, cosa farà Nvidia (che quest'anno passa a 7nm, non va sottovalutata la cosa).
AMD è geniale nel battere prestazionalmente la generazione precedente Nvidia :bua:
E lo dico da neo possessore di GPU AMD :sisi:
D'altro canto Nvidia deve abbassare i prezzi, perché la concorrenza si fa forte e certe cose francamente non si possono vedere (ad iniziare dalla 2060 a 500 Euro).
Per dover di cronaca pare che la notizia fosse fake (anche se si è diffusa tra diverse testate..).
Io temo che nvdia continuerà con il costante aumento annuale della propria gamma di gpu, tuttavia il passaggio ai 7nm dovrebbe favorire anche la diminuzione dei costi di produzione.
Citazione di: Parsifal il 12 Gennaio, 2020, 13:17:23il passaggio ai 7nm dovrebbe favorire anche la diminuzione dei costi di produzione.
https://www.gamers4um.it/public/smf/index.php?topic=8584.msg195678#msg195678
https://www.gamers4um.it/public/smf/index.php?topic=8584.msg202585#msg202585
^^ qua si avanzavano delle perplessità :hmm:
Boh c'è chi dice l'opposto, in caso contrario la 3080 ti avrà un costo vicino ai 2.000 euro :D
Non lo escluderei conoscendo Nvidia. :asd:
Nvidia abbassa il prezzo consigliato delle RTX 2060, portandolo a 299 dollari.
Per contro AMD alza le frequenze delle RX 5600, migliorandone le prestazioni a fronte di un incremento di 10 watt nel TDP (160 invece che 150).
Io posso dire che ieri ho giocato un pochino a RDR 2, ed a fronte di un utilizzo al 99% della GPU, il consumo istantaneo segnava 120/130 watt. Mica male!
Dati prelevati dal software AMD.
Citazione di: Parsifal il 13 Gennaio, 2020, 20:09:08
Boh c'è chi dice l'opposto, in caso contrario la 3080 ti avrà un costo vicino ai 2.000 euro :D
Non è nulla in confronto ai desideri tubici di donne che sognano di notte un dyson v12 Abarth.
Citazione di: Bluforce il 18 Gennaio, 2020, 12:03:17
Nvidia abbassa il prezzo consigliato delle RTX 2060, portandolo a 299 dollari.
Notizia che mi ha fatto riflettere... c'è una cosa che credo di non aver mai letto, ovvero il giro d'affari di CPU e GPU.
Cioè non ho la più pallida idea di che numeri facciano questo componenti. Immagino sia un po' problematico visto il quantitativo sterminato di prodotti in commercio, ma ci deve pur essere qualcuno che ne tracci le vendite... o no? :hmm:
Volendo Intel, Nvidia e AMD potrebbero dire quanto pezzi piazzano, ma anche così vai a capire cosa finisce in un ufficio, in una mining farm, o in un PC da gioco :hmm:
Ieri ho giochicchiato un pochino coi driver AMD, e fra le altre cose ho provato la funzionalità Radeon Image Sharpening.
:hmm:
Devo dire che mi è piaciuta :sisi:
Settata di default all'80%, rende l'immagine più nitida senza strafare.
Con Rocket League, ad esempio, mi ha ricordato la pulizia che ottenevo con l'upscale a 4K quando giocavo a 60fps.
Citazione di: Bluforce il 18 Gennaio, 2020, 17:46:42Volendo Intel, Nvidia e AMD potrebbero dire quanto pezzi piazzano, ma anche così vai a capire cosa finisce in un ufficio, in una mining farm, o in un PC da gioco :hmm:
Hai ragione.
Ma almeno avremmo un numeretto a cui aggrapparci. Così brancolo nel buio. :'(
https://www.eurogamer.it/articles/2020-01-21-classifica-velocita-gpu-schede-grafiche-testate-benchmark-gennaio-digitalfoundry
Citazione di: Bluforce il 18 Gennaio, 2020, 12:03:17
Per contro AMD alza le frequenze delle RX 5600, migliorandone le prestazioni a fronte di un incremento di 10 watt nel TDP (160 invece che 150).
Novità riguardanti questa situazione qua.
AMD ha davvero alzato le frequenze della RX 5600 tramite aggiornamento BIOS, e tutte le GPU in prova riescono a supportare questo boost prestazionale.
Ma le GPU che arrivano ai clienti... no.
Infatti, le GPU 5600 di fascia più bassa non sono capaci di sostenere le nuove frequenze, e quindi non verranno rilasciati aggiornamenti per potenziarle.
Anche perché AMD ha deciso di potenziarle quando già i partner avevano impacchettato e spedito tutto, non potendo dunque testare per tempo le nuove frequenze.
Un casino.
https://tech.everyeye.it/notizie/-big-navi-amd-nuova-gpu-avra-impatto-mercato-processori-ryzen-424282.html (https://tech.everyeye.it/notizie/-big-navi-amd-nuova-gpu-avra-impatto-mercato-processori-ryzen-424282.html)
Una Gpu AMD incula 2080 TI con effetto inculazio tipo Ryzen, voglio crederci .
"...............intanto negli ultimi giorni è spuntato in rete il benchmark di una potente GPU AMD che sembra superare del 17% le prestazione di una NVIDIA RTX 2080 Ti."
Sarà vero ? di sicuro tanto bolle in pentola, costasse fino 800 euro sarebbe un colpo fatale per la serie 2000 Nvidia.
https://videocardz.com/newz/amd-says-there-will-be-no-reference-blower-navi-2x-graphics-cards-designs
AMD promette di non riproporre il design reference monoventola sulla nuova generazione di GPU RDNA. Tuttavia non impedirà l'utilizzo ai propri partner commerciali. Di seguito quello che dovrebbe essere una parte del nuovo design reference:
(https://cdn.videocardz.com/1/2020/03/AMD-Radeon-RX-Big-Navi-1-scaled.jpg)
Hmm, quindi 'ste bestioline scaldano comunque tanto? :hmm:
Più che lato temperature mi aspetterei un sensibile miglioramento lato rumorosità, in giro (e anche un amico che ha avuto la RX 480) non se ne parla proprio bene :sweat:
Citazione di: Turrican3 il 6 Marzo, 2020, 18:32:33
Hmm, quindi 'ste bestioline scaldano comunque tanto? :hmm:
https://www.youtube.com/watch?v=1cfKc8U4iwg
Nvidia sempre un passo avanti :asd: :lol: Tostato o meno, non ti temo :lol:
Citazione di: Bombainnescata il 6 Marzo, 2020, 19:01:08Nvidia sempre un passo avanti :asd: :lol: Tostato o meno, non ti temo :lol:
:asd:
Citazione di: Buds95 il 6 Marzo, 2020, 18:55:40Più che lato temperature mi aspetterei un sensibile miglioramento lato rumorosità
Aspetta, gentilmente fammi un piccolo promemoria che non mi ricordo MAI... le ventole sono direttamente o inversamente proporzionali (per la rumorosità) alla dimensione? :sweat:
Citazione di: Turrican3 il 6 Marzo, 2020, 19:22:13Aspetta, gentilmente fammi un piccolo promemoria che non mi ricordo MAI... le ventole sono direttamente o inversamente proporzionali (per la rumorosità) alla dimensione? :sweat:
Dal punto di vista puramente teorico più ventole = meno rumore, in quanto (sempre
in teoria) possono girare entrambe a velocità inferiore per spostare la stessa quantità d'aria :sisi:
Per la pratica chiaramente dipende da tanti fattori e non ho minimamente le competenze per illustrarli :bua:
Oh beh tranquillo, figurati io. :bua: :sweat:
Comunque tranne che mi sia perso qualcosa non c'e' stato nessun annuncio di Gpu imminente AMD ma solo una finestra temporale fino al 2022, anno in cui il Corona Virus evolverà nella versione C-3PO,
Il mondo va a puttane e di sti tempi non si puo' andare manco a puttane :'( x 51.
Citazione di: SilentBobZ il 6 Marzo, 2020, 20:10:02
Comunque tranne che mi sia perso qualcosa non c'e' stato nessun annuncio di Gpu imminente AMD ma solo una finestra temporale fino al 2022, anno in cui il Corona Virus evolverà nella versione C-3PO,
Il mondo va a puttane e di sti tempi non si puo' andare manco a puttane :'( x 51.
:lol:
Qualche giorno fa trovai questo link, che non ho potuto approfondire.
https://www.resetera.com/threads/adshirs-loclray-real-time-ray-tracing-designed-around-mobile-devices.174512/
Trattasi di LoclRay, una tecnologia real time ray tracing destinata ai dispositivi mobile, quindi meno esosa in termini di calcolo richiesto ed eseguibile anche su GPU che non dispongono di hardware dedicato.
Qui metto un solo video dimostrativo, il resto dei dettagli in video e trascritti li trovate al link:
https://www.youtube.com/watch?v=B9hLFeh-gEI
Beh caspita potrebbe essere un ottimo "compromesso".
Molto interessante anche se non capisco ancora dove stia il trucco. :hihi: :bua:
Tra l'altro a questo indirizzo (https://wccftech.com/localray-interview-weve-partnered-with-one-of-the-leading-console-manufacturers-on-raytracing/) sembra che questi abbiano già stretto accordi con uno dei più importanti produttori di console. :hmm:
Il trucco a quanto ho capito sta nel fatto che è più grezzo di quanto messo in piedi da Nvidia.
E' un ray tracing "base".
A giorni si sarebbe dovuto tenere il GTC 2020 di Nvidia.
In un primo momento l'evento fisico era stato cancellato e sostituito da annunci digitali.
Adesso invece è saltato del tutto. Gli annunci Nvidia slittano a data da destinarsi. A causa del coronavirus.
https://blogs.nvidia.com/blog/2020/03/16/gtc-update/
Qui potete trovare tutte le novità della tecnologia DLSS di Nvidia:
https://www.nvidia.com/en-us/geforce/news/nvidia-dlss-2-0-a-big-leap-in-ai-rendering/
Si dice Wow ? :look:
Funge solo sulla serie 2000 ?
"Powered by dedicated AI processors on GeForce RTX GPUs called Tensor Cores" diciamo che toglie il dubbio XD
Ok me ne fotto , non mi spenneranno mai , aspetto la serie 3000 :look:
O comprare una equivalente AMD che ha una tecnologia simile e puoi usarla su tante GPU :hihi:
Lo sai che ti dico ? Tiriamo a campare :look:
https://developer.nvidia.com/gtc/2020/video/s22698
Articolo sulla tecnica di ricostruzione/miglioramento dell'immagine DLSS.
Il DLSS 2.0 pare abbia davvero un bel potenziale. Potrebbe portare ad un incremento qualitativo del pc gaming, vediamo quanto sarà sfruttato.
https://youtu.be/tMtMneugt0A
Qua direttamente il video youtube che prima mi era sfuggito.
Citazione di: Parsifal il 3 Aprile, 2020, 17:26:36
Il DLSS 2.0 pare abbia davvero un bel potenziale. Potrebbe portare ad un incremento qualitativo del pc gaming, vediamo quanto sarà sfruttato.
In teoria nel medio/lungo termine un po' ovunque, non solo del mondo PC.
PS: suggerirei a
@Biggy e a chiunque altro condivide il suo parere di fare una stampa della diapositiva a 1:35 e di tenerla sempre a mente. :D
Ne ho visto una buona metà, poi entra di più sul tecnico e quindi ho mollato ma la visione rimane interessante, mi ha fatto capire i principi base. :sisi:
(che sicuramente avrò già dimenticato tra 24-48 ore :bua:)
https://www.youtube.com/watch?v=YWIKzRhYZm4
https://www.eurogamer.net/articles/digitalfoundry-2020-control-dlss-2-dot-zero-analysis
Articolo di Digital Foundry probabilmente più sul divulgativo come approccio (e a me sta benissimo, ora vado a leggere) riguardo l'implementazione di suddetta tecnica in Control.
incredibile :o
Eh sì. :sisi:
Soprattutto perché (dal video di cui sopra) leggo che in precedenza il DLSS andava "tarato" per singolo gioco, con conseguenze pratiche piuttosto semplici da immaginare, laddove adesso con la versione 2.0 l'algoritmo è diventato sostanzialmente generico.
Potrebbe essere interessante anche in ottica PS5/XSX se AMD o chi per essa riesce a tirar fuori qualcosa di comparabile in termini di funzionalità (e prestazioni), e forse in futuro anche per Switch se, come leggo in giro, anche la linea Tegra è destinata ad avere i tensor cores.
Citazione di: Turrican3 il 4 Aprile, 2020, 18:46:34
Potrebbe essere interessante anche in ottica PS5/XSX se AMD o chi per essa riesce a tirar fuori qualcosa di comparabile in termini di funzionalità (e prestazioni)
Già esiste e funziona meglio (almeno del vecchio DLSS).
Ma a me non mi ascoltate :bua:
https://www.techspot.com/article/1873-radeon-image-sharpening-vs-nvidia-dlss/
Su console la vedo davvero come una tecnica con grandi potenzialità, in futuro potrebbe anzi diventare lo standard abbassare la risoluzione applicando una di queste tecniche per pompare il Ray Tracing, magari dal secondo terzo anno, quando gli sviluppatori avranno una conoscenza più completa dell'hardware e non si limiteranno a usare la potenza extra per alzare la risoluzione :sisi:
edit: leggevo ora su Era: una tecnica del genere potrebbe anche essere lo standard per un'eventuale Switch 2 :o
Citazione di: Turrican3 il 4 Aprile, 2020, 15:18:12
In teoria nel medio/lungo termine un po' ovunque, non solo del mondo PC.
Ma si parla di tecnologia nvidia per le sue schede attuali (le rtx) ma soprattutto di prossima generazione.
Citazione di: Parsifal il 4 Aprile, 2020, 21:41:39
Ma si parla di tecnologia nvidia per le sue schede di attuale ma soprattutto di prossima generazione.
In che senso? :hmm:
Dal primo video leggo che si parla in scioltezza di 2060 e superiori, che non voglio dire siano "vecchie" ma non è neppure roba recentissima.
Citazione di: stobbArt il 4 Aprile, 2020, 19:45:12
edit: leggevo ora su Era: una tecnica del genere potrebbe anche essere lo standard per un'eventuale Switch 2 :o
Non ho avuto modo di leggere onestamente ma non mi stupisce. Più che altro bisogna vedere se/quando Nintendo dovesse adottare quel Tegra. :asd:
Tornando al discorso generale, una cosa è certa: se davvero il DLSS fa questa "magia" allora forse il ray tracing sulle nuove macchine Sony/MS potrebbe non essere una chimera come credevo.
Vedremo, Nvidia qualche promessa miracolosa di troppo nel suo passato ce l'ha quindi sarà il tempo a dirci se questa cosa funziona davvero su un numero significativo di giochi o no.
Citazione di: Turrican3 il 4 Aprile, 2020, 22:28:08
In che senso? :hmm:
Dal primo video leggo che si parla in scioltezza di 2060 e superiori, che non voglio dire siano "vecchie" ma non è neppure roba recentissima.
Ho postato male, ho corretto. Siccome hai scritto "non solo del mondo PC" , non vedo dove altro il dlss 2.0 di nvidia possa aver la sua efficacia.
Citazione di: Turrican3 il 4 Aprile, 2020, 22:28:08
Non ho avuto modo di leggere onestamente ma non mi stupisce. Più che altro bisogna vedere se/quando Nintendo dovesse adottare quel Tegra. :asd:
Sul quando non lo so (spero tra un bel pezzo onestamente, a me Switch va benissimo così :asd:), ma non penso che Qualcomm o Mediatek sviluppino chip grafici degni di Nvidia prossimamente, quindi è abbastanza probabile che Nintendo continui con loro :sisi:
Citazione di: stobbArt il 5 Aprile, 2020, 01:02:47ma non penso che Qualcomm o Mediatek sviluppino chip grafici degni di Nvidia prossimamente, quindi è abbastanza probabile che Nintendo continui con loro :sisi:
Non sono informatissimo sulla concorrenza (ma a dire il vero neppure su Nvidia :bua:), più che altro immagino convenga a Nintendo restare con Nvidia per svariati motivi: non buttare il gran lavoro fatto per il primo Switch, avere come alleato commerciale una azienda ai vertici del settore e che volendo può fornirle un'ampia gamma di prodotti (sempre con un occhio ad eventuali modelli da casa che continuo a non escludere affatto), assicurarsi una certa stabilità in termini di fornitore, ecc.
Citazione di: Parsifal il 5 Aprile, 2020, 00:28:48Siccome hai scritto "non solo del mondo PC" , non vedo dove altro il dlss 2.0 di nvidia possa aver la sua efficacia.
Beh, l'ho detto: nel mondo console. :D
Qui nello specifico DLSS è di Nvidia, ma non credo proprio ci siano ostacoli all'implementazione di algoritmi funzionalmente analoghi da parte di altri (AMD in primis chiaramente alla luce dell'attuale posizione di mercato, ma visto che Intel si sta dando da fare chi può escludere che un domani avremo una qualche console con le loro GPU ?)
Mi sa che sono in ignore list :bua:
Lol ma no, sono solo andato direttamente all'ultima pagina. :sweat: :lol:
L'avevo anche detto che non sono informatissimo eh! :D
Citazione di: Turrican3 il 5 Aprile, 2020, 10:47:45
Lol ma no, sono solo andato direttamente all'ultima pagina. :sweat: :lol:
L'avevo anche detto che non sono informatissimo eh! :D
:bua:
Va detto che il DLSS 2.0 pare potente assai, ma dubito che AMD nel frattempo sia rimasta a guardare.
Già l'attuale RIS funziona molto bene ed io lo uso senza problemi sul 1080p. Peraltro AMD a differenza di Nvidia ha reso disponibile la funzionalità su un sacco di GPU anche vecchiotte, ma Nvidia la conosciamo tutti :hihi:
Nvidia è bottega cara e,ammetto di non essere molto informato,sta proseguendo con i chip per mobile come era il tegra di switch?!
Citazione di: onezero il 5 Aprile, 2020, 17:56:00
Nvidia è bottega cara e,ammetto di non essere molto informato,sta proseguendo con i chip per mobile come era il tegra di switch?!
Non mi pare che Nvidia si stia strappando le vesti per produrre nuovi chip Tegra :look:
Nvidia è molto attiva nel settore delle auto a guida autonoma, immagino che i suoi ultimi Tegra finiscano soprattutto lì. L'ultima versione sviluppata dovrebbe raggiungere all'incirca la potenza di una Xbox One liscia, ma non è ancora applicata ad alcun dispositivo a quanto leggo su Wikipedia.
Citazione di: Bluforce il 5 Aprile, 2020, 18:06:06
Non mi pare che Nvidia si stia strappando le vesti per produrre nuovi chip Tegra :look:
Sospetto che ora come ora dipenda perlopiù dalle intenzioni in tal senso di Nintendo, anche se è difficile dedurlo con certezza dalle informazioni fornite ufficialmente da Nvidia (che mette tutto sotto l'ombrello Tegra Processor nei resoconti finanziari).
Aggiungerei al topic in Attesa che riparta la produzione.
Ho aggiunto 100 euro al budget GPU serie 3000 o Iperserie Amd.
Tutte tecniche per allungarmi la vita :look:
A quanto leggo sembra che la situazione in Cina stia da un po' tornando alla "normalità" pre-coronavirus.
Ora come ora mi sa che è altrove che stanno montando i casini. :sweat:
https://www.youtube.com/watch?v=9SBl7t4XyX8
DLSS 2.0 spiegato in italiano per chi non tollera (o non mastica) l'inglese.
Evento Nvidia programmato per il primo settembre. Dovrebbero essere presentate le RTX serie 3000:
https://www.nvidia.com/it-it/geforce/special-event/
Staremo a vedere se faranno tanta paura ad AMD tipo Rattavilla ca rattalora :look:
Prevedo contromossa AMD tipo Cu avi cchiu' codda attacca u poccu :look:
Rotolo, questa come la spieghiamo a chi risiede in Italia? :lol:
Detto che la seconda la capisco ma di nessuna delle due conosco il reale significato.
Si parla anche di una vers. da 20GB di vram per la 3080 ti o 3090.
La versione top di gamma la offrono anche in comodato d'uso :look:
Chissà se incrementeranno ancora i prezzi.
Per me non c'è margine di manovra verso l'alto, anzi dovrebbero abbassarli, però Nvidia conosce bene i propri clienti...
Per me li alzano, come sempre, magari in proporzione meno.
La penso come te :sisi:
Ipotezzo almeno 1500 euro per la 3080 Ti con prezzi iniziali sui 2000.
Dai su che a breve con gli stessi soldi si compra questa Ti Super (https://it.wikipedia.org/wiki/Alfa_Romeo_Giulia_TI_Super).
Ma esistono dati di vendita dell'hardware Nvidia?
Sono curioso.
Dati di vendita storici intendi ?
Qualche informazione sulle GPU Intel previste per il 2021:
https://www.resetera.com/threads/intel-details-xe-gpu-lineup-mid-range-enthusiast-gaming-cards-coming-2021.267450/
Questo è uno di quei casi in cui un "buona fortuna" ci vuole tutto.
Specialmente a leggere qualche commento, come ad esempio quello in cui si dice che Intel (ma vabbè, come ragionamento non mi pare così fuori dal comune) abbia già parlato dell'accetta qualora le cose non vadano come previsto.
Fonte https://tech.everyeye.it/notizie/nvidia-geforce-rtx-3090-costi-aumento-prezzi-stelle-nuovi-rumor-463593.html (https://tech.everyeye.it/notizie/nvidia-geforce-rtx-3090-costi-aumento-prezzi-stelle-nuovi-rumor-463593.html)
I rumor sulla prossima serie di schede NVIDIA GeForce RTX 3000 si susseguono senza sosta. In vista della presentazione del 1° settembre emergono le prime previsione sul costo della nuova ammiraglia GeForce RTX 3090 che supererà abbondantemente i 1.000 dollari.
Le ultimi voci di corridoio sul costo delle nuove schede video NVIDIA equipaggiate con GPU Ampere arrivano dall'utente Wjm47196, attivo sul forum Chiphell e protagonista di previsione poi rivelatesi attendibili. Stando a quanto riferito il modello di punta GeForce RTX 3090 verrà proposto con un costo al lancio pari a 1.399 dollari con l'aggiunta di 100 dollari per la Founders Edition che dovrebbe quindi arrivare a 1.499 dollari.
Per fare un confronto diretto con le schede video della serie Turing, la GeForce RTX 2080 Ti aveva un costo iniziale di 999 dollari che arrivava a circa 1.199 dollari per la variante Founders Edition. La nuova RTX 3090 vedrebbe quindi un aumento del prezzo base di circa il 40% che scende al 25% per il modello Founders Edition. L'incremento generale di prezzo sarebbe poi confermato dal listino del produttore cinese Colorful, emerso sempre grazie a Chiphell, che per le sue versioni custom della GeForce RTX 3090 nelle varienti Vulcan X, Vulcan X-OC e Neptune D prevede un costo rispettivamente di circa 2.000, 2.300 e 1.900 dollari.
Insomma, se i numeri in questione venissero confermati gli utenti dovranno prepararsi a sborsare una grande quantità di denaro. L'aumento generale di prezzo potrebbe derivare dalle specifiche delle nuove RTX 3000, equipaggiate secondo i leak con le nuove memorie GDDR6X fino a 24 GB.
2300 euro come trasposzione mi pare eccessivo anche per il top di gamma, io avevo ipotizzato un prezzo ottimistico di 2000 euro :look:
Su Resetera parlano di 500 dollari come entry level 3060.
Non so come vadano le cose al momento nell'eterna guerra con AMD ma ho l'impressione stiano giocando col fuoco. :look:
Capisco di non essere (mai stato? :hmm:) il tipo di utente a cui puntano, ma 500 bigliettoni per la scheda base, che quasi certamente NON saranno "solo" 500 euro qua... a me sembrano un po' tantini ecco. :sweat: :|
belli i tempi in cui con 500€ compravi la top di gamma :sweat:
Stanno giocando col fuoco, sì.
A quanto ho capito AMD sta messa molto molto male a livello di RTX, quindi se si ambisce a quella funzionalità si è costretti a rivolgersi a Nvidia.
The new NVIDIA GeForce RTX 3090 graphics card, and any other Ampere card using the new 12-pin PCIe adapter, requires an 850W PSU.
Non sarà mica vero !??! :look:
https://www.tweaktown.com/news/74663/nvidias-new-geforce-rtx-3090-will-require-huge-850w-power-supply/index.html (https://www.tweaktown.com/news/74663/nvidias-new-geforce-rtx-3090-will-require-huge-850w-power-supply/index.html)
Ci si aspetta una grande richiesta energetica. Non mi stupirebbe.
EDIT: Specifico meglio. Non mi stupirebbe un alimentatore consigliato di grosso wattaggio, ma non credo sarà davvero necessario.
780Ti: $699 (2013)
980Ti: $649 (2015)
1080Ti: $699 (2017)
2080Ti: $1,199 (2018)
3090Ti: $1,399 (2020) - prezzo rumor
Giusto per ricordare che nel giro di tre anni il prezzo è raddoppiato.
Fin quando purtroppo ci saranno i "cazzoni" che come per i cell si continuano a comprare il top del top a prezzo pieno perchè "è il meglio!!111" ( tradotto: ce l'ho più lungo), i produttori giustamente che devono fare? Vedono utili maggiori, è normale alzare l'asticella, mica sono fessi (loro, non i consumatori che pagano 1300 euro una scheda o un cell) :'(
Ottimo, sempre minore pressione psicologica per l'eventuale aggiornamento del PC. :asd:
(beninteso, mai stato interessato alla fascia alta... ma è chiaro che è un effetto domino, anche le GPU cui potrei voler ambire costeranno MOLTO più della mia attuale fidatissima 1060 :|)
Non escludo, visto l'uso e l'abuso di emulatori "pesanti" che ne ho fatto in tempi relativamente recenti, possa essere più probabile per me un mero cambio di CPU, magari di seconda mano così neppure cambio scheda madre. Ma comunque più avanti, semmai.
Pero' forse la 3090 Ti rientra nel cappotto termico con il contributo statale del 110 % :hmm:
Io devo dire che non mi pento di avere preso la 1080 Ti a prezzo affare, ancora oggi sono competitivo.
Non è tanto il modello di punta che fa la differenza ma capire cosa possa fare una 3070 o 3080 rispetto alla 2080 Ti.
Citazione di: SilentBobZ il 26 Agosto, 2020, 10:10:07Pero' forse la 3090 Ti rientra nel cappotto termico con il contributo statale del 110 % :hmm:
:lol:
Ne dubito, semmai quel bestione che immagino scalderà come una stufetta rischia di farmelo
perdere, il superbonus / ecobonus o quel che è. :asd:
Un video ufficiale da otto minuti in cui ci si sofferma anche sul sistema di raffreddamento. Confermato l'attacco singolo a 12 pin.
https://www.youtube.com/watch?v=ZEzI02SKALY
Parlando di prezzi le aspettative sono queste :
RTX 3090/RTX 3080 Ti: $1399
RTX 3080: $799
RTX 3070: $599
RTX 3060: $399
Ora lasciando perdere la 3090 se è vero che una 3070 dovrebbe andare quanto una 2080 Ti e se costasse 600 euro ci sarebbe un bel salto generazionale prezzo/prestazioni, cosa che non è avvenuta tra la serie 1000 e 2000.
Manca poco comunque e speriamo escano fuori anche i prezzi ufficiali.
I prezzi mi paiono verosimili, purtroppo con il budget che mi sono imposto temo sia un pelo fuori pure la RTX 3060 :bua:
Se non ricordo male la 2060 partiva da 349 dollari, che in Italia divennero 375 euro per la (limitatissima) Founders Edition, mentre le custom, inizialmente, sforavano i 420-430.
Ed infatti qua il rischio è avere la base a più di 500 Euro.
Boh, non mi pare una buona idea avere prezzi così alti in concomitanza con l'uscita delle nuove console :hmm:
Qualche rumor in attesa della presentazione di martedì.
RTX 3090 con 24 GB di memoria
RTX 3080 con 10 GB di memoria, versione da 20 GB prevista ma ancora senza finestra di lancio
RTX 3070 con 8 GB di memoria
https://videocardz.com/newz/nvidia-geforce-rtx-3090-and-geforce-rtx-3080-specifications-leaked
RTX 3090 e 3080 dovrebbero supportare lo standard PCIe 4.0, HDMI 2.1 e DisplayPort 1.4a.
Entrambe, in versione custom, dovrebbero richiedere 8+8 pin.
3090 dovrebbe inoltre sfiorare il TB/s di banda passante.
Secondo gli ultimi rumor, la nuova 3080 avrebbe un TGP (Total Graphics Power, da non confondere col TDP: Thermal Design Power) di 320 Watt.
Per capire, la 2080 aveva un TGP di 220 Watt.
Si tratterebbe dunque di un aumento di 100 Watt (matematica di alto livello).
Qua aumenta tutto!!!!!!!!!!!
Citazione di: Bluforce il 28 Agosto, 2020, 18:22:08
Qua aumenta tutto!!!!!!!!!!!
Tranne gli stimoli all'acquisto. :asd:
(ok ok la smetto)
Citazione di: Turrican3 il 28 Agosto, 2020, 20:29:04
Tranne gli stimoli all'acquisto. :asd:
(ok ok la smetto)
Puoi anche continuare, io condivido quel che dici :bua:
Riflettevo sul fatto che un PC di fascia alta oggi costa davvero un sacco di soldi rispetto a pochi anni fa.
Già le sole GPU costosissime e gli altrettanto costosi SSD, è un disastro.
Ci mancano solo le memorie DDR5 a breve termine...
No seriamente, a me un po' dispiace l'andazzo (e non solo per il portafogli)
In buona sostanza principalmente perché 1. ormai ho accumulato un discreto arretrato 2. rimango tendenzialmente scettico sulla possibilità che le console possano virare decisamente verso i 60fps (fu tra i primi motivi di acquisto) anche se forse qualcosina si muove e 3. la flessibilità di uso rimane comunque elevata ma soprattutto a me affine (vedi retrogaming/emulazione)
Tuttavia la mia fortuna (?) è che ho ritmi di gioco piuttosto lenti e soprattutto il PC ancora oggi è per me una piattaforma di affiancamento a quella principale, che rimane Switch e con il quale forma un'accoppiata eccellente per le mie esigenze.
Sintesi del tutto: non ho fretta di aggiornare (non possiedo ancora uno che sia un gioco che fatica a girare) e questi prezzi non me la fanno salire. :D
Se la 3070 andasse quanto una 2080 Ti
Se costasse entro i 600 euro
Se vendessi la mia ruggente 1080 Ti
Troppi se, ma se tutti i se sono allineati potrei prenderla, in cuor mio non credo che i tre presupposti possano concretizzarsi.
3080
https://cdn.discordapp.com/attachments/590423155365904385/749825025128792066/unknown.png
3090
https://i.imgur.com/gocl9Kx.png
:sweat:
Citazione di: Bluforce il 31 Agosto, 2020, 10:08:44
3080
https://cdn.discordapp.com/attachments/590423155365904385/749825025128792066/unknown.png
3090
https://i.imgur.com/gocl9Kx.png
:sweat:
Piccoline :bua:
Io ho questo per il Pc Sagrada Família, potrebbe farcela :sweat: x 53
https://www.gigabyte.com/it/Power-Supply/G750H#kf (https://www.gigabyte.com/it/Power-Supply/G750H#kf)
Sta girando questa immagine su Twitter, che indica prestazioni raddoppiate su tre giochi in modalità RTX a risoluzione 4K rispetto alla 2080 Ti.
Il grafico dice anche "DLSS Enabled", quindi non si conoscono le reali condizioni del confronto.
https://pbs.twimg.com/media/Egvax0HXYAAXGBH?format=jpg&name=large
Comunque dai, detto fra noi, io più guardo la 3090 e più penso che sia una gpu messa lì a fare scena.
La differenza in RAM rispetto alla 3080 è ridicolmente alta.
Se è vero quanto si dice, con AMD pronta ad una 5700XT moltiplicata 2, con 16GB di RAM per ottobre/novembre... insomma, non vorrei assistere nuovamente alla riproposizione delle SUPER Nvidia nel giro di sei mesi (primavera/estate).
Magari insieme all'arrivo sul mercato della 3080 Ti, che andrebbe ad occupare la sterminata prateria che c'è fra 3080 e 3090.
Come dice il vecchio smilzo del forum queste sono le specifiche scappate alla Gainward
(https://i.postimg.cc/4yJxVLHg/gainward-spec.png)
Utilizzeranno un doppio connettore a 8 Pin
Secondo me si piangerà con le 3070 di cui non si sa nulla al momento, prevedo allineamento alla 2080 liscia non Ti , dovrebbe consumare 220W contro i 320W della 3080 e 350W della 3090.
Queste sono le specifiche della Gainward GeForce RTX™ 2080 Ti Phoenix "GS"
(https://i.postimg.cc/bN9Fm6G5/2080Ti.png)
Mi pare anche strano dovendo puntare al 4K che le 3080 abbiano solo 10 Giga di ram a bordo, per intenderci la mia 1080 Ti ne ha 11 :look:
Lo smilzo palesa un futuro prossimo in cui Amd si possa inserire dalle parti della 3080 con piu' ram, mi sembra molto lucida come previsione.
Mancherebbe il DLLS ma io mi chiedo per chi gioca a 1080P ha senso il DLSS ?
Citazione di: SilentBobZ il 1 Settembre, 2020, 07:13:34
Mancherebbe il DLLS ma io mi chiedo per chi gioca a 1080P ha senso il DLSS ?
A quel che ho visto e capito (quindi poco) la risposta è decisamente affermativa! :sisi:
Da amico ultra trentennale non dovevi darmi quella risposta, mi costerà tanto cara :'( x 53
Citazione di: SilentBobZ il 1 Settembre, 2020, 10:14:21
Da amico ultra trentennale non dovevi darmi quella risposta, mi costerà tanto cara :'( x 53
Non potevo esimermi dal dire come (credo) stanno le cose. :sisi:
Va detto che DLSS 2.0 è una tecnologia tanto sorprendente quanto al momento limitata.
Sono pochissimi i giochi che lo supportano.
Nvidia dovrebbe trovare un modo per potere attivare la funzionalità indipendentemente dal supporto specifico del singolo gioco. Cosa che al momento non pare fattibile. Vedremo pomeriggio cosa dicono :hmm:
Fra meno di un quarto d'ora inizierà l'evento Nvidia. Qui mirror YouTube IGN:
https://www.youtube.com/watch?v=ALEXVtnNEwA
Citazione di: SilentBobZ il 31 Agosto, 2020, 07:12:47
Se la 3070 andasse quanto una 2080 Ti
Se costasse entro i 600 euro
Se vendessi la mia ruggente 1080 Ti
Troppi se, ma se tutti i se sono allineati potrei prenderla, in cuor mio non credo che i tre presupposti possano concretizzarsi.
Oracolo
Appena finito. 3070 e 3080 stesso prezzo della precedente generazione. Disponibilità da ottobre e 7 settembre, rispettivamente, nessuna informazione sulla 3090, che pare una scheda enorme. Nuovo sistema di raffreddamento solo su 3080 e 3090. Sembrano davvero delle belle schede.
Citazione di: Buds95 il 1 Settembre, 2020, 18:41:26
Appena finito. 3070 e 3080 stesso prezzo della precedente generazione. Disponibilità da ottobre e 7 settembre, rispettivamente, nessuna informazione sulla 3090, che pare una scheda enorme. Nuovo sistema di raffreddamento solo su 3080 e 3090. Sembrano davvero delle belle schede.
Anche la memoria G6X mi sà che esclusiva della 80 e della 90, la 70 dovrebbe andare con la sola G6
Citazione di: Bombainnescata il 1 Settembre, 2020, 18:44:08
Anche la memoria G6X mi sà che esclusiva della 80 e della 90, la 70 dovrebbe andare con la sola G6
Non ci ho fatto caso ma è probabile sia come dici. Anch'essa è una scheda maledettamente interessante però. Ora sono un po' più fiducioso sulla 3060, che a questo punto arriverà a inizio 2021 credo.
499 Dollari la 3070 (https://www.nvidia.com/en-us/geforce/graphics-cards/30-series/rtx-3070/)
699 Dollari la 3080 (https://www.nvidia.com/en-us/geforce/graphics-cards/30-series/rtx-3080/)
1499 Dollari la 3090 (https://www.nvidia.com/en-us/geforce/graphics-cards/30-series/rtx-3090/)
Processo produttivo 8nm Samsung.
Promesse prestazioni doppie rispetto alla generazione precedente.
Come già detto sopra, la 3070 dovrebbe andare più o meno come una 2080 Ti. E la 3080 raddoppiare prestazionalmente la 2080.
La 3090 pare una GPU "noi possiamo e la facciamo". Però scusatemi ma spendere il doppio per un +20% prestazionale... complimenti a chi può permetterselo. Mi pare una scheda "io posso e me la compro" :bua:
EDIT:
Inseriti i link.
EDIT 2:
Prezzi europei (italiani nello specifico).
3070: 519,00 € (https://www.nvidia.com/it-it/geforce/graphics-cards/30-series/rtx-3070/)
3080: 719,00 € (https://www.nvidia.com/it-it/geforce/graphics-cards/30-series/rtx-3080/)
3090: 1.549,00 € (https://www.nvidia.com/it-it/geforce/graphics-cards/30-series/rtx-3090/)
Tanta roba anche la decompressione lossless in gpu
RTX IO in collaborazione con Microsoft DirectStorage:
https://www.nvidia.com/en-gb/geforce/news/rtx-io-gpu-accelerated-storage-technology/
Aspettiamo la risposta di AMD, la RTX 3070 a 50 euro meno potrebbe spingermi a sforare il budget stanziato :bua:
Da attuale felice possessore di GPU AMD, dico che Lisa Su deve davvero spremere gli ingegneri.
Nvidia non sta dominando soltanto sotto il profilo prestazionale puro, ma sta letteralmente dettando le regole del gioco.
Lasciando perdere la 3090 che sembra una roba fuori categoria, mi pare che per le altre due hanno un bel boost tutto sommato, e anche i prezzi ci aspettavamo peggio.
Ora attendo di vedere alcuni slide e grafici comparativi oltre a quelli del sito nvidia.
Diciamo che una volta la vers. "Ti" aveva un altro spessore in quanto usciva diversi mesi dopo.
Attenzione in ogni caso anche alle possibili vers. Super tra alcuni mesi :asd:
https://youtu.be/cWD01yUQdVA
Cmq oh ragionando ancora sui prezzi mi sembrano davvero ottimi (in rapporto alle prestazioni)...cioè la 3070 quanto una 2080 Ti e guardate quanto costava questa fino a ieri. Guardate il video e vedete l'incremento 2080 -> 3080 (min. 6:20), e andando a logica quest'ultima potrebbe stare un 60% sopra una 2080 Ti.
Chi vuole scendere di più si può ipotizzare prossimamente una 3060 che magari potrebbe accostarsi alle console di prossima uscita.
Mi sembrano delle discrete bombe tutte, con dei prezzi "bassi" rispetto a quanto ci si aspettava. Quasi come se fossero una mossa anti console :look:
Citazione di: Parsifal il 1 Settembre, 2020, 20:54:12
Lasciando perdere la 3090 che sembra una roba fuori categoria, mi pare che per le altre due hanno un bel boost tutto sommato, e anche i prezzi ci aspettavamo peggio.
Ora attendo di vedere alcuni slide e grafici comparativi oltre a quelli del sito nvidia.
Diciamo che una volta la vers. "Ti" aveva un altro spessore in quanto usciva diversi mesi dopo.
Attenzione in ogni caso anche alle possibili vers. Super tra alcuni mesi :asd:
Le per me non le ripeteranno, erano un modo per prolungare la vita della generazione precedente rendendone più umani i prezzi, che rendevano preferibile la concorrenza :sisi:
Beh, oddio, c'è da pensare che i rumor sui prezzi esageratamente alti fossero creati ad hoc per poi farci dire "embhé, 500 Euri, è così economica che quasi ne compro due".
Sulla mossa "anti console" non saprei. GPU del genere richiedono componentistica all'altezza. Piuttosto facile sforare i 1500 Euro.
Se questa serie 3000 resterà sul mercato due anni come la precedente, io le Super le vedo :sisi:
Citazione di: stobbArt il 1 Settembre, 2020, 21:53:02
Mi sembrano delle discrete bombe tutte, con dei prezzi "bassi" rispetto a quanto ci si aspettava. Quasi come se fossero una mossa anti console :look:
Le per me non le ripeteranno, erano un modo per prolungare la vita della generazione precedente rendendone più umani i prezzi, che rendevano preferibile la concorrenza :sisi:
E non lo so dipende come risponde amd e se poi penseranno di controbattere..
E a livello di consumi come stanno? :look:
Citazione di: Joe il 1 Settembre, 2020, 22:20:33
E a livello di consumi come stanno? :look:
220w la 3070. 320 e 350 le altre due.
Aspettiamo le recensioni per vedere l'effettivo consumo.
Non mi aspettavo questi buoni prezzi, ottimo, che la mia 1060 6 gb è ancora ottima per il fullHd ma inevitabilmente alla next gen si dovrà pensare ad altro.
NVIDIA RTX IO: GPU-Accelerated Storage Technology For The Next Generation of Games
https://www.nvidia.com/en-us/geforce/news/rtx-io-gpu-accelerated-storage-technology/ (https://www.nvidia.com/en-us/geforce/news/rtx-io-gpu-accelerated-storage-technology/)
https://news.developer.nvidia.com/new-features-to-dlss-coming-to-nvidia-rtx-unreal-engine-4-branch/
Ripensando ai rumor in merito ai prezzi e le specifiche delle nuove AMD RDNA 2, se la memoria non mi inganna, a questo punto sulla carta rischia di prendere una bella batosta la casa rossa :look:
Pongo la mia fiducia nello spionaggio industriale, magari nVidia sa che AMD ha tra le mani qualcosa di veramente interessante e hanno deciso di mantenere invariati i prezzi di xx70 e xx80.
Allo stato attuale i rumor parlano di una GPU AMD in grado di rivaleggiare con le nuove Ampere (non con la 3090).
Il problema di AMD non è più nella potenza, quanto nel contorno.
https://videocardz.com/newz/nvidia-geforce-rtx-3070-ti-spotted-with-16gb-gddr6-memory
Gliene avrei dati al massimo 12. Con 16 per la 3080 Ti.
Fosse vero il rumor, il doppio della RAM rende inutile la 3070.
Nvidia è odiosa con queste cose :hihi:
Citazione di: Bluforce il 2 Settembre, 2020, 11:42:36
Allo stato attuale i rumor parlano di una GPU AMD in grado di rivaleggiare con le nuove Ampere (non con la 3090).
Il problema di AMD non è più nella potenza, quanto nel contorno.
Sì, però gli stessi o altri riportavano anche alcuni dati tecnici riguardo Big Navi (ricordo uno su tutti gli stream processor), che si suppone sia il chip completo di RDNA 2, che alla luce della presentazione di ieri sembrano rivaleggiare unicamente con la RTX 3070 :look: speriamo bene comunque :sweat:
Le terze parti
https://www.evga.com/articles/01434/evga-geforce-rtx-30-series/ (https://www.evga.com/articles/01434/evga-geforce-rtx-30-series/)
https://youtu.be/JdfURQt8E7o
3080 prezzo slurp :look:
In questo articolo tutte insieme appassionatamente
https://www.hwupgrade.it/news/skvideo/geforce-rtx-3000-i-partner-di-nvidia-mostrano-i-progetti-custom_91721.html (https://www.hwupgrade.it/news/skvideo/geforce-rtx-3000-i-partner-di-nvidia-mostrano-i-progetti-custom_91721.html)
Dai Bob che a breve tocca a te :asd:
Citazione di: Bluforce il 1 Settembre, 2020, 22:56:24
220w la 3070. 320 e 350 le altre due.
Accipicchia le altre due. :bua: