Quantcast
Channel: Tarjetas Gráficas – HardZone
Viewing all 1962 articles
Browse latest View live

AMD no recibirá ni el 50% de la producción en 7 nm por parte de GlobalFoundries

$
0
0

Muchos ya sabréis la situación en la que se encuentra actualmente GlobalFoundries (GF) ya que os hemos ido detallando paso por paso los problemas en el pasado. Lo que hoy sorprende son unas declaraciones de su director ejecutivo en referente a la demanda de chips con AMD, donde evidencian un retraso que puede pasarles factura con los 7 nm.

GF está retirándose del proceso de fabricación de 7 nm

TSMC 7nm

Cuando no eres un gigante como Intel o Samsung una mala decisión, un mal movimiento de mercado o una mala planificación pueden llevar al traste literalmente años de trabajo y condicionar el avance hacia el futuro.

Esto es precisamente lo que le ha ocurrido a GlobalFoundries, ya que su litografía de 7 nm no solo no ha estado lista para los pedidos de AMD sino que para más desgracia anuncian que poco a poco van a ir reduciendo su cuota de chips en dicho proceso litográfico.

El problema y sus retrasos es tal que han deslizado que de momento ni se plantean un proceso litográfico de menor tamaño. La decisión de dejar el proceso de 7 nm fue difícil para la compañía pero afirman que fue lo correcto para ellos.

roadmap zen

El CEO de GF mencionó que AMD, a través de Lisa Su, les pidió seguir fabricando para ellos el nodo de 14 nm y quiso saber la tasa de rendimiento que podrían ofrecerles en un proceso de 7 nm aunque tuviese una tasa de errores tan alta como la que ofrecían.

Los datos fueron demoledores, no podrían abastecer ni el 50% de la producción que requería AMD ya que no disponían de fondos para construir más plantas de 7 nm. Esto hizo que AMD tuviese que mover ficha y acudir, como ya sabemos, a TSMC en un movimiento algo arriesgado ya que tenían muy avanzado tanto Navi como Polaris 30 y Zen 2.

GF 7nm

La producción depende en casi toda su medida de TSMC

Se rumorea que AMD debido a esto y al golpe que asestó NVIDIA con sus RT Cores para Ray Tracing (no creían en las ALUs exclusivas para RT debido a Microsoft y su DXR, de ahí que naciera Radeon-Rays como API basada en OpenCL), decidió cancelar lo que internamente era Navi y mover su producción de Polaris 30 a TSMC con la mayor brevedad posible.

De esta manera podrían presentar una serie de chip para hacer frente a la gama media mientras que su gama alta se reestructuraría en nuevas unidades para una mejora de la arquitectura, que evidentemente se llamará Navi (el roadmap tienen que cumplirlo para no perder credibilidad y caer en bolsa) pero que no tendrá demasiado que ver con el concepto inicial.

AMD 7 nm

Así, GF seguirá proveyendo a AMD en 14 nm tanto para CPUs como para GPUs, mientras que AMD emprende una nueva hoja de ruta con TSMC en 7 nm al mismo tiempo que se apoya en GF para diversificar su estrategia.

De hecho, GF tiene que basar su negocio en el proceso de 14 nm pero sobre todo en el de 12 nm, ya que este es el que está realmente dando frutos a la compañía en estos momentos.

Tom Caulfield afirmó que es necesario que su compañía siga apoyando a AMD ya que sin ellos no estarían donde están en estos momentos. La realidad es que si finalmente GF no consigue una salida para una litografía de menor tamaño va a terminar perdiendo a AMD por completo y por supuesto perdiendo el carro del avance.

Dato que cuesta muy caro en la industria de los semiconductores, donde las empresas siempre demandan menores tamaños, mayores rendimientos, menores consumos y a ser posible mayor rentabilidad por oblea.

The post AMD no recibirá ni el 50% de la producción en 7 nm por parte de GlobalFoundries appeared first on HardZone.


Cómo comprobar si tu tarjeta gráfica es falsa con el nuevo GPU-Z

$
0
0

Durante la época álgida de la minería de criptomonedas, cuando los precios de las tarjetas gráficas eran muy elevados y era muy complicado poder comprar nuevos modelos en las tiendas, hubo usuarios que se dedicaron a estafar al resto vendiendo una tarjeta gráfica falsa a través de eBay y plataformas similares. Ahora, la última actualización del programa GPU-Z, la versión 2.12.0, permite detectar estas tarjetas gráficas.

La época álgida de la minería profesional de criptomonedas fue un tiempo bastante oscuro para los usuarios que lo único que querían hacer con sus tarjetas gráficas, era jugar. Sí, es cierto que tanto NVIDIA como AMD como los diferentes ensambladores de tarjetas gráficas consiguieron importantes incrementos en sus cuentas de beneficios, pero los usuarios quedamos desamparados por completo, a expensas de un mercado con unos precios que hacían prohibitivo el poder comprarse una nueva tarjeta gráfica.

Esto propició la aparición de vendedores en plataformas como eBay o como AliExpress que se dedicaban a vender tarjetas gráficas falsas. Este tipo de gráficas solían ser modelos muy antiguos de NVIDIA o de AMD, a los que la BIOS se les había flasheado, de tal manera que la información que mostrara correspondiera a una tarjeta gráfica más moderna. Sí, es cierto que estas gráficas se vendían a un precio muy similar al que podrían tener esos modelos tan antiguos, pero no dejaban de ser una estafa.

La nueva versión de GPU-Z ahora detecta e informa que la tarjeta gráfica es falsa

Con la nueva versión del popular programa GPU-Z, el desarrollador ha incorporado, entre sus mejoras, la capacidad de identificar si la tarjeta gráfica falsa o real, a pesar de lo que diga la BIOS que le hayan instalado. Si detecta que la BIOS se ha modificado, identificará la gráfica como [FAKE]. De hecho, el programa es capaz de detectar tarjetas gráficas falsas que emplean núcleos gráficos antiguos como los NVIDIA:

  • G84: GeForce 8600 GS, GT y GTS.
  • G86: GeForce 8400 GS
  • G92: GeForce 8800 GS, GT y GTS
  • G94: GeForce GT 130, 140
  • G96: GeForce GT 130
  • GT215: GeForce GT 320
  • GT216: GeForce GT 315
  • GT218: GeForce GT 310
  • GF108: GeForce GT 430, 440
  • GF106: GeForce GT 440, GTS 450
  • GF114: GeForce GTX 460
  • GF116: GeForce GT 545
  • GF119: GeForce GT 610, 620
  • GK106: GeForce GTX 645

Armados con esta nueva versión del GPU-Z, los estafadores tendrán bastante más complicado el intentar engañar a sus potenciales clientes, vendiendo una tarjeta gráfica falsa, la cual no era correctamente detectada por los programas habituales. El problema estribaba en que el usuario no podía nunca reclamar al vendedor para que le devolviera su dinero, porque no podía demostrar que había sido víctima de un engaño por su parte.

The post Cómo comprobar si tu tarjeta gráfica es falsa con el nuevo GPU-Z appeared first on HardZone.

Primera review de la MSI RTX 2070 Gaming Z: por encima de la GTX 1080

$
0
0

Gracias a no firmar un NDA con NVIDIA, los chicos de HardOCP han lanzado en exclusiva la que es de hecho la primera review de una RTX 2070 en todo el mundo, para ser concretos de la MSI RTX 2070 Gaming Z. Esto ha sido posible gracias a que la muestra que ellos han obtenido ha sido facilitada por un minorista y no por un ensamblador por lo que se han adelantado a la fecha de inicio para las publicaciones.

La RTX 2070 estará un paso por encima de la GTX 1080

Si bien mañana martes expira dicho NDA, de mano de Kyle Bennett tenemos los primeros resultados oficiales de una de las GPUs más esperada del momento, la RTX 2070.

La muestra es en concreto una MSI GeForce RTX 2070 Gaming Z, lo que significa que es una de las mejores versiones de RTX 2070, ya que no solo cuenta con PCB y disipador custom, sino que su overclock es muy alto, concretamente y dentro de la gama de MSI, nos encontramos con la versión más rápida de dicho chip (1830 MHz).

MSI RTX 2070 Gaming Z

Hemos analizado dicha review y hay datos muy interesantes, sobre todo con algunos títulos nuevos y otros no tan nuevos. Por ello vamos a mostrar algunos resultados que nos han parecido llamativos y así podremos comentarlos. Esta RTX 2070 ha sido comparada contra una MSI GTX 1080 Gaming X y una Asus ROG Strix RX Vega 64 OC, de manera que tenemos el campo de batalla perfecto para el usuario que esté pensando en comprar una de estas tarjetas ya que están próximas en precio.

Vamos a elegir la resolución 2K o 2560x1440p por ser la más representativa a la hora de adquirir una tarjeta como esta.

Shadow of the Tomb Raider

La configuración de este juego pasa por DX11 y pantalla exclusiva, además han habilitado SMMA T2X para una exigencia alta para todas las tarjetas:

Como podemos ver, el Framerate es superior a 60 FPS en todas las GPUs, pero encontramos datos curiosos, aunque la RTX 2070 es un 16% más rápida que la GTX 1080 Ti es menos constante en cuanto a framerate se refiere.

Far Cry 5

MSI RTX 2070 FC5

En Far Cry 5 los resultados son tremendamente parejos pero en contraposición con SOTTR el Framerate parece más estable en la RTX 2070.

Kingdom Come: Deliverance

RTX 2070 KCD

Aquí parece que la RTX 2070 vuelve por sus fueros, donde a la RX Vega 64 le cuesta competir incluso contra la GTX 1080, la GPU Turing ofrece una tasa de FPS algo mayor pero a costa de una mayor varianza de FPS y algunas caídas pronunciadas que se deberían estudiar a fondo.

Mass Effect: Andromeda

RTX 2070 MEA

En Mass Effect: Andrómeda las caídas son todavía más acuciadas que en sus dos competidoras. Si bien posiblemente la RX Vega 64 sea la más constante, la RTX 2070 sufre caídas abultadas que habría que mirar con mayor detenimiento.

Battelfield 1

RTX 2070 BF1

Otro título a destacar es Battelfield 1, donde no tenemos Framerate sino simplemente la media de FPS. La diferencia entre las tres tarjetas no es muy grande, sobre todo si tenemos en cuenta que el juego ha sido ejecutado en DX11.

Conclusiones

La RTX 2070 debe ser la tarjeta más vendida de NVIDIA dentro de la gama media, aunque el precio se haya disparado incluso. No en vano su predecesora así lo hizo y se espera que con el aumento de rendimiento de Turing las ventas confirmen la tendencia.

Hay que tener en cuenta que en esta comparativa tanto la RTX 2070 como la GTX 1080 tenían unos clocks casi clavados, por lo que los datos son si cabe más fidedignos en cuanto a comparar arquitecturas o mejoras.

Las diferencias han sido notables, siendo: +16% en SOTTR, +13% en KCE, +17% en Wolfenstein II, +18% en GW4, +19% en DEMD y en los demás las diferencias son más reducidas, como BF1 o MEA o FC5.

La media general apenas supera el 13% de rendimiento frente a una GPU que está en el mercado y con descuentos suculentos como la GTX 1080, con mismo bus y misma capacidad de VRAM.

La RTX 2070 es la clara ganadora, pero también a un mayor precio, entorno a los 130 euros por encima, entonces ¿merece la pena la RTX 2070? Según HardOCP solo si vas a actualizar desde tarjetas de gama inferiores, a lo que queremos añadir que siempre que la diferencia de precio sea mínima.

The post Primera review de la MSI RTX 2070 Gaming Z: por encima de la GTX 1080 appeared first on HardZone.

AMD Radeon RX 580 2048SP y RX 590: la compañía prepara al menos 2 nuevas tarjetas

$
0
0

AMD ha comenzado a vender, en el mercado chino, sus tarjetas gráficas AMD Radeon RX 570 como el modelo AMD Radeon RX 580 2048SP. Este movimiento de la compañía, cuanto menos curioso, coincide con la reciente aparición del primer benchmark de una nueva tarjeta gráfica con su firma, que suponemos que se trata de la próxima AMD Radeon RX 590.

La cuestión es que, la nueva tarjeta gráfica AMD Radeon RX 580 2048SP en realidad, internamente, no deja de ser una AMD Radeon RX 570. Todas las especificaciones internas de este nuevo modelo son idénticas a las que posee la actual RX 570 del mercado occidental. Salvo que, su frecuencia boost, es ligeramente superior a la del modelo de referencia de AMD Radeon (40 MHz, para ser exactos). De todos modos, ya por todos es conocido que las tarjetas gráficas RX 570 se fabrican a partir de núcleos defectuosos de las RX 580, los cuales se binan antes de ser procesados y vendidos a los ensambladores de tarjetas gráficas.

Desde luego, el nombre “AMD Radeon RX 580” es mucho más atractivo, a los ojos de los clientes, que el de RX 570 a la hora de vender las tarjetas  gráficas. Pero es que, entonces, AMD Radeon debería de renombrar todo su catálogo, eliminando cualquier referencia a la RX 570, si se siguiera la lógica a la hora de nombrar estos nuevos modelos.

¿Es esta tarjeta gráfica la nueva AMD Radeon RX 590?

A la vez que hemos conocido la anterior noticia, se han filtrado los primeros resultados de un benchmark que podría tratarse de una de las nuevas tarjetas gráficas AMD Radeon RX 590. Estas nuevas tarjetas gráficas estarían fabricadas en el nodo de 12 nm (las actuales Radeon RX 500 están todas fabricadas en el nodo de 14 nm). Lo cual, seguramente, les va a proporcionar algo más de espacio para que suban las frecuencias del núcleo. De hecho, la frecuencia para su GPU que se muestran en el benchmark que se ha filtrado, es de 1.545 MHz, que es superior a los 1.340 MHz que emplea el modelo de referencia de AMD de las RX 580.

Aun así, el hecho de que el usuario que ha filtrado la captura sea TUM_APISAK, la dota de bastante credibilidad. Por tanto, esto vendría a confirmar que AMD ya tiene preparadas las nuevas tarjetas gráficas Radeon RX 500 (o RX 600) para renovar sus actuales gráficas de la gama media, las cuales llevan casi dos años en el mercado sin tocarse. Parece ser que, hasta que AMD Navi no llegue al mercado, estas gráficas serán las encargadas de defender el pabellón de la marca frente a la próximas NVIDIA GeForce GTX 2060, que formarán la gama de media de entrada del fabricante verde.

The post AMD Radeon RX 580 2048SP y RX 590: la compañía prepara al menos 2 nuevas tarjetas appeared first on HardZone.

NVIDIA habilita Ray Tracing en las GTX 1080 y 1080 Ti: así rinden frente a las RTX 2080 y 2080 Ti

$
0
0

Las NVIDIA RTX van a completar un mes desde su presentación y lo cierto es que pocos datos se pueden extraer de su rendimiento bajo Ray Tracing. No hablemos de comparar con otras arquitecturas y muchísimo menos de hacer una comparación con alguna tarjeta gráfica AMD, hasta hoy. En el día de hoy por fin se puede contabilizar la diferencia real de las unidades de computo de NVIDIA frente a las arquitecturas anteriores bajo Ray Tracing.

Un nuevo driver no publicado habilita Ray Tracing en las GTX

Todo apunta hacia un driver no publicado por parte de NVIDIA que permite a la API DXR de Microsoft cálculos de trazado de rayos sin la aceleración por hardware que tiene Turing y que los chicos de Hardwareluxx han podido cazarlo.

Como bien es sabido, Pascal (y las arquitecturas anteriores a ella) no dispone de unidades de trazado de rayos exclusivas (RT Cores) como si tiene Turing y por lo tanto el cálculo de trazado de rayos tienen que hacerlo “a fuerza bruta”.

Esto significa que tienen que usar sus shaders para dichos cálculos al mismo tiempo que renderizan, con la consecuente pérdida de rendimiento frente a los RT Cores de Turing.

A esto se le suma el dato de que tampoco disponen de unidades de IA (Tensor Cores) que son utilizados en Turing para el nuevo DLSS.

Entonces ¿que rendimiento puede tener una arquitectura tan potente como Pascal sin esas dos unidades de procesamiento frente a Turing?

Los datos que vamos a mostrar tienen como base una API imparcial como DXR que se ejecuta en Windows 10 a través de Direct Compute, y la unidad de medida usada son frames por segundo.

El software elegido para la comparación ha sido el ya famoso render de Star Wars bajo Unreal Engine 4 que permite RT y DLSS.

La diferencia de rendimiento es muy abultada

En esta ocasión ha sido escogida una resolución intermedia como es 2K, a la que se ha sumado Ray Tracing y DLSS, dejando en evidencia que Pascal no puede renderizar la escena ni a 10 FPS, mientras que las dos RTX son capaces de moverla más o menos bien, dando unos resultados de 43,6 FPS y 55,4 FPS respectivamente.

Si subimos la resolución y dejamos solo Ray Tracing los datos lógicamente empeoran pero las diferencias porcentuales se mantienen. La RTX 2080 Ti consigue 34,6 FPS mientras que la RTX 2080 logra 28,4 FPS. En contra, las tarjetas Pascal apenas superan los 5 FPS, en el caso de la GTX 1080 Ti apenas 5,5 FPS.

Esto significa que Turing con sus RT cores y Tensor cores es casi 7 veces más rápida que Pascal bajo Ray Tracing y DLSS (GTX 1080 Ti vs RTX 2080 Ti), dato que se mantiene si solo dejamos habilitado el Ray Tracing. Si comparamos tarjetas con un rendimiento muy similar como son la GTX 1080 Ti y la RTX 2080 la diferencia es algo más de 5 veces superior, lo cual no está nada mal.

Justo en medio queda la Titan V, que es una tarjeta que solo posee Tensor Cores pero no RT Cores, aunque es mucho más potente que las GPU Pascal. Esto solo evidencia una cosa, se necesitan unidades de procesamiento exclusivas para el trazado de rayos en “tiempo real”.

La API de Microsoft logra hacer un buen trabajo ya que las diferencias así lo estipulan, pero no sabemos (de momento) que desempeño pueden tener las tarjetas aquí mostradas bajo la API de NVIDIA. En cualquier caso NVIDIA ha acertado de pleno con la arquitectura Pascal en cuanto a RT se refiere.

The post NVIDIA habilita Ray Tracing en las GTX 1080 y 1080 Ti: así rinden frente a las RTX 2080 y 2080 Ti appeared first on HardZone.

NVIDIA estaría preparando una GeForce RTX 2070 Ti

$
0
0

NVIDIA podría estar preparando un nuevo modelo de tarjeta gráfica, que llene el hueco que hay, en rendimiento, entre la actual GeForce RTX 2070 y la GeForce RTX 2080. Esta tarjeta gráfica GeForce RTX 2070 Ti, también añadiría un escalón de precio entre estas dos tarjetas gráficas, dado que entre ellas la diferencia de precio es bastante abultada.

Ayer ya pudimos ver los primeros benchmarks realizados por otras páginas web, de las nuevas tarjetas gráficas NVIDIA GeForce RTX 2070, donde se podía comprobar que las nuevas gráficas eran superiores en rendimiento a las actuales GeForce GTX 1080. Algo que, por otra parte, era de esperar, por otra parte, dada la tónica de rendimiento que ya hemos visto de sus hermanas mayores, las GeForce RTX 2080 y RTX 2080 Ti comparadas con la anterior generación, Pascal.

Review NVIDIA GeForce RTX 2080

Sin embargo, entre los 500 euros que cuesta la edición normal de esta gráfica (no la Founders Edition, que es más cara) y los 800 euros que cuesta la GeForce RTX 2080 hay una gran diferencia de precio entre ambos modelos. Es por ello que NVIDIA estaría trabajando en lanzar, en breve, un nuevo modelo que cubriera la diferencia de precio y rendimiento entre estas dos tarjetas.

La NVIDIA GeForce RTX 2070 Ti estaría fabricada con el núcleo TU104

La nueva tarjeta gráfica estaría fabricada a partir de los núcleos defectuosos de las actuales GeForce RTX 2080 que, de esta manera, podrían tener salida al mercado. Esto lo suponemos, dado que las actuales GeForce RTX 2070 ya emplean el núcleo TU106 al completo, con lo que no podrían estar basadas en él. Sin embargo, actualmente no hay ningún tipo de salida de los núcleos TU104 que hayan resultado defectuosos en su fabricación, o que no hayan pasado el proceso de binado de una manera satisfactoria para el fabricante. Aunque, dado los problemas de producción que está teniendo actualmente NVIDIA con este mismo núcleo gráfico, no debiera de ser complicado ver bastantes de estos núcleos en el mercado con las posibles nuevas NVIDIA GeForce RTX 2070 Ti.

Por el momento, lo único que podemos saber es lo que aparece en la anterior captura de pantalla: que al menos GIGABYTE tendría uno de estos modelos disponibles para cuando llegue Halloween. Esto significa que su lanzamiento debería de producirse con cierta premura, dado que Halloween está a la vuelta de la esquina (Halloween es el 31 de octubre). Por tanto, no sería nada de extrañar que su presentación se realizara en las próximas dos semanas, si lo que se comenta en la publicidad de la marca es realmente verdad, y no se trata de un error del diseñador gráfico que ha hecho el banner.

Actualización: GIGABYTE acaba de confirmar que se trata de un error al diseñar el banner, como habíamos comentado.

The post NVIDIA estaría preparando una GeForce RTX 2070 Ti appeared first on HardZone.

Así ha evolucionado el precio de las tarjetas gráficas en octubre 2018

$
0
0

Aprovechando la salida de la RTX 2070 y todos los rumores entorno a Polaris 30 ¿qué mejor que ver como ha evolucionado el precio de las tarjetas gráficas hasta octubre? De la mano de los compañeros de Techspot vamos a dar un repaso y a tratar otros puntos para uno de los componentes más vendidos en PC aun a riesgo de tener uno de los precios más altos.

Las tarjetas gráficas NVIDIA RTX han movido el mercado en octubre

Lo cierto es que NVIDIA ha revolucionado el mercado de GPUs de una forma u otra, pero donde se ha llevado todas las críticas es con sus precios. Además, esto se ha visto aumentado por la poca disponibilidad de sus tarjetas y los continuos retrasos sufridos.

Esto ha hecho que su RTX 2080 Ti suba de media un 20% sobre el precio oficial y que la RTX 2070 que acaba de salir ya esté 100 dólares por encima. En cambio vemos una tendencia a la baja en las GPU Pascal, si bien hay matices.

Solo dos tarjetas están más caras que en el momento de su salida (GTX 1050 Ti y GTX 1060 3 GB) mientras que otras tres se mantienen (GTX 1060 6 GB, GTX 1070 y GTX 1080 Ti). Las únicas tarjetas de NVIDIA que han visto reducido su precio han sido las de gama media-alta y alta (GTX 1070 Ti y GTX 1080).

En contra, AMD tiene igualmente altos y bajos, donde su RX Vega 64 ha bajado 20 dólares, la RX 570 ha bajado 10 dólares hasta los 160 dólares.

En cambio la RX 560 ha subido hasta los 140 dólares y la RX 580 8GB hasta los 240 dólares, leves subidas en cualquier caso.

Si comparamos este mes de octubre con julio los datos son bastante reveladores:

GPUs Julio vs octubre

La caída de precio de la RX 570 es de un 33,3%, casi el doble de la RX Vega 64 y supone la mayor rebaja de todas las GPU analizadas. Les siguen la RX Vega 56 y la GTX 1060 6GB. La única GPU que mantiene su precio es la GTX 1050 Ti, una tarjeta gráfica que es de las más vendidas en NVIDIA.

El coste por frame es esencial para una buena compra

Si comparamos el coste por frame en un juego de última generación como Assassin´s Creed Odyssey a una resolución como 2K en un preset muy alto, los resultado son bastante parejos, bastante más que sus diferencias de precio:

Assassins creed odyssey GPUs octubre

Curiosamente en el top 5 encontramos solo una GPU AMD, a pesar que toda la gama de tarjetas gráficas tienen un menor precio. NVIDIA compensa el mayor precio con un mayor rendimiento, por lo que consigue aupar 4 GPUs entre las 5 primeras posiciones.

Por contra, la RTX 2080 Ti es la tarjeta con peor ratio precio/frame con mucha diferencia, algo que no sorprende viendo como ha aumentado su precio.

Si hacemos la misma comparativa de precio/frame pero con un cómputo de 20 juegos los datos se igualan todavía más. Donde la RTX 2080 Ti reduce la brecha y donde la RX Vega 64 se aúpa algunos puestos más arriba.

Esto pone de relieve que la gama RTX de NVIDIA tiene un precio desorbitado, donde la GTX 1080 Ti supera incluso a la RTX 2070. Sorprende ver en lo más alto de la tabla a la GTX 1070 Ti, GPU que fue la última en llegar pero que obtiene el mejor ratio de la comparativa.

The post Así ha evolucionado el precio de las tarjetas gráficas en octubre 2018 appeared first on HardZone.

¿Cuántos milisegundos cuesta el Ray Tracing en una NVIDIA RTX 2080 Ti?

$
0
0

El Ray Tracing está en boca de todos los usuarios y medios desde que NVIDIA presentó su serie RTX. En la Game Developers Conference de este 2018 celebrado en San Francisco la compañía Remedy Entertainment habló sobre esta tecnología en la que ha trabajado en colaboración con NVIDIA y la API DXR.

Su motor Northligh muestra lo que cuesta Ray Tracing en NVIDIA en términos de rendimiento

Ray Tracing 1

De momento y hasta la presentación de Battlefield 5 en noviembre no disponemos de ningún título (salvo sorpresa mediante parches) donde podamos comprobar el rendimiento. Tampoco NVIDIA permite el acceso a DXR mediante drivers a fecha de hoy, pero la empresa Remedy Entertainmet (desarrolladora de Max Payne y Alan Wake o Quantum Break) pudo probar y mostrar el trazado de rayos mediante su motor Northligh.

En dicha presentación mostraron como el trazado de rayos afecta al rendimiento bajo una resolución de 1080p. En el vídeo se ven múltiples detalles, reflejos, dispersiones, sombras volumétricas e iluminación global entre otros muchos detalles.

Ray Tracing 2

Pero Remedy quiso centrarse en un punto en concreto, la iluminación directa difusa. Para mostrar los datos y la representación se usó la tarjeta más rápida concebida hasta la fecha, la RTX 2080 Ti.

Como hemos visto, los efectos conseguidos son muy realistas y muy detallados, pero el impacto y el costo en el rendimiento es muy abrupto. El contacto de la luz y las sobras del sol que son calculadas con dos haces por píxel requieren un sorprendente tiempo de 2,3 ms por cuadro trabajado, mientras que las reflexiones cuestan 4,4 ms.

La llamada “global denoising lighting” algo así como iluminación para la eliminación del ruido global hace que el tiempo se demore aun más, sumando otros 2,5 ms al tiempo.

Ray Tracing 3

Esto significa que si sumamos todos los tiempos de los procesos obtendremos 9,2 ms de tiempo por cuadro. Para ponerlo en perspectiva, una GPU tarda 16,7 ms en renderizar 60 cuadros o FPS, lo cual supera la mitad del tiempo de renderizado total.

Para 30 FPS (33 ms) sería casi un tercio del tiempo total del renderizado, lo cual es una auténtica barbaridad.

Por supuesto eso solo son demostraciones (muy optimizadas eso sí), pero refleja el tremendo camino que queda por recorrer en cuanto a Ray Tracing en tiempo real se refiere.

Visto lo visto no sería de extrañar que en los juegos venideros que ya han sido confirmados con soporte, poco tengan que ver con lo visto en sus presentaciones, ya que incluso DICE con BFV sufre retrasos.

Otra opción que muchos prevén es la limitación de RT en dichos juegos, no mermando tanto el rendimiento y permitiendo una tasa de FPS más sostenida al tener menos carga. Pero entonces la novedad caería por su propio peso, ya que el que compra la serie RTX pretende no renunciar a Ray Tracing a costa de algo de pérdida de rendimiento.

El problema real, como ya explicamos en su presentación, es que el Ray Tracing que presenta Turing es un renderizado híbrido que incluye la rasterización actualmente, por lo que tendremos que esperar si todo sigue como se indica, hasta la serie 3000 o superior para tener suficiente potencia de cómputo para un Ray Tracing a tiempo real.

The post ¿Cuántos milisegundos cuesta el Ray Tracing en una NVIDIA RTX 2080 Ti? appeared first on HardZone.


Motion Smoothing, la tecnología que te permitirá jugar juegos VR con gráficas de gama baja

$
0
0

Los desarrolladores de SteamVR han anunciado que han desarrollado una nueva tecnología, denominada Motion Smoothing, que permitirá mejorar la experiencia de uso de las gafas de realidad virtual para todos los usuarios. Incluso para aquellos que estén empleando tarjetas gráficas de gama baja. Esto podría reducir los requisitos de entrada a la experiencia de SteamVR, haciéndola más asequible, al menos de manera parcial, para más bolsillos.

Uno de los principales escollos que se ha encontrado la VR, a la hora de llegar a las casas de todos los usuarios, son los altos requerimientos de hardware que son necesarios para mover las gafas VR con cierta fluidez. Sí, es verdad que originalmente se requería una tarjeta gráfica NVIDIA GeForce GTX 970 o similar, y que este modelo de gráfica ha sido superado en rendimiento desde las actuales GeForce GTX 1060 de manera sobrada.

Pero hay muchos usuarios que no poseen una de estas nuevas tarjetas gráficas y, aun así, desean adentrarse en el mundo de la VR. Para estos usuarios es para los que se ha creado la tecnología del Motion Smoothing.

Cómo funciona Motion Smoothing

La tecnología de Motion Smoothing funciona interpolando frames inventados entre frames reales que crea la tarjeta gráfica. El ordenador analiza los dos últimos frames que la tarjeta gráfica ha renderizado y crea un tercer frame, basado en la actividad pasada de ésta. Esta tecnología se lleva usando años en las televisiones de pantalla plana desde hace años. El problema de la implementación que se hace en las televisiones, es que introduce bastantes latencias, lo que la hace inutilizable con un equipo VR.

La solución que han desarrollado los ingenieros de SteamVR, solo entra en acción cuando el sistema analiza el rendimiento del juego y ve que va a empezar a saltarse frames, por falta de potencia gráfica, desactivándose cuando el sistema ya no lo necesita, de manera automática. Esto permite que el jugador siga experimentando sus juegos a 90 Hz, tanto en la HTC Vive como en la Vive Pro, sin que éste vaya dando saltos en la imagen. No solo ésto, sino que Motion Smoothing es capaz de renderizar no solo un frame, sino varios frames interpolados, permitiendo el uso de tarjetas gráficas de gama baja con gafas de realidad virtual, con resultados óptimos para el jugador.

Por el momento, esta tecnología se ha desarrollado solo para que sea empleada por las gafas de realidad virtual HTC Vive y Vive Pro. Los desarrolladores han comentado que no tienen planes para implementarla para las gafas Oculus Rift ni para las que emplean la realidad aumentada de Microsoft, dado que los drivers que emplean reaccionan de manera diferente y emplean técnicas diferentes cuando las aplicaciones comienzan a perder frames.

The post Motion Smoothing, la tecnología que te permitirá jugar juegos VR con gráficas de gama baja appeared first on HardZone.

Los fabricantes ya tienen los primeros prototipos de las AMD Radeon RX 590

$
0
0

Algunos fabricantes ya tienen preparados los primeros prototipos de las próximas tarjetas gráficas AMD Radeon RX 590. Estos nuevos modelos vendrían a cubrir la parte alta de la gama media del fabricante, con un modelo más potente que las actuales Radeon RX 580, pero manteniendo una envolvente térmica similar a la de estos del fabricante.

Mientras que NVIDIA ha aprovechado este final de año para lanzar una nueva arquitectura, a todo bombo y platillo, AMD Radeon ha estado todo este tiempo bastante callada, sin que se hayan filtrado detalles de cómo piensa contrarrestar estos lanzamientos del gigante verde. Especialmente en la gama media y gama baja, que es la única posición donde AMD Radeon realmente ofrece una cierta competencia a NVIDIA, con sus modelos de la gama RX 550, 560, 570 y 580, y contra los actuales modelos NVIDIA GeForce GTX 1050, 1050 Ti y las dos versiones de las GeForce GTX 1060.

Sin embargo, la próxima llegada de las tarjetas gráficas NVIDIA GeForce GTX 2060, que debieran de traer un incremento prestacional bastante interesante sobre las actuales GeForce GTX 1060, a la vista de lo que ya hemos podido comprobar con las nuevas GeForce RTX que han llegado al mercado, debe de haber hecho reflexionar a los encargados de AMD Radeon sobre mantener a las actuales RX en este mercado, y cómo de competitivas serían frente a los nuevos modelos.

ASUS sería uno de los primeros en tener listas las nuevas AMD Radeon RX 590

La liebre sobre las nuevas gráficas AMD Radeon RX 590 saltaba hace poco, cuando aparecía en el popular benchmark Time Spy, una entrada de una tarjeta gráfica que, por sus características técnicas, parecía un modelo de AMD Radeon a la que se le habían subido las frecuencias de una manera sustancial, para incrementar su rendimiento. Dado que las actuales tarjetas gráficas AMD Radeon RX están fabricadas con el nodo de 14 nm, la única manera de incrementar las frecuencias y que no se desmande el consumo de estos modelos, es reduciendo el nodo de fabricación a 12 nm, conservando la arquitectura original de las gráficas.

De entre todos los fabricantes que más desarrollados tienen los prototipos de las nuevas Radeon RX 590, ASUS es la marca que más preparada está para esta nueva tarjeta. De hecho, ya le tiene asignado hasta el nombre que llevará: ASUS Radeon RX 590 ROG STRIX Gaming. Aunque, de particular interés es ver que ASUS ha decidido volver a emplear la gama ROG para esta nueva gráfica, en lugar de sacarla en la nueva gama AREZ que había presentado hace meses. Lo que nos lleva a plantearnos si el fabricante no estará pensando en dejar de lado esa sub marca de manera definitiva, tras el fiasco que fue el GeForce Partner Program de NVIDIA.

The post Los fabricantes ya tienen los primeros prototipos de las AMD Radeon RX 590 appeared first on HardZone.

La AMD Radeon RX 590 podría llegar el 15 de noviembre, pero Vega 20 se retrasaría

$
0
0

Los últimos rumores cifran el lanzamiento de la nueva tarjeta gráfica AMD Radeon RX 590 para el, próximo día 15 del siguiente mes de noviembre. Con este lanzamiento, AMD Radeon querría poder competir con las tarjetas gráficas NVIDIA GeForce GTX 1060 6 GB, las cuales son las reinas indiscutibles de la gama media en el mercado actual. Las cuales, disputan la gama media a otros modelos de AMD, siendo superiores a estos.

Ya hemos dicho en ocasiones anteriores que, para el mercado de procesadores y tarjetas gráficas, donde realmente está el dinero es en la gama media. Sí, la mayoría de usuarios soñamos con tener el rendimiento de una tarjeta gráfica tope de gama. Pero el dinero manda, así que la mayoría de nosotros solo podemos optar por tarjetas gráficas de la gama media. Lo cual no es algo malo de por sí, dado que la mayoría de gráficas actuales permiten jugar con un nivel de detalle alto a la resolución de Full HD, que es la que suelen tener nuestros monitores.

Los últimos rumores sobre la AMD Radeon RX 590 dicen que este nuevo modelo de tarjeta gráfica equiparía el nuevo núcleo gráfico Polaris 30. Esta GPU estaría basada en los actuales Polaris 20 que montan las tarjetas gráficas AMD Radeon RX 570 y 580, pero con una diferencia fundamental: estarían fabricados en el nodo de 12 nm, en lugar de emplear el nodo de 14 nm que emplean las GPU Polaris 20.

Vega 20 se podría retrasar hasta principios del año que viene

La reducción del nodo de fabricación podría permitir a AMD Radeon incrementar la frecuencia de funcionamiento de sus núcleos para esta nueva AMD Radeon RX 590, sin salirse de la envolvente térmica y de consumo que tienen los modelos actuales. Algo similar a lo que AMD ha llevado a cabo con los procesadores Zen de segunda generación, frente a los modelos Zen originales, y que tan buenos resultados les está dando.

Por otro lado, más rumores parecen indicar que las siguientes gráficas Radeon Vega 20, las primeras de estas que estarían fabricadas en el nodo de 7 nm que ha desarrollado TSMC, se retrasarían a principios del próximo 2019. Originalmente se esperaba que estas tarjetas gráficas, que estarían más orientadas al mundo de los servidores y los Data Center, llegarían al mercado a finales de este 2018. Es probable que AMD se haya encontrado con problemas de rendimiento de las obleas, y que no esté preparada para iniciar la fabricación a gran escala de estos núcleos Vega 20. Al fin y al cabo, AMD sería la primera empresa que fabricaría una gráfica en este nuevo nodo de TSMC.

The post La AMD Radeon RX 590 podría llegar el 15 de noviembre, pero Vega 20 se retrasaría appeared first on HardZone.

EVGA lanza la primera RTX 2080 Ti al precio barato que NVIDIA anunció

$
0
0

EVGA se acaba de anotar, si se nos permite el símil, un gol por la escuadra, ya que ha anunciado una nuevo modelo para NVIDIA. La noticia no sería solo esta, ya que esto es algo muy común y esperable, sino porque esta RTX 2080 Ti Black Edition vendrá con diseño custom y a un precio de 999 dólares.

Esta EVGA RTX 2080 Ti Black Edition será más lenta que la “original”

evga_2080_ti_black_edition-4

Algo malo tiene que tener una oferta “tan tentadora“, y aunque todavía hay cierta confusión en torno a este modelo (ya existe otra Black Edition), lo cierto es que la marca tocará ligeramente el diseño y los clocks.

Otras tarjetas de la competencia se sitúan entorno a los 1300 euros, incluso las Founders Edition, por lo que esta GPU puede canibalizar gran parte de las ventas en los Estados Unidos. La versión listada hasta ahora tenía un boost que la hacían alcanzar los 1560 MHz mientras la versión que llegará a este buen precio solo logrará alcanzar los 1545 MHz.

Esto la sitúa por debajo de los clocks de la mayoría de modelos existentes y por supuesto de las Founders Edition, donde llegan a alcanzar los 1635 MHz. En cambio, por parte de la GDDR6 no habrá cambios, donde mantendrá las mismas frecuencias que las demás versiones y la misma cantidad, es decir, 616 GB/s y 11 GB de tamaño total.

evga_2080_ti_black_edition-1

Para su enfriamiento EVGA ha sido continuista en cuanto a diseño y mantendrá sus dos ventiladores originales para esta Black Edition. Como es costumbre en la marca, dependiendo de la temperatura estos girarán a una mayor o menor velocidad, ajustando las RPM a lo que necesite la tarjeta.

EVGA cambiaría de ventiladores en este modelo

evga_2080_ti_black_edition-2

Por lo que se ha rumoreado, EVGA planea en un principio remodelar las aspas de estos ventiladores para así aumentar la cantidad de aire que entre en contacto con el disipador y reducir el ruido al mismo tiempo.

Sobre el disipador en sí mismo, la marca no ha hecho declaraciones al respecto, pero se estima que no haya cambios en el mismo.

Por otro lado, EVGA ya ha puesto a disposición de los usuarios estadounidenses y a la venta esta EVGA RTX 2080 Ti Black Edition mediante su página web, como decimos, por 999 dólares. Este mismo modelo está disponible en Europa como RTX 2080 Ti XC Black Edition y cuenta con los clock más altos de los nombrados, es decir, 1560 MHz.

Pero como no puede ser de otra forma, el precio es mucho más alto, elevándose hasta los 1250 euros. A pesar de que este artículo centra su atención en los 999 dólares, esto no debería ser noticia, puesto que fue la propia NVIDIA la que fijó dicho precio de salida para modelos custom.

Debería ser al contrario en todo caso, donde la noticia sería ver los modelos de 999 dólares a 1250 euros o superiores. Por desgracia y de momento, dicho ajuste de precio a la baja no va a producirse en nuestras fronteras, así que tendremos que esperar para poder hacernos con una al precio recomendado por el fabricante.

The post EVGA lanza la primera RTX 2080 Ti al precio barato que NVIDIA anunció appeared first on HardZone.

Palit GeForce GTX 1060 GamingPro OC+: así es el nuevo modelo con GDDR5X

$
0
0

El fabricante de tarjetas gráficas, Palit, ha anunciado su nuevo modelo GeForce GTX 1060 GamingPro OC+, siendo el segundo modelo de tarjeta gráfica GeForce GTX 1060 6GB que emplea la memoria GDDR5X para su VRAM. Pero, a diferencia del modelo de GIGABYTE del que hablamos ayer, para el modelo de Palit sí conocemos las frecuencias de sus núcleos CUDA, así como de su memoria RAM.

Está claro que, desde que conocimos la pronta llegada de los nuevos modelos dotados de memoria GDDR5X, la mayoría de fabricantes de tarjetas gráficas, van a comenzar a lanzar sus nuevos modelos de éstas, poco a poco. De la misma manera, también está claro que NVIDIA no tiene preparada por completo su GeForce GTX 2060, que sería la evolución natural de esta gráfica de la gama media, y que le ha pillado algo por sorpresa el hecho que AMD vaya a sacar al mercado su AMD Radeon RX 590, con una frecuencia de reloj que podría hacer peligrar la hegemonía de la marca en la gama media.

En cuanto al nuevo modelo de Palit, la GeForce GTX 1060 GamingPro OC+ es, en forma, muy similar a otros modelos del mismo fabricante que montan el mismo núcleo gráfico, incluyendo su gran disipador con dos ventiladores.

La GDDR5X del modelo de Palit, volverá a contar con unas frecuencias bastante discretas

La frecuencia de la GPU que monta este nuevo modelo de Palit es de 1.531 MHz como frecuencia base, con una frecuencia boost de 1.746 MHz. Estas frecuencias representan un pequeño overclock frente a las del diseño de referencia de NVIDIA, el cual posee una frecuencia base de 1.506 MHz, junto con una frecuencia boost de 1.708 MHz. Es en la memoria VRAM donde se nota el mayor overclock que proporcionan las memorias GDDR5X, dado que estas permiten que suba la frecuencia hasta los 8.800 Gbps, frente a los 8.000 Gbps que tiene el modelo de referencia. Aun así, quedan lejos de los 9 Gbps que tienen otros modelos de GeForce GTX 1060 que ya hay en el mercado.

Las salidas de vídeo de este nuevo modelo tampoco sufren ninguna variación. En el caso del modelo de Palit, están formadas por una salida DVI-D, un puerto HDMI 2.0b y tres puertos DisplayPort 1.4. De la misma manera que tampoco cambia su consumo de energía, que está cifrado en 120 W, ni la fuente de alimentación mínima recomendada para este modelo, que sigue siendo un modelo que, como mínimo, sea capaz de proporcionar 400 W.

Lo que está claro es que estas tarjetas gráficas no debían de estar previstas por parte de NVIDIA, ya que parecen más un intento de limpiar el inventario de los fabricantes de tarjetas gráficas con núcleos Pascal, con otros modelos que sean más competitivos.

The post Palit GeForce GTX 1060 GamingPro OC+: así es el nuevo modelo con GDDR5X appeared first on HardZone.

Cada vez más usuarios reportan que sus NVIDIA RTX 2080 Ti están muriendo

$
0
0

Varios usuarios se han comenzado a quejar en los foros de NVIDIA sobre numerosos problemas con las nuevas tarjetas gráficas NVIDIA GeForce RTX 2080 Ti, las cuales han comenzado a fallar a menos de una semana de su adquisición, quedando estas completamente inservibles. De hecho, varios usuarios han acusado a la compañía de no realizar un control de calidad adecuado con estas nuevas tarjetas gráficas, y los núcleos que en ellas se montan.

La NVIDIA GeForce RTX 2080 Ti es la tarjeta gráfica más potente que hay en el mercado actualmente. No solo eso, sino que es también la tarjeta gráfica que posee la GPU más grande del mercado. Todo esto, unido a que son las primeras tarjetas gráficas que emplean la arquitectura Turing en su GPU, nos hace saber que es normal que, por el momento, el rendimiento por oblea, hasta que el proceso de fabricación madure un poco más, no debe de ser estelar.

Lo inusual es que tantas tarjetas gráficas GeForce RTX  2080 Ti estén presentando el mismo tipo de problema cuando los usuarios llevan poco tiempo empleándolas. No solo eso, sino que, tras haber realizado el pertinente RMA de su gráfica y haber recibido el reemplazo de ésta, se han encontrado con que, a los pocos días de tenerla, el problema se reproducía con la nueva tarjeta gráfica.

Los fallos también afectarían a las GeForce RTX 2080

Por el momento, la mayoría de los fallos parecen centrarse, principalmente, en el modelo GeForce RTX 2080 Ti Founders Edition, aunque también hay usuarios que informan de fallos similares en sus GeForce RTX 2080 Founders Edition. Dado que los problemas suelen centrarse en la aparición de artefactos cuando la gráfica no se está empleando, pantallas en negro o, directamente, un BSoD (Blue Screen of Death), es muy probable que el fallo (o fallos) se deba a un problema con la arquitectura interna de la GPU de la gráfica. O un fallo en el proceso y/o materiales de fabricación de éstas.

De hecho, también han aparecido en Reddit varios hilos de usuarios con los mismos problemas, lo cual nos lleva a pensar que el problema está más extendido y generalizado de lo que se podría suponer en un principio. Aun así, no deja de ser verdad que los usuarios a los que un componente les falla suelen ser bastante vehementes a ese respecto al expresar sus quejas y su decepción. Pero que tantos informes de fallos relacionados con las nuevas NVIDIA GeForce RTX 2080 Ti Founders Edition hayan aparecido de repente, nos hace temer que efectivamente exista un problema con estas tarjetas gráficas.

The post Cada vez más usuarios reportan que sus NVIDIA RTX 2080 Ti están muriendo appeared first on HardZone.

NVIDIA reconoce que hay problemas de fiabilidad con las GeForce RTX

$
0
0

Como continuación a la noticia que dábamos ayer sobre los posibles problemas de las nuevas tarjetas gráficas GeForce RTX serie 20, hoy NVIDIA ha confirmado que estos problemas que afectan a estas gráficas son reales y afectan a toda la gama de estas gráficas. Aunque no han confirmado de qué tipo de problema se trata y han comentado que el problema no parece estar muy extendido.

La noticia que publicamos ayer sobre los fallos que estaban teniendo las tarjetas gráficas NVIDIA GeForce RTX serie 20, por las que estas gráficas comenzaban a mostrar artefactos, ha tenido bastante repercusión. Dado que no solamente se veían las quejas en los foros de NVIDIA, sino que también se habían multiplicado por otros muchos portales de Internet. Incluso ha habido usuarios que han preferido ignorarlas, afirmando que lo más probable es que se tratara de usuarios que se habían dedicado a forzar las nuevas gráficas a base de overclock, y que no había que darles importancia ninguna.

Sin embargo, esos usuarios probablemente se sorprendan cuando NVIDIA ha emitido hoy un comunicado en el que reconocen que estos fallos de las GeForce RTX serie 20 son completamente reales, y que están afectando, tanto a las gráficas que vende la propia NVIDIA, como a aquellas que son vendidas por sus socios colaboradores. Lo cual podría indicar un fallo en la fabricación de las GPU, un fallo en la propia arquitectura Turing de las gráficas (algo que es poco probable que sea), o un fallo en el proceso de soldadura de éstas la PCB donde van instaladas, entre otras cosas.

NVIDIA no ha precisado cuál es el problema que afecta a las GeForce RTX serie 20

En el comunicado que NVIDIA ha efectuado, la compañía ha tratado de quitarle hierro al asunto, comentando que el problema no es tan grave, ni está tan extendido, así como que están trabajando con cada usuario que ha informado del problema, de manera individual, para intentar solventarlo.

Sin embargo, está claro que estos problemas con las nuevas NVIDIA GeForce RTX serie 20 van a poner un posible freno a las ventas de estas nuevas tarjetas gráficas. Al fin y al cabo, una cosa es gastarse los casi 1.000 euros o más que cuestan algunos de los modelos afectados por los problemas, en un modelo de gráfica que sabemos bien como funciona, y otra muy distinta es gastárselo en un modelo que es nuevo de la cabeza a los pies. Lo cual no exime de que NVIDIA y sus socios ensambladores debieran de haber estado más pendientes de este tipo de problemas, si llegaban a producirse.

Con todo y con eso, está claro que se deben de haber vendido miles de estas tarjetas gráficas, y que no todas han salido defectuosas, o si no se estaría escuchando mucho más sobre este asunto.

The post NVIDIA reconoce que hay problemas de fiabilidad con las GeForce RTX appeared first on HardZone.


Puentes NVIDIA para SLI y multi-gpu ¿qué tipos hay? ¿merecen la pena?

$
0
0

Uno de los grandes desconocidos dentro de los usuarios más exigentes son los puentes de NVIDIA para SLI. La mayoría de las placas base traen unos puentes de la marca para que en caso de montar una o varias GPUs el usuario no tenga que gastar más dinero, pero ¿merecen la pena? ¿qué tipos hay?

Diferentes tipos de Puentes SLI en forma y velocidad

Puentes-SLI-Bridge-NVIDIA

Antes de comenzar con la teoría y práctica de los puentes hemos de saber para que son usados, cual es su finalidad y sus tipos o características:

La Interfaz de enlace escalable (SLI por sus siglas en inglés) es un nombre de marca para una tecnología de varias tarjetas gráficas desarrollada por NVIDIA para unir dos o más GPUs. SLI es un algoritmo de procesamiento paralelo para renderizar gráficos, destinado a aumentar la potencia de procesamiento disponible.

El SLI originalmente fue utilizado por primera vez por 3DFX para Scan-Line Interleave , que se introdujo en el mercado de consumo en 1998 y se utilizó en su Voodoo2 para el mercado de consumo. Más tarde, NVIDIA compró 3DFX y dejó el SLI latente, hasta que lo volvió a sacar a la luz en 2004 para sus tarjetas gráficas bajo PCIe.

SLI permite que dos, tres o cuatro GPU compartan la carga de trabajo al renderizar los frames en tiempo real. Todas las tarjetas gráficas reciben una carga de trabajo igualitaria, pero el renderizado final de cada tarjeta se envía a la tarjeta principal (la que tiene la salida de vídeo del monitor) a través del SLI Bridge. Por ejemplo, en una configuración de dos tarjetas gráficas, la GPU “maestra” o principal trabaja en la mitad superior de la escena, el esclavo o secundaria en la mitad inferior. Una vez que la secundaria ha terminado con su mitad de la escena envía su renderización a la principal para que se combine en una imagen antes de enviarla al monitor.

Explicada la función del SLI nos centraremos en lo que realmente nos interesa en este artículo, que son los puentes o bridge SLI. Así en cuanto a forma existen solo dos tipos de puentes SLI: los puentes rígidos y los puentes flexibles.

asus-rog-bridge-sli

 

Cada uno puede tener distintas longitudes y albergar diferentes tarjetas en cuanto a número se refiere, por lo que tendremos puentes flexibles para dos tarjetas gráficas como máximo, en cambio en puentes rígidos podremos encontrar para dos, tres o cuatro GPUs simultáneamente.

La velocidad puede marcar la diferencia

sli-configuracion

Además, hay distintos tipos de puentes en cuanto a velocidad, siendo los flexibles los que menos rendimiento ofrecen actualmente, así encontramos tres tipos de velocidades.

  • Puente estándar o flexible (400 MHz Píxel Clock y un ancho de banda de 1 GB/s) solo para dos GPUs o con interconexión de los mismos hasta 4, siendo poco recomendable.
  • Puente LED rígido (540 MHz Píxel Clock con un ancho de banda de 1,45 GB/s) hasta 4 GPUs simultáneamente.
  • Puente High Bandwidth rígido (650 MHz Píxel Clock y un ancho de banda de 2 GB/s) solo para dos GPUs y especialmente indicado para la arquitectura Pascal.

Muchos usuarios y algunas webs han afirmado durante años que la diferencia entre puentes SLI es o bien inexistente o bien despreciable, tildando a NVIDIA de querer sacar provecho vendiendo lo mismo pero más caro, pero ¿qué hay de cierto en esto?

Bueno, para poder comprobar las posibles diferencias hemos optado por comparar varios puentes SLI, concretamente 5 modelos diferentes; un HB LED rígido, dos rígidos comunes y cuatro flexibles, de los cuales finalmente solo hemos optado por 2 dado que los datos eran repetitivos en dos de ellos.

Puentes Asus SLI HB Puente SLI Asus Rígido Puentes Asus SLI Flexibles

Nuestro equipo de pruebas ha sido:

  • Intel Core I7 5960X (Stock)
  • Asus Rampage V Edition 10
  • Corsair Dominator Platinum ROG DDR3200 Cas 16
  • SLI Asus STRIX GTX 1080 O8G
  • Samsung 950 Pro 512 GB
  • Corsair AX1200i
  • Corsair H100i + 2 X Corsair ML 120 Pro + Corsair ML 140 Pro (Trasero)
  • Corsair Obisidian 800D

Dicho esto veamos que diferencias encontramos:

Comparativa-Puentes-SLI

Los datos son esclarecedores y muestran un ganador claro, el puente SLI HB. Cierto es que la arquitectura Pascal según NVIDIA necesita de este puente y no le falta razón para afirmarlo, pero igual que se dice esto para arquitecturas anteriores como Maxwell un buen puente debe ser más que suficiente para no apreciar pérdidas de rendimiento.

Por último tenemos que citar, como no podía ser de otra manera, a NVLink, ya que es la última incorporación de la marca a sus tarjetas gráficas.

NVIDIA NVLink es el futuro en los puertos de alta velocidad para GPUs

NVIDIA NVLink es una interfaz de interconexión con un elevado ancho de banda que facilita la comunicación a alta velocidad y con gran eficiencia energética entre las GPUs, y entre la CPU y la GPU. Permite a los procesadores compartir los datos a velocidades entre 5 y 10 veces superiores a la del tradicional bus PCIe Gen3, lo que produce una enorme aceleración del rendimiento de los juegos y software.

Este nuevo puente se lanzó con la arquitectura Pascal pero fue destinado a la NVIDIA P100 con la versión NVLink 1.0, posteriormente la marca lanzó la NVIDIA V100 con arquitectura Volta y con ella apareció la versión 2.0 del NVLink que incrementaba su velocidad hasta 300 GB/s.

Esta versión se ha implementado en la última arquitectura que NVIDIA ha sacado al mercado de consumo y gaming (Turing) y que lógicamente requiere un nuevo puente SLI NVLink debido a sus diferencias físicas evidentes, ya que el puente tradicional ha quedado para el olvido.

asus-rog-nvlink

De esta manera NVIDIA se asegura una continuidad tanto en sus PCBs como en las velocidades durante años, así que es muy posible que no veamos cambios hasta dentro de un buen tiempo, o quizás y como pasó con el puente tradicional, unas mayores velocidades compartiendo físicamente puerto.

The post Puentes NVIDIA para SLI y multi-gpu ¿qué tipos hay? ¿merecen la pena? appeared first on HardZone.

La memoria GDDR6: ¿culpable de las muertes de las NVIDIA RTX?

$
0
0

Hace apenas una semana avisábamos de las repentinas muertes que estaban sufriendo muchas GPU de la serie RTX de NVIDIA. No es algo ni mucho menos normal, sobre todo teniendo poco más de un mes de vida. El problema se ha extendido a las tres gráficas que NVIDIA tiene en el mercado y hoy sabemos algo más sobre el problema y sus posibles causas: ¿es la GDDR6 la culpable?

NVIDIA habla de un problema no generalizado y Micron no se pronuncia

RTX 2080 Ti

Cuando una GPU se rompe el usuario necesita buscar culpables, sobre todo si no ha habido mala praxis por su parte. Pero si encima la tarjeta en cuestión supera por mucho el SMI en un país como el nuestro, puede ser que el enfado sea monumental.

Donde algunos medios han apuntado a un problema de NVIDIA nosotros vamos a dirigir dicho problema a unos datos que llevamos recopilando durante el fin de semana y que sin culpar directamente a nadie, vamos a exponer como posible causa de los males que asolan a las RTX de NVIDIA.

En los foros de NVIDIA y en Reddit muchos han sido los usuarios que estaban reportando fallos de lo más variopinto, pero todos parecían tener un eje común.

Fallos como el que vais a ver en el vídeo de abajo se han sumado a pantallas en negro, reinicios esporádicos, mayor número de artifacts etc …

Por lo que según nuestra experiencia en overclock, dicho tipo de fallos es muy común cuando la memoria de la tarjeta gráfica termina fallando, sea por velocidad o temperatura.

Pero ¿qué hay de cierto en esto? Bueno, para hacer una correcta recapitulación de los datos hemos de discernir con que hardware estamos tratando.

En el caso de toda la serie RTX de NVIDIA el fabricante para todos los AIB o Founders Edition es Micron. Su GDDR6 pasa por tres modelos distintos que comparten muchas similitudes y pocas diferencias, entre ellas la capacidad de sus módulos.

Las similitudes vienen desde el voltaje, pasando por la velocidad o su pinout. En las RTX 2080 Ti la versión de los módulos instalados pasa por el modelo 8RA77 D9WCW (8PA77 en otros modelos), mientras que para las RTX 2080 y RTX 2070 el modelo es la variante 80A77 D9WCW, ambos modelos figuran como MT61K256M32 según la propia Micron.

Si nos vamos a sus datasheet encontramos cosas muy interesantes:

Micron GDDR6 Specs

Desde su VDD de 1.35 voltios hasta su VPP de 1.8v pasando por lo que realmente nos interesa, on-chip temperatura sensor with read-out y temperature sensor controlled self refresh rate para terminar en su Tc desde 0ºC hasta +95ºC.

Muchos de estos datos ya los conocíamos, pero el parámetro que entra en debate es la temperatura. ¿Acaso las GDDR6 son capaces de llegar a esta temperatura en una tarjeta gráfica de NVIDIA? Bueno, veámoslo:

En el caso del vídeo en concreto hablamos de una MSI RTX 2080 Ti Gaming X Trio, un modelo custom muy bien refrigerado y que cuenta con midplate exclusivo para las VRAM GDDR6 y además el apoyo del backplate para refrigerarlas por la parte trasera del PCB, tal y como podemos ver en estas imágenes:

MSI RTX 2080 Ti Gaming X Trio Backplate MSI RTX 2080 Ti Gaming X Trio Midplate

El problema no ha sido detectado como tal hasta ahora debido a que la mayoría de tarjetas se prueban con su configuración por defecto, es decir, si incluye backplate se testea con este, como por otra parte es lógico.

Esto evidencia problemas ocultos que el backplate esconde, como se puede ver en la siguiente captura térmica:

MSI-RTX-2080-Ti-Gaming-X-Trio-FLIR

Los backplates ocultan el problema

Así, se aprecia como el punto de medición 4 alcanza los 75,5 ºC que es justo la zona de mayor temperatura disponible ya que centra una de las filas de VRAM y justo al lado tenemos a las fases y VRM:

front

En este caso el diseño de MSI ha priorizado separar lo máximo posible las VRAM de las fases y VRM, pero este diseño no es lo común actualmente, ya sea en otras tarjetas custom como en el PCB de referencia como se muestra justo debajo.

front (1)

En cambio si nos fijamos en el diseño de las tarjetas homólogas Pascal encontramos una sutil diferencia:

pcb_analysis

Si miramos la MSI GTX 1080 Ti Gaming X Trio vemos que la distancia es aun mayor y además un detalle marca la diferencia.

En la columna derecha de las GDDR5X el módulo que falta para cumplimentar los 12 GB de las Titan está estratégicamente colocado en todos los modelos GTX 1080 Ti para evitar aumentar el calor y permitir una mejor disipación.

front (2)

Mientras que como hemos visto en la serie RTX dicho módulo “vacío” se encuentra en la parte inferior de las tarjetas, junto al PCIe.

Esto es un “problema” de diseño de NVIDIA, ya que los fabricantes por norma general no alteran ni la orientación del die ni la disposición de buses o líneas de interconexión con la VRAM, es un diseño cerrado por así decirlo que NVIDIA impone.

Pero entonces ¿qué se puede hacer ante esto?

Lo principal en este tipo de casos es escoger bien a la hora de comprar nuestro modelo, más que nunca la refrigeración cuenta a la hora de alargar o mantener la vida de nuestra GPU.

Pero para los que ya posean alguna de las tres variantes de la serie RTX, existe por lo menos una solución paliativa a corto plazo. Muchos usuarios que han experimentado problemas de los arriba mencionados han afirmado que bajando los clocks de la VRAM manualmente entre 50 y 100 MHz han conseguido evitar los problemas y poder jugar sin artifacts, pantallas en negro o reinicios.

Esto tiene sentido desde el punto de vista de la temperatura, bajar clocks sin duda influye directamente en un menor estrés, consumo y por ende menores grados centígrados en las VRAM.

The post La memoria GDDR6: ¿culpable de las muertes de las NVIDIA RTX? appeared first on HardZone.

El precio de las NVIDIA GTX 1080 Ti se está disparando: ¿por qué?

$
0
0

Desde finales del pasado verano hasta ahora, comienzos de noviembre, estamos comenzando a ver como el precio de las tarjetas gráficas NVIDIA GeForce GTX 1080 Ti ha comenzado a subir. En ocasiones lo han hecho de manera pausada, pero en otras ocasiones, como ahora, el precio de estas tarjetas gráficas se ha disparado a niveles muy superiores al que tenían hace unos cuantos meses. Y eso es un fenómeno que está siendo más o menos generalizado. ¿A qué se debe este repunte de los precios?

Generalmente, en una economía de mercado como la que tenemos en España, un repunte de precios se debe a que la demanda de un producto no se está satisfaciendo de manera adecuada por parte del fabricante de este producto. Si echáis la vista atrás, este mismo año (y durante gran parte del pasado 2017) ya estuvimos en la misma situación, debida al desabastecimiento de gráficas que generó la industria de la minería de criptomonedas. Sin embargo, hace ya más de medio año que los efectos de esta industria pasaron a la historia.

Por otra parte, hace poco tiempo que NVIDIA ha lanzado al mercado sus nuevas tarjetas gráficas GeForce RTX serie 20, varias de las cuales superan el rendimiento de sus contrapartes de la pasada serie GTX 1000. Aunque, también es verdad que, varios modelos de estas nuevas tarjetas gráficas están teniendo problemas de fallos, lo que está llevando a muchos usuarios a replantearse su compra.

NVIDIA habría detenido la producción de las GeForce GTX 1080 Ti

La explicación a este súbito incremento en el precio de las GeForce GTX 1080 Ti parecería deberse a que NVIDIA ha dado la orden de dejar de producir estas tarjetas gráficas. Al hacerlo, el precio de las unidades que quedan en existencias, automáticamente se incrementará. En generaciones pasadas no ha habido tanto problema a este respecto, dado que los usuarios han pasado a la nueva generación sin ningún tipo de problemas.

Pero, dados los problemas que tienen las nuevas tarjetas gráficas, el elevado precio de salida que están teniendo, y que varios de los nuevos modelos no aportan un incremento de rendimiento muy superior a los que reemplazan, unido a la ausencia de juegos que hagan amplio empleo de la tecnología del Ray Tracing en sus motores, los usuarios se están conteniendo bastante a la hora de dar el salto a las nuevas GeForce RTX serie 20.

Si NVIDIA ha detenido la producción de sus GeForce GTX 1080 Ti, no dudamos que, en breve, tanto las GTX 1070, 1070 Ti como las GTX 1080 seguirán el mismo camino de EOL (End Of Life) que estas otras gráficas. Todo esto, en claro contraste con la llegada de modelos de las GeForce GTX 1060 que emplearán memoria GDDR5X, y de los que no sabemos todavía cómo rendirán.

The post El precio de las NVIDIA GTX 1080 Ti se está disparando: ¿por qué? appeared first on HardZone.

Las NVIDIA RTX 2070 usan chips seleccionados, como las RTX 2080 y RTX 2080 Ti

$
0
0

Ya hemos visto como NVIDIA ha realizado el tan buscado binning de sus GPU en anteriores ocasiones. Todo comenzó realmente con Pascal, donde podíamos encontrar el mismo modelo de tarjeta con la diferencia de que uno tendría mejores clocks y en teoría mejor overclock. Con Turing, NVIDIA a seguido la misma línea donde incluso la ha extendido a su tarjeta estrella, la RTX 2070.

Los socios de NVIDIA están encantados con el binning de RTX 2070

EVGA-RTX-2070-XC-Ultra

La realidad es que la estrategia funciona. Primero porque los ensambladores pueden ofrecer productos más competitivos a un sector que no requiere el máximo rendimiento de un chip que puede soportar velocidades mayores. Y segundo porque pueden hacer versiones de mayor rendimiento o exclusivas y cobrar un mayor precio por ello.

Debates morales y discusiones aparte sobre esto, la realidad es que funciona, ha funcionado con las GTX 1080 y GTX 1080 Ti, funciona con las RTX 2080 y RTX 2080 Ti y no hay avisos de que no vaya a funcionar con las RTX 2070.

Así, desde Gamernexus pudieron comparar una EVGA RTX 2070 XC Ultra y una EVGA RTX 2070 Black, donde no solo tienen distinto PCB y sistema de refrigeración sino que esto ayuda a que tengan diferentes clocks.

El primer paso y más lógico es mirar “bajo el capó” para comprobar que toda la teoría anterior está fundamentada, y así fue. La EVGA RTX 2070 XC Ultra contiene un chip denominado TU106-400A-A1.

RTX 2070

Recordemos que en las RTX 2080 y RTX 2080 Ti ocurre lo mismo, las versiones A1 son los chips bineados con mayor rendimiento, cosa que no sorprende puesto que NVIDIA ya lo especificó.

¿Cuál es la mejora real y cuanto rendimiento puede extraerse de un chip bineado?

Para comprobar que tan grande es la mejora que puede ofrecer un chip que ha sido bineado por NVIDIA y que un fabricante como EVGA ha incluido en sus GPUs, hemos escogido dos gráficas disponibles a una resolución de 1080p y por dos motivos.

El primero es que sigue siendo la resolución más representativa en cuanto a usuarios se refiere y el segundo porque las diferencias son captadas con mayor facilidad.

2070-xc-ultra-f1-1080p

En F1 2018 vemos como la diferencia de FPS se torna a 9 entre ambos modelos. Teniendo en cuenta que con boost la RTX 2070 XC Ultra consigue elevar su frecuencia hasta los 1815 MHz mientras que la Black se mantiene en 1785 MHz (1,68% de diferencia), el rendimiento muestra una diferencia del 6,52%.

Con máximo overclock las diferencias se van hasta los 4,03%, es decir, el chip con menos potencial de overclock logra unas frecuencias menores pero logra reducir la brecha de rendimiento.

2070-xc-ultra-review-far-cry-5-1080p

En Far Cry 5 el escenario es muy similar, la diferencia de stock es del 5,99% a favor del chip bineado, mientras que con full overclock las diferencias se reducen hasta los 3,12%, casi un 50% de reducción de rendimiento.

De igual manera el chip con mayor potencial de overclock hace gala de ello y consigue batir a su homólogo respectivo, tanto de stock como con overclock.

Podríamos decir que una diferencia de un 3 y un 4% es algo relativamente estrecho en cuanto a overclock se refiere, pero habría que mirar entonces el precio de un modelo u otro para sacar una comparativa más clara al respecto.

Pero ¿qué hay del consumo?

Normalmente un chip bineado no solo alcanza una mayor frecuencia tanto de stock como de overclock, sino que lo hace con menor voltaje y por ende menor energía consumida, donde al mismo tiempo debe de permitirle tener una temperatura más acorde o bien un boost más alto.

2070-xc-ultra-review-power_all

Como vemos en el gráfico superior, esto se cumple de buena manera si comparamos ambas tarjetas de stock, pero con overclock vemos todo lo contrario. El chip bineado consume mas vatios con overclock que el no bineado. Esto se debe al aumento de la velocidad de la VRAM, ya que consigue 100 MHz más que en chip no bineado.

Pero ¿por qué ocurre esto si son los mismos módulos? En un chip bineado no solo influye la velocidad del núcleo del mismo, sino en la velocidad que son capaces de manejar sus controladores de memoria para con la VRAM, por ello es capaz de soportar una mayor velocidad de la VRAM haciendo de factor menos limitante.

Este aumento de la velocidad de la VRAM es lo que produce que la RTX 2070 XC Ultra bajo overclock consuma más que la RTX 2070 Black, aunque genere más rendimiento.

Por lo tanto y a modo de resumen, NVIDIA está en lo cierto, sus chips bineados consiguen un mejor rendimiento que los “normales”, así que como hemos dicho más arriba el único factor que tendremos que tener en cuenta es si merece la pena pagar más por tener una mejor tarjeta gráfica y cuanta es la diferencia de componentes usados y precio.

The post Las NVIDIA RTX 2070 usan chips seleccionados, como las RTX 2080 y RTX 2080 Ti appeared first on HardZone.

AMD desvela la arquitectura Zen 2 y sus nuevas Radeon Instinct, y apuestan por los 7 nm

$
0
0

Durante el evento Next Horizon que AMD ha celebrado en San Francisco, AMD ha desvelado importantes detalles sobre cómo será la nueva arquitectura interna de los procesadores AMD Zen 2, que poco parecido tiene con la arquitectura interna que empleaban los procesadores Zen actuales. Durante este mismo evento, AMD ha hablado extensivamente sobre su nueva tarjeta gráfica de uso profesional AMD Radeon Instinct MI60.

El año 2019 va a ser el año en el que AMD consiga, por primera vez en su historia, el liderazgo en el nodo en el que se fabrican sus nuevos productos. Tanto los procesadores AMD Zen 2, como sus tarjetas gráficas AMD Radeon Instinct MI60 serán los primeros elementos de computación dentro de un PC, que serán fabricados en el nuevo nodo de TSMC de 7 nm. Este liderazgo puede servirle bien a la marca, a la vista que Intel todavía no ha conseguido sacar a delante su problemático nodo de 10 nm, ni se le espera hasta mediados del próximo año 2019.

Durante el evento Next Horizon, AMD ha hablado de las diferentes mejoras que han hecho de la arquitectura Zen, para convertir Zen 2 en una arquitectura mucho más potente que la actual. También han hablado que Spectre ya no podrá afectar a los nuevos procesadores de AMD de ninguna manera, tras la revisión de su arquitectura interna.

AMD Zen 2 empleará una arquitectura que nada tiene que ver con la de Zen 1

La gran revolución que AMD va a emplear con Zen 2 es su nueva arquitectura interna. “Nueva” en cuanto a que no se parece en nada a la arquitectura que el fabricante ha estado usando hasta ahora en sus procesadores. Por principio, desaparece la actual distribución de los núcleos solo en los CCX, para ser reemplazada por una nueva distribución en el que los CCX (fabricados en el nodo de 7 nm) se situarán alrededor de un hub central (fabricado en 14 nm).

Esta nueva distribución busca eliminar al máximo las latencias que se producen cuando la información debe de cambiar de CCX para continuar su procesado. Y, como podéis ver, esta nueva arquitectura no se parece en nada a la que hacen uso los actuales procesadores Zen. Es decir, AMD Zen 2 no es una evolución de la actual arquitectura Zen 1, sino que es un rediseño de esta, cogiendo aquello que ha funcionado desde el principio, como lo es la modularidad de los procesadores, pero rediseñando las taras más importantes de esta arquitectura.

AMD también ha hablado largo y tendido sobre su nuevo procesador para servidores AMD EPYC Rome. En este aspecto, estos nuevos procesadores emplearán la distribución que hemos podido ver en la anterior imagen. De estos nuevos procesadores, Lisa Su ha confirmado los siguientes aspectos:

  • Aunque siguen en fase de desarrollo, estarán listos para ser lanzados al mercado durante el próximo año 2019.
  • Tendrán 64 núcleos físicos con 128 hilos por el uso del SMT (Simultaneous Multi Threading).
  • La densidad de transistores será el doble que la de los actuales EPYC.
  • Su rendimiento será dos veces superior al de los actuales EPYC Naples.
  • Tendrán el cuádruple de capacidad de procesar operaciones de coma flotante que los actuales EPYC.
  • Serán completamente compatibles con el socket de los procesadores EPYC de ahora y con los próximos EPYC Milan, que emplearán la arquitectura Zen 3.
  • Han confirmado que los nuevos Zen 2 tendrán una sustancial mejoría del IPC.

AMD Radeon Instinct MI60 supondrá un incremento de rendimiento importante frente a MI25

En otro orden de cosas, AMD también ha presentado su nueva tarjeta gráfica para operaciones de cómputo, AMD Radeon Instinct MI60, la cual viene a sustituir a las actuales MI25.

Estas nuevas gráficas traerán en su interior 32 GB de memoria HBM2, así como serán 1,25 veces más potentes que las actuales Instinct MI25. En estos nuevos modelos también se ha doblado la densidad de los transistores en la die, llegando hasta los 13.200 millones de estos, en una die que tiene el tamaño de 331 mm2. Todo esto, aderezado con la capacidad de un ancho de banda de 1 TB/s.

El último anuncio que se ha realizado durante el evento hace referencia a que, tanto los procesadores AMD EPYC Rome como las tarjetas gráficas AMD Radeon Instinct MI60 emplearán el bus de datos PCIe 4.0 para comunicarse, lo que dobla el ancho de banda disponible para ambos componentes, si lo comparamos con el actual bus PCIe 3.0.

The post AMD desvela la arquitectura Zen 2 y sus nuevas Radeon Instinct, y apuestan por los 7 nm appeared first on HardZone.

Viewing all 1962 articles
Browse latest View live