TEL. 0155-5512-4712  / 0155-5518-0703  

    

       

       

Swipe to the left

Intel lanza nuevos drivers para sus tarjetas gráficas dando soporte a FIFA 20 e Iris Plus

By Mr. Fantástico 2 months ago 238 Views No comments


Como era de esperar (y mucho se ha retrasado siendo Intel) el gigante azul ha lanzado unos nuevos drivers que dan soporte a dos nuevas características. Por un lado, Intel ya ofrece soporte para su décima generación de procesadores que incluyen las nuevas tarjetas gráficas Iris Plus, es decir, su arquitectura Ice Lake. Por otro, ofrece soporte a un título más que esperado: FIFA 20.

Intel Graphic Driver 26.20.100.7212: amplias correcciones y mejoras

Aunque los “highlights”de esta nueva versión de drivers se los llevan tanto FIFA 20 como el soporte para Iris Plus, lo cierto es que hay correcciones y mejoras que tienen que ser consideradas como igual o más importantes incluso que estas.

Pero antes de empezar, conozcamos el contenido de estos drivers y las versiones de los módulos que porta:

  • Intel Graphics Driver
  • Intel Audio Driver 10.26.0.8 (6th Gen and related Pentium Silver and Celeron processors)
  • Intel Audio Driver 10.27.0.5 (7th, 8th, 9th, 10th Gen)
  • Intel Audio Driver 11.1.0.10 (10th Gen with Iris Plus Graphics)
  • Intel Media SDK Runtime
  • Intel Graphics Compute Runtime for OpenCL™ Driver
  • Intel Graphics Command Center
  • Vulkan* Runtime Installer (1.1.114.0)

Y es que el soporte de Iris Plus ha traído consigo para la 10ª Generación de procesadores de Intel con dicha iGPU una serie de características bastante considerable y que, de momento, no será extrapolable al resto de modelos.

Comenzando por:

  • Soporte para DX12 VRS (Variable Rate Shading) Tier 1
  • Soporte BETA para Retro Scaling
  • Se añade soporte para Adaptive Sync (Variable Refresh Rate)
  • Se añade soporte para Half Refresh Rate para mejorar la batería a pantalla completa mientras reproducimos vídeos a 24 Hz.
  • Compatibilidad con VESA Display ID 2.0.

Además, Intel añade para los procesadores de 7ª Generación o superiores el soporte para HDCP 2.3 en paneles DisplayPort, algo que muchos estaban reclamando. Además se han añadido nuevas extensiones para la API Vulkan: VK_KHR_imageless_framebuffer y VK_EXT_memory_budget.

Mejoras

Intel ha mejorado dos pequeños problemas que ha detectado y que afectan desde la sexta generación de procesadores a la décima:

  • Latencia reducida para juegos en remoto.
  • Optimizaciones de rendimiento para Gears of War 5.

Correcciones

Intel ha logrado corregir un gran número de problemas, donde todos ellos afectaban desde la sexta generación de procesadores hasta la décima, incluidos Pentium y Celeron.

  • Puede faltar la opción HDR en la configuración de pantalla de Windows.
  • Pueden observarse anomalías gráficas menores al abrir el menú de inicio de Windows 10 o Windows Store.
  • Es posible que la opción Wide Gamut, puede no activarse en modo SDR en paneles HDR.
  • Podríamos tener bloqueos en Solid Edge 2019.
  • Podríamos ver una corrupción del color al cambiar el tamaño de la ventana al reproducir un vídeo.

Problemas conocidos

  • Se pueden observar pequeñas anomalías gráficas en Arma 3 y NextPVR.
  • Es posible que algunos juegos no tengan sonido con Intel Display Audio en modo pantalla completa cuando la resolución es diferente a la establecida en Windows o IGCC.
  • Podemos ver bloqueos intermitentes al cambiar la reproducción de UHD Blu-Ray PowerDVD en un monitor externo del modo de pantalla completa al modo de ventana.

Como suele ser habitual, os recomendamos desinstalar vuestros drivers actuales mediante DDU siguiendo nuestro manual. Podéis descargar estos nuevos drivers 26.20.100.7212 desde la web de Intel.

AMD y NVIDIA en problemas por culpa de TSMC: podría no haber suficientes obleas para todos

By Mr. Fantástico 2 months ago 275 Views No comments

De nuevo TSMC a escena, y de nuevo no por buenas noticias. Si hace unos días informábamos sobre su capacidad de producción de 5 nm y su adelanto de cara a principios de 2020, hoy tenemos que informar de la cruz a esta noticia. Y es que, según las fuentes, TSMC está en problemas actualmente y de cara a todo el año que viene, lo cual podría significar retrasos para AMD e indirectamente para NVIDIA en sus tarjetas gráficas.

TSMC tendría un problema mayor del que se esperaba

Aunque ya hemos hablado de los problemas que los taiwaneses están enfrentando con el suministro de obleas, un nuevo capítulo se abre en este drama para dar cabida a más empresas afectadas por este ya titánico problema.

Y es que las obleas de 7 nm no solo van a enfrentar un problema de suministro en la actualidad, que ha obligado a la compañía a retrasar las entregas en un plazo de hasta 6 meses, sino que ahora TSMC aconseja a sus clientes que reserven capacidad de dichas obleas a 7 nm para afrontar todo 2020.

Esto es, lógicamente, algo preocupante, ya que da a entender que los suministros no solamente son limitados en cuanto a su capacidad de producción, sino que no tienen vistas a mejorarla de cara al año que viene.

Evidentemente, esto implica que empresas punteras como Apple y AMD sufran las consecuencias a estos anuncios. Los procesadores Ryzen 3000 y los nuevos Threadripper 3 estarían de nuevo en un posible problema con el stock a largo plazo, donde de momento no sabemos cuál va a ser la asignación y prioridades de TSMC, no solo con AMD, sino con el resto de las empresas afectadas.

El sentido común nos hace pensar que los taiwaneses asignarán un mayor volumen de obleas a sus clientes preferenciales, que en este caso serían las dos empresas nombradas, pero con el despegue de nuevo de Apple y sus iPhones, no está claro quién tiene la sartén cogida por el mango frente a TSMC.

NVIDIA también está afectada: TSMC ajusta el suministro para 16, 12 y 10 nm

tsmc4

Como si fueran videntes, NVIDIA también se va a ver afectada por los problemas en TSMC. Su salto hacia Samsung, del cual hablamos hace meses, fue providencial para la situación que vivirá la fundición de cara a 2020 y donde NVIDIA no tendría cabida en los 7 nm y 7 nm+.

Samsung en cambio, aunque con retrasos, les tendrá como clientes premium por el alto volumen que esperan de chips en su nuevo nodo EUV. Pero hasta entonces, NVIDIA tendrá que ajustar sus cuentas, ya que TSMC ajustará el número de obleas para los nodos de 16, 12 y 10 nm, lo que significa que habrá retrasos para la entrega de los chips Turing.

Ayer hablamos de los movimientos de los de Huang para ser más rentables económicamente, pero el anuncio de hoy por parte de las fuentes pone de nuevo en entredicho ese movimiento, donde es de esperar que NVIDIA ya supiese de estos retrasos por parte de los directivos desde Taiwán.

Así, tanto AMD como NVIDIA comenzarán a vivir una situación algo desconocida para ellos, ya que hace bastantes años que no se daba una situación similar. El problema que enfrentan, es que Intel llegará en 2020 con Gen 11 y en 2021 se espera que sea competitiva contra las dos grandes en cuanto a tarjetas gráficas.

¿Será finalmente Samsung la que salve las castañas del fuego a los dos principales fabricantes de GPUs del mundo? ¿Seguirá AMD con TSMC si esta demuestra que no puede satisfacer la demanda? y quizás la pregunta más importante ¿el suministro y precios de las GPU se mantendrá estable?

Muchas preguntas, pocas respuestas, pero lo que está claro es que esta situación tendrá un desenlace final, el problema es saber hacia dónde se enfoca.

Razer lanza Nari Ultimate para Xbox One: sus mejores auriculares para consola

By Mr. Fantástico 2 months ago 174 Views No comments

Ya analizamos en su día la versión Nari Ultimate para PC y se llevaron una gran nota en dicha review, pero ahora Razer vuelve a la carga con un modelo casi idéntico enfocados para consola. Dicho modelo se hace llamar Razer Nari Ultimate para Xbox One y presenta como su hermano para PC la tecnología háptica, siendo los segundos del mundo en incluirla.

Razer lleva a la Xbox One el mejor de sus auriculares para PC

Razer dio un paso adelante en el mercado de auriculares añadiendo a la versión primigenia de PC la tecnología háptica de vibración y con ello redefinió el sector de los auriculares.

Esta tecnología también ha sido llevada al mundo de las consolas donde además se ha visto potenciada por la tecnología Razer Hypersense, donde juntas lograrán mejorar el sonido posicional y aumentar la experiencia inmersiva del jugador.

Como ya sabemos, la tecnología háptica está desarrollada por Lofelt, una empresa alemana líder en este tipo de técnicas táctiles inmersivas y realistas. Por ello, estos Razer Nari Ultimate para Xbox One incluyen unos drivers hápticos especiales que, unidos a un procesamiento inteligente de señales de audio, consiguen generar sensaciones táctiles de alta definición en tiempo real.

Básicamente, lo que logran es captar señales de audio y transformarlas en vibraciones dinámicas, por lo que, al incluir el sentido del tacto en estos auriculares, las señales de audio imitan con precisión la acción en cada juego.

Esto evidentemente le da una ventaja al jugador que los posea, donde podremos oír hasta los pasos más sutiles y, por otro lado, disfrutar de unas explosiones mejor posicionadas.

Como buenos auriculares premium, están diseñados para largas horas de juego, aportando la mayor comodidad posible. Sus aurículas giratorias están equipadas con almohadillas de espuma viscoelástica, donde además incluyen una capa de gel refrigerante para mantener nuestras orejas frescas.

Tecnología Xbox Wireless y Windows Sonic

Nari-Ultimate-for-Xbox-One---Product-Photo-(1)

Lo que diferencia realmente a estos Razer Nari Ultimate para Xbox One de la versión de PC es la inclusión de la tecnología Xbox Wireless, lo que garantiza una conexión directa sin necesidad de usar un conector inalámbrico extra.

Además, estos auriculares son totalmente compatibles con Windows Sonic para lograr un audio más envolvente y realista.

Al igual que el modelo original de PC, tendrá un micrófono unidireccional retráctil que podrá ser ocultado según nuestras necesidades, donde además porta una función de silenciado rápido, un ajustado de intensidad Hypersense en los mismo auriculares y controles para equilibrar el sonido de chat durante el juego.

Nari-Ultimate-for-Xbox-[2019]-Render-(6)(1)

Incluyen la misma estructura de aluminio en forma de diadema que tanto gusta a los jugadores profesionales, donde la almohadilla central tiene un acolchado suave.

La versión para PC se lanzó hace justamente un año y como ya vimos, nos dejó un gran sabor de boca. Razer un año después lanza estos Nari Ultimate para Xbox One a un precio de 219,99 euros, estando disponibles a partir del día de hoy para USA, Canadá, la Unión Europea, Australia y Nueva Zelanda, donde no se ha especificado cuando llegarán al resto del mundo.

La guerra de los núcleos llegaría a su fin: AMD Zen 3 doblaría su rendimiento por Core

By Mr. Fantástico 2 months ago 311 Views No comments

Estamos inmersos en una guerra que ya parecía extinta en el pasado, pero que de nuevo a vuelto a impulsarse para el mercado de consumo. El aumento paulatino del número de núcleos vuelve a ser tendencia de la mano de AMD, pero esta guerra puede llegar a su fin gracias a la arquitectura Zen 3, la cual doblaría el rendimiento por cada núcleo en el procesador.

AMD Zen 3 está terminada en cuanto a su diseño

Tras desvelar su último roadmap, AMD levantó mucha expectación cuando afirmó que ya tenía lista su nueva arquitectura Zen 3, la cual debería llegar en algún punto del año que viene bajo el nuevo nodo de TSMC de 7nm +.

Las mejoras de dicho nodo se estipulan en un 15% más de densidad por cm2 y promete aumentar la frecuencia, dato que no se ha revelado por evidentes motivos.

Aunque AMD desvíe la atención actualmente con sus EPYC Rome, Ryzen 9 3950X y Threadripper 3, lo cierto es que tienen puestos los ojos en Zen 3 desde hace meses y están trabajando duramente con TSMC en cuanto a la optimización del nodo con su arquitectura y los consumos, para adaptar las SKU/voltajes y con ello el microcódigo para las nuevas CPUs.

Pero, aunque la información sobre todo esto fluye con cuentagotas y es realmente difícil encontrar siquiera rumores, hoy tenemos uno que puede marcar el devenir de los tres principales mercados.

Ante todo, y como es lógico, tomad los datos con prudencia, puesto que no hay confirmación oficial, ni siquiera ha sido filtrada (que sepamos) por alguien con una contrastada reputación, pero lo cierto es que el rumor va cogiendo fuerza y muchos ya están investigando acerca de ello para comprobar su veracidad.

Como sabemos, AMD e Intel pueden realizar dos tareas simultáneas por núcleo, donde la tecnología de AMD se hace llamar SMT y la de Intel HT. Pero estas no son las únicas técnicas de subprocesos múltiples de la industria, ya que IBM va mucho más allá y por aquí es donde AMD parece que ha optado de cara a Zen 3.

AMD Zen 3 permitirá cuatro hilos por cada núcleo

Zen-3

Efectivamente, los rumores indican que AMD ha escogido la senda marcada por IBM y pretende golpear a Intel donde más débil está ahora mismo: en el recuento de núcleos e hilos. El primer golpe llegó con Zen y ahora con Zen 2 Intel a duras penas aguanta de pie en este apartado.

Los procesadores IBM Power por su parte, optan por sistemas de subprocesos donde éstos son capaces de trabajar con 4 e incluso 8 hilos por núcleo.

Hasta tal punto llega la superioridad de IBM en este aspecto que lanzó su tecnología de 8 hilos por Core hace 5 años con sus Power8, por lo que el paso de AMD con Zen 3 seguirá por detrás en este aspecto, pero duplicará la potencia de cada núcleo y con ello la de todo el procesador (en cuanto a arquitectura se refiere).

Por lo tanto, Zen 3 podría incorporar al mercado de consumo configuraciones de CPUs nuevas como Quadcores con 16 hilos u octacores con 32 hilos, algo impensable a día de hoy para las plataformas mainstream y HEDT. No podemos olvidar por supuesto el mercado de servidores y portátiles, donde una tecnología SMT de ese calibre puede revolucionar el sector si AMD mantiene frecuencias e IPC.

Ya sabemos el rendimiento de la Microsoft Surface Pro 7 en 3DMark

By Mr. Fantástico 2 months ago 305 Views No comments

La Surface Pro 6 lleva relativamente poco tiempo en el mercado, pero Microsoft ya tiene en el horno la nueva generación Pro 7. Por ello, lanzará en breve esta nueva versión con mejoras interesantes y donde todo apunta a que ha recurrido a Intel para pelear por la corona del rendimiento frente a Apple. Ahora se ha filtrado el rendimiento de esta nueva Surface Pro 7 bajo 3DMark ¿qué será capaz de hacer?

Microsoft se alinea con Intel para poder competir contra Apple

Es una guerra en la distancia, una guerra que pretende desacreditar y hundir a ser posible al rival, donde no se espera cuartel alguno por ninguna de las partes. Este podría ser perfectamente el resumen de la guerra que está enfrentando actualmente a Microsoft y Apple por lograr el dispositivo más compacto y liviano, pero también más potente.

La brecha entre los MacBook Air y el resto se estrechó en el pasado y actualmente puede que esa diferencia sea nula o negativa para los de Cupertino.

Y es que los últimos rumores sobre los de la manzana mordida y su equipo más liviano los sitúan con una diana en plena pantalla. Los motivos son simples: Apple se ve obligada por la presión de la competencia a implementar en el nuevo MacBook Air CPUs de 4 núcleos y con ello a mejorar la refrigeración.

Esto obliga por otro lado a optar por CPUs Comet Lake-U (menor TDP y precio), lo que supone una desventaja desde el punto de vista del rendimiento. En el lado opuesto del ring tenemos a Microsoft con su Surface Pro 7, de la cual hoy tenemos la confirmación de que, al menos, llegará con un Intel Core i7-1065G7, es decir, con Ice Lake a 10 nm y iGPU Iris Plus.

Microsoft está poniendo toda la carne en el asador y para ello ha tenido que optar por Intel y sus CPUs, ya que AMD actualmente en arquitectura de núcleo no puede competir con la serie 3000 de APUs y Renoir parece todavía lejos en el mercado.

La Surface Pro 7 llegará con el segundo mejor procesador de Intel para portátiles

Intel-10th-Gen

La apuesta de Microsoft pasa por un Intel Core i7-1065G7, un procesador de cuatro núcleos y ocho hilos con arquitectura Ice Lake a 10 nm, que portará una frecuencia base de 1,3 GHz y un Boost de 3,9 GHz, todo junto a 8 MB de L3.

Incluye la nueva iGPU Iris Plus, lo cual supone tener la nueva arquitectura Gen 11 con 64 EUs y a una frecuencia de 1,1 GHz. Estos datos suponen un TDP configurable de entre 15 vatios y 25 vatios, algo que Microsoft podrá elegir según las necesidades y solvencias térmicas de esta nueva Surface Pro 7.

Como vemos, Microsoft ha optado por la segunda variante más potente de todo lo presentado por Intel, donde ha situado a Apple entre la espada y la pared, ya que los recursos térmicos de los de Cupertino son distintos a los que puede implementar Microsoft.

Centrándonos en su rendimiento, 3DMark afirma que la CPU ha funcionado a una velocidad de 1,5 GHz, donde al parecer Microsoft ha optado en este modelo por mantener el menor de los TDP, es decir, 15 vatios.

Ello limita el rendimiento tanto en CPU como en GPU, pero aun así las puntuaciones son bastante decentes bajo Sky Diver 1.0: 6.565 puntos en GPU, 9.594 puntos en física y 7.284 puntos en combinado, lo que da un resultado total de 6.963 puntos.

No es una gran puntuación global si lo comparamos con tarjetas gráficas dedicadas, pero dadas las limitaciones obvias por TDP, es una puntuación muy a tener en cuenta y que está por encima del 22% de los portátiles actuales.

¿Esperando para AMD Navi 14 y las APUs Renoir? Este es su rendimiento en GFXBench

By Mr. Fantástico 2 months ago 187 Views No comments

Ryzen 3000 era tan esperado como parecía antes de su lanzamiento, o al menos así lo muestran sus ventas. Pero AMD tiene más pólvora en el bolsillo mediante sus nuevas APU y GPUs de gama baja, ya que GFXBench ha filtrado el rendimiento de la iGPU de Renoir y al mismo tiempo la nueva RX 5500 ¿estarán las dos tarjetas gráficas a la altura de lo que se espera?

AMD Renoir, posiblemente las APUs más esperadas

Qué decir de Renoir, la arquitectura general para APUs de AMD que promete devolver a la compañía a la corona del rendimiento y, sobre todo, precio. Para los más despistados, Renoir debería llegar en un proceso litográfico de 7 nm con núcleos Zen 2 y donde su iGPU sería Navi.

Aunque de momento no conocemos muchos más detalles, se estima que sea la arquitectura de PS5 y Xbox Scarlett, salvo que estas implementarán un SoC específico.

Pero, en cualquier caso, la arquitectura soportará memorias LPDDR4-3733 MHz o 4266 MHz (no está totalmente definido) siendo la primera en dar el salto a estas nuevas velocidades con el consecuente aumento del rendimiento que ello conlleva por simple arquitectura de núcleo.

Lo filtrado por GFXBench refleja un rendimiento bastante aceptable, pero de momento no a la altura de lo que se espera de la nueva iGPU bajo RDNA.

De los 7 test que tiene la suite solo se han ejecutado dos: Manhattan y T-Rex, donde en el caso del primero se ha conseguido una puntuación Onscreen de 3713 frames (59,9 FPS) y 4981 frames (80,4 FPS) para Offscreen.

En T-Rex las puntuaciones han ascendido hasta los 3354 frames (59,9 FPS) y 9750 frames (174,1 FPS). Para poner los datos en perspectiva, un Ryzen 5 2400G (no hay datos oficiales del 3400G por desgracia) con Vega 11 como iGPU logra 53,4 FPS / 53,2 FPS y 185,2 FPS / 198,1 FPS respectivamente.

Este rendimiento tan dispar no es propio de dos arquitecturas ya maduras, pero, en cualquier caso y siendo positivos, la mayor de las diferencias a favor de Renoir y su iGPU Navi es de un 51,12%, un salto de rendimiento considerable.

La Radeon RX 5500 aparece en escena

AMD-Radeon-RX-5700_Navi-GPU_7nm-RDNA

El caso de la RX 5500 es más sencillo de comparar, aunque por otro lado los datos son mucho menores. Como podemos ver, solo se ha mostrado los datos de Manhattan Onscreen, donde su puntuación ha sido de 5430 frames (87,6 FPS).

De nuevo y para ponerlo en perspectiva, usaremos las puntuaciones de la base de datos de la propia GFXBench con una RX 550, gráfica que será sustituida por la nueva RX 5500.

En este caso, la RX 550 consigue 3716 Frames (59,9 FPS), lo que arroja una diferencia porcentual de +46,24% a favor de la tarjeta Navi.

Esto supone un increíble paso adelante para la gama baja de AMD, que podría llegar incluso a equipos OEM como ya vimos con la RX 550 y que, por otro lado, deja a NVIDIA sin poder ofrecer de momento respuesta alguna, ya que esta RX 5500 se sitúa por debajo de la GTX 1650.

Podríamos estar ante otra jugada maestra de los de Lisa Su, donde NVIDIA no contemplaba hasta ahora competir, por lo que ¿es posible que los de Huang quieran introducirse en un mercado como este lanzando una nueva GTX?

Intel tendría de nuevo problemas de suministro de procesadores a 14 y 10 nm

By Mr. Fantástico 2 months ago 243 Views No comments

Cuando los fantasmas parecían enterrados y en pleno retraso de producción de TSMC para su principal competidor AMD, hoy sabemos mediante Digitimes que Intel enfrenta de nuevo una posible recesión en su cadena de suministro. Esto provocaría, de nuevo, daños económicos a todos sus proveedores y podría llevarnos a una nueva escalada de precios por la alta demanda y la nula oferta.

Cuando Intel podía empezar a levantar cabeza, vuelven los problemas

Después de año y medio de escasez de procesadores, después de pérdidas millonarias por los retrasos, de enfados en distribuidores que no consiguen satisfacer la demanda y están perdiendo dinero, y así un sin fin de problemas más, Intel parece estar de nuevo en serios retrasos en su cadena de suministros.

Y es que es dejar el verano atrás y comenzar septiembre suele repercutir en las arcas de todas las empresas, ya que los usuarios se lanzan a comprar artículos de electrónica para afrontar la vuelta a los estudios o al trabajo.

De nuevo y según informan las fuentes, Intel ha visto recientemente como su capacidad de fabricación de chips de 14 nm está por debajo de la demanda actual, lo que puede llevar a muchos proveedores de portátiles a posponer sus nuevos lanzamientos de modelos, incluso para el próximo año.

Esto levanta, lógicamente, una alarma en la industria, ya que además en esta ocasión no pueden mirar para el otro lado y a su rival directo, AMD, los cuales también informan de retrasos en ciertos productos y TSMC suministrará obleas cada seis meses.

Por lo tanto, la escena es dantesca. Si Intel enfrenta problemas reales en 14 nm por centrar la producción en 10 nm (más que probable), pero al mismo tiempo sigue lanzando procesadores con su nodo más maduro, y AMD ya sufre los problemas de stock en tiendas, solo podemos esperar una cosa: poca o nula disponibilidad de procesadores, especulación de minoristas y precios al alza en el resto de tiendas.

AMD y ahora Intel, ¿es NVIDIA la única compañía que se salva?

AMD-vs-INtel-vs-Nvidia

El panorama no puede pintar peor, sobre todo de cara a unas fiestas como navidad, donde el consumo se dispara en todo el mundo. AMD está casi K.O en ciertas gamas, Intel vuelve a las andadas tras invertir 1.500 millones en aumentar sus fábricas y con ello la producción, la demanda de CPUs de uno y otro parece imparable, pero la oferta es cada vez menor.

De las tres grandes, solo NVIDIA parece estar tranquila con sus 12 nm en TSMC, por lo que viendo el escenario, más propio de una tragicomedia que de empresas que deberían poder adelantarse al mercado mediante estudios internos, es posible que retrase su salto a los 7 nm de la mano de Samsung.

Otra compañía (Samsung) que enfrenta retrasos en su nodo de fabricación y que hasta bien entrado 2020 no lo tendrá en producción en volumen.

En cuanto a las CPUs y volviendo al hilo principal, ComputerBase afirma que, de 74 portátiles enumerados con procesadores Comet Lake, solo 10 están disponibles.

De 37 portátiles listados con Ice Lake, solo uno está disponible. Es decir, solo un 13,51% de portátiles con procesador a 14 nm y solo un 10% de los que incorporan CPUs a 10 nm podría ser comprado por los usuarios.

Entonces ¿qué pasará con el i9-9900KS y Cascade Lake-X? ¿Retrasará Intel ambos como ha hecho AMD con el Ryzen 9 3950X y Threadripper?

De momento no hay noticias, pero no sería descartable si finalmente los problemas se agravan, estamos a menos de un mes del supuesto lanzamiento y la situación empeora. Tendremos que estar atentos al mercado y sus fluctuaciones, porque una alarma de este calibre suele impactar en poco tiempo en los precios.

HDMI: resoluciones y hercios que permite cada cable y versión

By Mr. Fantástico 2 months ago 275 Views No comments

HDMI actualmente es un estándar que cuenta con un gran apoyo por parte de todos los fabricantes de imagen y sonido a nivel mundial. Pero muchos usuarios tras el paso de las versiones de esta interfaz están perdidos sobre la resolución o hercios que cada una de ellas es capaz de soportar. Por ello, hoy hablaremos sobre las diferencias que hay entre ellas y sobre los cables que cada una necesita.

HDMI desde 1.0 hasta 2.1: ¿cómo ha ido evolucionando la interfaz?

No vamos a comentar la historia de HDMI desde sus inicios, pero siempre viene bien un resumen básico de la especificación como tal, pero, sobre todo, como ha ido evolucionando con el paso de los años.

HDMI o High-Definition Multimedia Interface se diseñó a finales de 2002 (1.0 con 3,96 Gbit/s) y se comercializó ya entrado el año 2003 mediante su especificación 1.0, la cual podía soportar una resolución de 1280×720 y hasta 60 Hz mediante 1,45 Gbit/s, o en su defecto 1920×1080 hasta 60 Hz con 3,20 Gbit/s.

HDMI

Como vemos, las limitaciones eran evidentes, aun a cuenta de que contaba con los 19 pines actuales, pero era un estándar que acababa de nacer y necesitaba tiempo. La versión 1.1 contenía las mismas características, pero añadía soporte para DVD Audio.

HDMI 1.2 (3,96 Gbits/s como máximo) llegó en agosto de 2005 y trajo consigo el audio de hasta 8 canales, donde además en cuanto a resolución y Hz se elevaron en 1280×720 hasta 120 Hz y se dio soporte para 1440p a 30 Hz con un ancho de banda de 2,78 Gbits/s, donde curiosamente se necesitaba menos ancho que en FHD a 60 Hz (3,20 Gbit/s).

Por su parte HDMI 1,2a solo añadía la especificación CEC (Control Electrónico del Consumidor) respetando todo lo dicho de su versión anterior.

HDMI 1.3 supuso un cambio de cable y la introducción del 4K

HDMI-1.3-cable

En verano de 2006 llegó la versión HDMI 1.3 (8,16 Gbit/s como máximo) la cual supuso un nuevo avance en cuanto a resolución y hercios para gaming, pero también suponía unas limitaciones en ciertos modos. Así, 720p podía soportar hasta 120 Hz y FHD se elevaba hasta los 144 Hz de forma nativa, donde por primera vez vimos el soporte a los 240 Hz bajo esta resolución.

Dicho soporte incluía compresión de RGB para reducir el ancho de banda del cable, ya que se llegó a los 14 Gbits/s. En 2560x1440p se dio soporte hasta los 144 Hz también, pero al igual que en 1080p incluían compresión RGB, donde llegó hasta los 14,08 Gbit/s.

Los 120 Hz también sufrieron dicha compresión a pesar de que solo obtenían un ancho de banda de 11,59 Gbit/s. Por primera vez un cable como estándar soportaba la resolución 4K, y lo hacía de forma nativa a 30 Hz sin restricciones y a 60 y 75 Hz con compresión del color.

No podemos olvidar el soporte a 5K con compresión de color debido a los 10,94 Gbit/s que necesitaba.

Las pretensiones del estándar no cambiaron mientras iban sacando versiones y se mantuvo en términos de resolución y hercios exactamente igual hasta la 1.4b, también incluida. Esto no quiere decir que a cada versión no hubiese mejoras, ya que entre 1,3 y 1,4b se agregó, por ejemplo, DTS-HD o Dolby TrueHD, un canal de retorno de audio o el soporte para Ethernet.

HDMI 2.o y 2.0b

Con la versión 2.o de HDMI (14,4 Gbit/s como máximo) que llegó a finales de 2013, se dio otro salto de prestaciones bastante importante, ya que 720p se mantuvo nativa hasta los 120 Hz, 1080p hizo lo propio hasta los 240 Hz y 1440p consiguió que los 144 Hz no necesitasen compresión del color con su consecuente pérdida de calidad.

Por desgracia, los 1440p a 240 Hz sí seguían necesitándolos (24,62 Gbit/s). Por su parte, 4K fue compatible por primera vez hasta los 75 y 120 Hz, ambos con compresión RGB, pero pudimos usar los 60 Hz sin pérdida.

La resolución 5K (2880p) tuvo por fin los 30 Hz nativos sin pérdida e incluso llegó a los 60 Hz con compresión, lo que evidenciaba que se podía escalar un paso más en cuanto a píxeles. Y así fue, ya que pudimos disfrutar los 8K (24,48 Gbit/s) a 30 Hz con compresión RGB.

Otros detalles relevantes fueron la implementación de audio hasta 1536 kHz (7.1 a 192 KHz), soporte para relación de aspecto 21:9, o la sincronización dinámica de vídeo y audio en streaming.

HDMI 2.0a se lanzó en 2015 y solo agregó soporte para HDR, mientras que la versión 2.0b salió un año después aportando como única novedad HLG (Hybrid Log-Gamma),

HDMI 2.1

HDMI-2.1

La última versión del estándar llegó en enero de 2017 con nuevas mejoras en resolución y hercios, donde por estándar se afirma que se necesita un cable HDMI 4K como tal, aunque muchos aconsejan en cable certificado por el aumento del ancho de banda tan brutal que se consiguió.

Y es que pasamos de los 14,4 Gbps de la versión 2.0b a 42,6 Gbps de esta versión 2.1. Esto supone que en 720p tendremos 30, 60 y 120 Hz, en 1080p hasta 30,60, 120, 144 y 240 Hz, en 1440p soporte hasta 30, 60,75, 120, 144 y 240 Hz, todos sin compresión de color.

Pasando a 4K, tendremos 30, 60, 75, 120 y 144 Hz de forma nativa y sin restricciones, pero los 240 Hz (54,84 Gbps) necesitarán compresión, aunque en este caso ya optamos a DSC y no RGB como tal.

5K o 2880p albergará 30 Hz, 60 Hz y 120 Hz, teniendo esta última compresión DSC al necesitar 45,66 Gbps. Por último, 8K solo tendrá de forma nativa 30 Hz, ya que, aunque ahora se soportan los 60 Hz y 120 Hz estas dos tasas de refresco necesitarán DSC.

Los 10 consejos para mantener lo más frío posible nuestro PC

By Mr. Fantástico 2 months ago 510 Views No comments

Se acaba el verano y muchos PCs lo están agradeciendo, ya que hemos pasado unas temperaturas muy altas en algunos puntos del país. Pero esto nos ha servido para prepararnos de cara al año que viene, ya que podría ser incluso peor. Por ello, hoy vamos a ver 10 sencillos consejos para intentar mantener lo más frío posible nuestro PC en cualquier época del año.

Los pequeños detalles cuentan a la hora de conseguir la mejor temperatura posible en nuestro PC

En este artículo vamos a intentar explicar conceptos simples, acciones fáciles de realizar y sobre todo intentar evitar cualquier coste para nosotros, ya que aconsejar con según qué cosas es lo más simple y solo se debería hacer si antes hemos seguido los consejos anteriores.

Por ello, encontraremos consejos más simples, otros en parte muy lógicos y alguno o varios que seguro no sabíamos. ¿Listo? pues vamos allá.

1- Colocación de la torre

PC-desktop-2

Parece obvio, pero puede que muchos no lo sepan, pero la colocación en una habitación de la torre/chasis es primordial a la hora de ganar temperatura en nuestro PC.

En primer lugar, debemos evitar “encerrar” nuestra caja en lugares que al menos no tengan cuatro veces la capacidad interior en litros cúbicos de dicha torre. Como esto es algo complicado de calcular, simplemente tened en cuenta que la torre tenga al menos en tres de sus seis caras libres con un espacio suficiente para que pueda tener una corriente de aire exterior e interior suficiente.

La habitación o el habitáculo debe ser al menos cuatro veces más grande que la torre para garantizar que el reemplazo del aire interior y exterior siempre sea el adecuado.

Por supuesto no debemos tener la torre encajonada en un lugar que no tenga circulación del aire, ya que entonces solo retrasaremos lo inevitable.

2- Posicionamiento de la torre

Chassis-PC-leave-floor

El aire caliente tiende a subir porque el aire frío es más denso, lo que hace que éste desplace al primero hacia la parte superior. Por lo tanto, situar la torre más cerca del suelo puede tener un efecto muy positivo en las temperaturas de nuestro PC.

Igualmente, no recomendamos dejar la torre en el suelo, ya que lo que ganaremos con el aire más frío con el tiempo lo perderemos por la absorción de más partículas de polvo, pelo o cualquier otra sustancia o materia que encuentre a su paso.

Lo ideal sería situarlo entre 25 y 30 cm del suelo, respetando por supuesto el paso nº1.

3- Mantener las entradas/salidas de aire de la torre libres

cooling

Bueno, es algo obvio para muchos, pero ni es el primero ni será el último que vemos que mantiene la torre con elementos que obstruyen el paso del aire, ya sea de entrada o de salida.

Un escritorio liberado de cualquier elemento es lo ideal para un PC, un lugar donde el aire pueda circular libremente tanto dentro del chasis como fuera.

Es conveniente asegurarse que dichas entradas y salidas no tienen filtros antipolvo extremadamente restrictivos y sobre todo que estén limpias. Una comprobación de su limpieza una vez al mes sería suficiente.

4- Mantener la torre cerrada con sus correspondientes laterales

Otro error tan obvio como común: dejar uno o dos laterales/ventanas abiertos en la época de mayor temperatura.

Error garrafal que se puede pagar muy caro. La caja debe estar correctamente cerrada y a ser posible con un correcto flujo de aire interno, el cual dependerá del modelo de torre que tengamos.

Mantener los laterales abiertos permite una mejor temperatura, pero expone a todos los componentes a su enemigo número uno: el polvo.

Si tenemos problemas de temperatura y abriendo los laterales mejoramos mucho, lo que tenemos es un claro problema de flujo interno del chasis.

Una caja correctamente ventilada no necesita los laterales abiertos, apenas hay mejora real, por lo tanto, los laterales cerrados y en general la caja, con todos sus accesorios etc.

5- Ser extremadamente limpios en el lugar donde se sitúe la caja

Desktop-clean

Es otra obviedad, pero quizás algunos no lo tengan tan en cuenta. La limpieza y orden en un escritorio minimiza el polvo y ayuda en general a cualquier componente a tener su temperatura óptima.

Cuando hablamos de ser extremadamente limpio nos referimos en todos los sentidos, ya que todo genera polvo, tanto nosotros, como nuestras mascotas como el propio aire al abrir una ventana.

Cuidar los detalles en este paso nos ahorrará parte del trabajo del punto siguiente.

6- Limpiar regularmente nuestro PC interior y exteriormente.

Hoy en día tenemos de todo para limpiar nuestros PC, desde cepillos especiales para componentes electrónicos que son antiestáticos y que sacan el polvo de los lugares más inhóspitos, hasta pequeñas “peras” de succión o expulsión de aire, pasando por toallitas de alcohol isopropílico al 70% etc.

Una limpieza cada seis meses (siempre que conservemos una limpieza correcta en el lugar) puede ser suficiente para mantenerlo todo bajo control y tener siempre las mejores temperaturas.

7- Mantener los disipadores limpios y la pasta térmica al día

best-thermal-paste

Ya entrando más en faena con lo que sería nuestro PC, la obviedad vuelve a invadirnos y solamente recomendaremos mantener los disipadores de nuestro PC limpios y en buen estado.

Otra de las recomendaciones es mantener la pasta térmica al día. Esto dependerá de cada modelo de pasta térmica y de los ciclos térmicos que haya sufrido.

Y es que muchas pastas se acaban agrietando con el tiempo, producto de su endurecimiento, lo cual crea puentes de rotura térmicos que hacen que el componente en cuestión a refrigerar por ella pierda rendimiento.

Normalmente, una pasta térmica actual puede durar entre 1 y 2 años sin mucho problema, siempre que el uso y horas de encendido sean las típicas de un uso normal y corriente.

Más horas de uso acelera el proceso por generar más ciclos térmicos, así que podríamos necesitar cambiarla algunos meses antes.

8- Evita el overclock o las sobrecargas de trabajo constantes

CPU-work-load

No hay mucho más que añadir. Realizar overclocking, en el componente que sea, aumentará su temperatura y esta irá a parar a la torre y por ende al resto de componentes.

Evitar cargar el PC cerca del 100% de uso en cualquiera de los componentes también conseguirá reducir la temperatura interna del resto, pero si no queda más remedio podríamos hacerlo a las horas donde la temperatura ambiente sea menor, así mejoraremos la vida útil de cada componente.

La única solución para poder realizar overclocking o cargas durante 24/7 sin empeorar las temperaturas llega en el siguiente consejo.

9- Como último remedio, mejorar la refrigeración o cambiar componentes

Titan X AIO

Es el apartado más sencillo y más eficaz, pero también uno de los más caros lógicamente. Mejorar la refrigeración en base a una torre de mayor tamaño, mejor flujo, mejores disipadores o sistemas de refrigeración repercutirá de forma directa en mejores temperaturas.

Cambiar ciertos componentes por otros más eficientes y con mejores sistemas de refrigeración también ayudará, pero esto es el penúltimo paso antes de cumplir todos los anteriores.

10- Cambiar a sistemas de refrigeración de gama alta

Raijintek-Auras

Como por ejemplo refrigeración líquida custom o simplemente un aire acondicionado en el lugar del PC.

Lógicamente esta la opción menos recomendada por su alto costo, pero llegados a este punto solo se podría aconsejar optar por sistemas que repercutan directamente de dos formas: o absorber una mayor cantidad de calor de los componentes o enfriar el aire ambiente para bajar el del interior del chasis.

No hay más misterio aquí si tenemos que llegar a este punto, sobre todo si buscamos un PC para 24/7 sin demasiadas complicaciones.

REVIEWS Y ANÁLISIS LANZAMIENTOS PROGRAMAS PROCESADORES OVERCLOCK REFRIGERACIÓN MEMORIA RAM PLACAS BASE SATA vs U.2: ¿por qué casi no se usa U.2 en los SSD actuales?

By Mr. Fantástico 2 months ago 523 Views No comments

Estamos acostumbrados a ver en nuestras placas base los habituales conectores para las unidades de almacenamiento que emplean el estándar SATA. Que es el más usado hoy en día en los discos duros y en los SSD en formato de 2,5 pulgadas. Sin embargo, también existe otro formato de conexión, que utilizan cierto tipo de unidades de almacenamiento sólidas, con unas tasas de transferencia cercanas a los SSD NVMe. Este tipo de conexión se denomina U.2.

Originalmente, la conexión U.2 se desarrolló para ser usada en el entorno de servidores, no en el entorno de escritorio que la mayoría de nosotros usamos habitualmente. Su nombre, en aquel entonces, era SFF-8639 y se desarrolló en el año 2011. Con ella, se desarrolló un sistema para comunicar el bus PCIe de la placa base, directamente con los chips de la memoria NAND Flash que hay dentro de los SSD. Y, de esta manera, se podría emplear en las unidades que tuvieran el formato de 3,5 y 2,5 pulgadas. El cual es un tamaño físico muy extendido por todo el mundo, permitiendo reutilizar los racks de almacenamiento de los servidores.

Como tal, el máximo número de vías de datos PCIe que soporta son x4, ya usaran señales de las 2ª o 3ª Generación de este. De hecho, se podría decir que el conector U.2 es el precursor del actual estándar usado para los SSD NVMe que muchos usamos en nuestras placas base para nuestros SSD.

En el año 2015, este estándar cambió de nombre a U.2, para comenzar a usarse en algunos modelos de placas base fuera del entorno de servidores. Aun así, dadas las características especiales de estas unidades de almacenamiento, hasta el momento es un tipo de formato que solo se ha visto en algunas placas base de la gama HEDT de Intel.

El estándar U.2 permite tasas de transferencia de datos de hasta 5 GB/s

En la anterior imagen podéis ver cómo es un conector U.2 en la parte trasera de un SSD. Pero, además, esta foto también nos deja bien a las claras que, ya desde el principio se sabía que estas unidades se calentarían bastante. De ahí que la parte inferior de ella tenga aletas destinadas para su refrigeración.

En esta imagen podéis ver la distribución de los pines en el conector U.2.

El cable conector U.2 es bastante diferente al cable SATA que solemos usar con nuestras unidades.

El conector que está más a la derecha de la imagen es el cable de alimentación para el SSD (que deberemos de conectar a nuestra fuente de alimentación). En el centro está el conector que va a la unidad de almacenamiento. Y, en la parte izquierda superior está el conector que se une a la placa base.

La anterior imagen nos muestra el conector de la placa base que necesita el U.2. Que es bastante más grande que el conector SATA que suelen emplear nuestras unidades de almacenamiento. Este conector tan grande, es necesario para dar cabida a las 4 vías de datos para el PCIe. Gracias a ellas, los SSD que emplean este estándar pueden alcanzar los 5 GB/s (teóricos) de tasa de transferencia de archivos.

U.2 no tiene cabida en el entorno de escritorio

Aunque el estándar U.2 lleva con nosotros desde el año 2015, realmente no se lo ha visto en las placas base de gama baja y media. Y en contadísimas ocasiones en las de gama alta. En el entorno HEDT sí ha sido algo más corriente ver su presencia, aunque tampoco está extendido en exceso. Los motivos son los siguientes:

Falta de vías PCIe en los procesadores

Los procesadores de escritorio suelen tener unas 24 vías de datos disponibles para el bus PCIe. De estas vías, una parte bastante importante se las llevan las destinadas a la tarjeta gráfica dedicada (16 como mínimo). Del resto, hay 4 de ellas que se destinan al conector/es M.2. Y sabemos bien que estas vías de datos se comparten con el bus SATA de la placa, porque al conectar una unidad NVMe se anulan uno o dos puertos SATA de la placa base.

En cambio, los procesadores del entono HEDT pueden tener fácilmente el doble de vías de datos PCIe que los modelos de escritorio. Por ejemplo, los AMD Threadripper tienen 60 vías de datos PCIe.

No se hay unidades disponibles a precios asequibles

Una de las ventajas que tienen los SSD, ya sean SATA o NVMe, es que están disponibles en todas las tiendas. Y sus precios, gracias a las continuadas bajadas que se han dado durante el 2018 y parte del 2019, son bastante asequibles para casi todos los usuarios. Sin embargo, los SSD U.2, aunque sí se pueden conseguir en algunas tiendas, tienen unos precios que son bastante más caros que incluso un SSD NVMe de altas prestaciones. No es raro ver que unidades de 280 GB cuesten cerca de 450 euros, frente a los 65 euros aproximados que cuesta una unidad SSD NVMe M.2.

El conector U.2 es bastante aparatoso

Así como los conectores SATA y M.2 son bastante pequeños, el conector que usa U.2 es bastante aparatoso. Y, dado que en las placas base del entorno de escritorio, el espacio disponible es bastante poco, el espacio que ocuparía puede ser usado por otro componente que resultara más útil para el usuario. En el entorno HEDT, donde es más normal ver placas base en formato E-ATX, sí hay espacio para este conector y sus controladores asociados.

En resumidas cuentas, U.2 no tiene un sitio en el entorno de escritorio, dado que la ranura M.2 es capaz de hacer lo mismo que U.2 pero ocupando mucho menos espacio en la placa.