Categoría: Procesadores

Fabio Baccaglioni


En una de esas extrañas vueltas de la vida es Qualcomm quien terminará fabricando procesadores en Samsung. Recordemos que ambas empresas son tanto rivales como socias, cuestiones de capitalismo.

Qualcomm es uno de los mayores creadores de procesadores para celulares, pero no tienen fábricas propias, fabrican en TSMC. Samsung, por su parte, es el mayor fabricante de celulares y si bien tiene una línea propia de procesadores, los Exynos, depende en gran medida de Qualcomm para casi todas sus líneas de teléfonos.

Este entrecruce es normal, Samsung le fabrica los procesadores a Apple, pero a la vez son rivales en los celulares, Qualcomm ahora necesita mejorar la performance energética de sus SoC (System on a Chip, o básicamente el procesador junto a muchas cosas más en el mismo silicio) ya que el mejor proceso de TSMC es de 20nm.

Samsung en cambio ofrece la posibilidad de fabricar en 14nm, menor tamaño, mejor eficiencia, y un Snapdragon 820 que necesita de un fabricante que pueda crear el SoC y que éste no sirva para cocinar el bolsillo de quien posea un teléfono con dicho procesador. Qualcomm debe optar.

El Snapdragon 820 es un procesador para el año que viene, pero si no logran solucionar el problema térmico y abaratar el coste de fabricación se hará muy cuesta arriba y con Intel fabricando a 10nm obviamente estan en desventaja. Pasar a la fábrica de Samsung tiene un coste adicional pero, por ejemplo, Qualcomm ya perdió al Samsung Galaxy S6 porque el Snapdragon 810 se quedó atrás con respecto al último Exynos.

El 820 además incorpora el modem 4G LTE en el SoC por lo que hace no sólo más eficiente, además achica el tamaño de la placa del celular permitiendo más batería, los beneficios son obvios.

Como verán son todos rivales pero los negocios son los negocios, nadie se querría perder a un cliente como Qualcomm y TSMC está en apuros si quiere fabricar los mejores SoCo o quedarse con las líneas más sencillas.

Via Re/Code
Fabio Baccaglioni


Intel no va a dejar el mercado mobile nunca, no puede arriesgarse y debe seguir intentando, el nuevo Atom es un ejemplo de que la estrategia es ganar el mercado mobile como sea.

La nueva línea cuenta con una nueva nomenclatura, los Atom x3 apuntando a un mercado de bajos recursos, y los x5 y x7 al mid y high end.

De hecho, estos dos estan basados en Cherry Trail, bajo proceso de 14nm y con video Broadwell, el x3, en cambio, es un procesador menor con gráficos Mali (de ARM!) y producido en 28nm por TSMC.

El mayor x3 es el C3440 con cuatro núcleos, un GPU Mali 720 MP2, 4G LTE, pero es poco probable que lo veamos en occidente.



El x5-8300, x5-8500 y x7-8700 son los que realmente marcan la diferencia ya que estan basados en Cherry Trail y su proceso de fabricación de 14nm aumentan sus ventajas en móviles. Del lado del CPU no vamos a ver mucha diferencia, cuatro núcleos x86, pero del lado gráfico se pasa del Intel HD Gen 7 a Gen 8, en ves de usar el GPU del Ivy Bridge utilizan el del Broadwell.

Todavía no hay benchmarks aunque lo obvio es que ya la potencia no es la discusión, todos los SoC de Qualcomm, Samsung, Apple e Intel estan a la altura de lo necesario en un teléfono, el tema es el consumo y en este sentido son sólo Samsung e Intel los que lograron llegar a los 14nm, Intel tiene de qué preocuparse, Samsung llegó a este proceso de fabricación mucho más rápido de lo esperado y esa típica ventaja se anuló.
Fabio Baccaglioni
No nos olvidamos de AMD!, durante el International Solid-State Circuits Conference presentaron lo que será el nuevo CPU Carrizo con los núcleos "Excavator", que vienen a reemplazar la arquitectura Bulldozer.

Los Carrizo apuntan casi exclusivamente a Notebooks salteando el mercado desktop y con mucho énfasis en el consumo, o más bien, el ahorro de energía.



Estos nuevos CPUs, fabricados en el proceso de Global Foundries de 28nm "Super High Performance" (28SHP) combinan varios cores Excavator, un GPU GCN, controlador y hub Fusion, compatibilidad full HSA, True Audio, un chip ARM TrustZone y varios cambios más.

El Southbridge se integra y de esta forma le saca provecho a los 28nm siendo que antes era un chip de 65/45nm, reduce el voltaje, el consumo y la distancia de la interconexión HyperTransport. Estas son las ventajas aunque aumenta la cantidad de transistores en el CPU por ende el calor generado, pero las ventajas superan esto ampliamente.



Para esto han reducido notablemente el tamaño de cada core con un diseño interno más orientado al orden que tienen los GPU logrando hasta un 23% menos de espacio, de hecho, han logrado integrar 8 cores GCN en vez de 6 como en los Kaveri aun manteniendo 20W máximos, el voltaje adaptable logra ahorrar otro 20% de consumo.

Es más, en esta iteración suman el estado S3 que apaga casi todos los circuitos dejando un consumo de apenas 50mW contra 1.5W en Idle, esto se traduce en mucha mayor duración de batería con el sistema suspendido y apenas un segundo para recuperar el estado previo.

El ahorro de espacio con respecto a los Kaveri es interesante, el anterior tenía 2.3 mil millones de transistores en una superficie de 245mm2, el Carrizo en cambio 3.1 mil millones de transistores en 250mm2, integrar el Southbridge pero hacer más eficiente el diseño apenas le supuso un espacio mayor y sin embargo logran meter un 30% más de transistores.



La memoria L1 pasa de 64Kb a 128Kb lo que le aumenta el IPC un 5% que no será mucho pero en el global ayuda, pero hay más, es el primer CPU en ofrecer directamente decodificación para video H.265, Intel lo hace con un sistema híbrido, AMD lo integra completamente. Esto además de una mayor integración HSA que le permite ir en el camino de la "fusión" entre CPU y GPU que busca AMD para poder ganarle a Intel en algo.

En ese sentido parece que lo estan logrando, habrá que ver benchmarks serios, pero la funcionalidad Heterogeneous System Architecture (HSA) es parte integral de este procesador.

Se espera el Carrizo para la primer mitad de 2015 con equipos utilizándolo para la segunda mitad del semestre.

Via HotHardware
Fabio Baccaglioni
En un mercado que se le cierra cada vez más, el de los móviles y weareables, Intel tiene que estar, obligadamente, un paso más allá de sus rivales, y lo está, pero no debe dormirse en los laureles.

El tema es que se está empujando la física a niveles atómicos y los costos de fabricar son, a cada iteración, cada vez más astronómicos. 10 nanómetros es el punto límite del silicio para Intel, para 7nm saben que tienen que irse a otro material base.



Los primeros procesadores a 10nm los veremos recién para 2016-2017, así que cuando hablamos de tamaños menores es para después de 2020, ya con el proceso de 14nm Intel tiene una ventaja significativa con respecto a sus rivales, porque no sólo se trata del proceso sino de cuanto han reducido en cada área.

Esta diferencia les deja un par de años de margen que Samsung y TSMC estan tratando de alcanzar.

El achicar el proceso tiene mucho sentido desde los costos para Intel y para todos los jugadores en este escenario, pero el tema del consumo eléctrico es lo que más afecta a los procesos menores, como ya hemos comentado más de una vez, cuanto más pequeño más difícil mantener un electrón fijo y sin saltar por error, por esta razón Intel está analizando otros materiales para salir del silicio.



Entre las opciones que analizan está el grafeno y los nanotubos de carbono, otro problema es el sistema de litografía el cual resulta cada vez más caro y complejo, principalmente la Extreme UV que está dando muchos dolores de cabeza. Otro esquema elegido es el de el stackeo de capas, en 3D, para poder mejorar la eficiencia, pero esto aumenta notablemente los costos.

Además para reducción de costos anunciaron el uso de la interfaz MCDRAM que utilizará el Xeon Phi en su próxima versión, prometen 59 mW en un link de 10Gb/s utilizando CMOS Tri-Gate de 14nm, una eficiencia bestial ya que gran parte de la energía se pierde en los enlaces de alta velocidad entre procesadores de un SoC.

Via ARSTechnica
Fabio Baccaglioni
Es una discusión que dará para mucho pero es muy interesante ver la performance real, no sólo en capacidad de procesamiento, sino la eficiencia de cada core.



Los Cortex-A53 y A57 vienen a reemplazar los Cortex A7 y A15, y es el caso de Samsung es el Exynos 5433 que utiliza la Galaxy Note 4.

La gente de Anandtech realizó un exhaustivo análisis del funcionamiento de este SoC (system on a chip) que utiliza la arquitectura big.LITTLE pero con los núcleos de 64 bits.
Fabio Baccaglioni

imagen por @ganeshts


ARM anunció hace minutos el Cortex-A72, el mayor procesador hasta la fecha para una empresa que no los fabrica, los diseña.

El A72 estará fabricado en proceso de 16nm FinFet (el A15 es de 28nm) lo que obviamente incide en el consumo menor del procesador (75% menos) y con una performance 3.5 veces mayor que el A15.

La arquitectura es ARMv8 de 64 bits, en comparación con el A57 que también es de 64 bits la mejora de performance, según la firma, ronda las 1.9 veces.



El GPU pasa a ser el nuevo Mali T880 (1.6x la performance del T760), interconexión CoreLink CCI-500, procesadores A53, Mali V550 y Mali DP550 para el resto de los servicios.

Este core nuevo y todo el SoC que lo acompaña, permitirá captura de video 4K a 120fps como gancho "vendedor". 4K para todo y no sólo captura, obviamente es para reproducción, pero como lo primero es más complejo es el item vendedor.

Este procesador no es para el 2015, es para el año siguiente, 2016, así que falta más de un año para verlo en el mercado pero ARM siempre debe lanzar sus diseños antes de de la producción para que los fabricantes puedan preparar sus líneas.

En este caso se suma doble complejidad, FinFet y 16nm, dos tecnologías que cambian en gran parte los procesos de cada fábrica pero que vienen perfeccionando durante los últimos años, sólo Intel es el que lleva la delantera y quien no fabrica nada de ARM obviamente.
Fabio Baccaglioni


Segun informa Bloomberg Samsung estaría teniendo problemas con el Qualcomm Snapdragon 810 por recalentamiento de los chips, obivamente tomo con pinzas esta afirmación pero lo cierto es que buscarán utilizar solamente chips propios.

Los Exynos hasta la versión 5 no tenían soporte para LTE incorporado y era la mayor falencia en los Galaxy S que en mercados emergentes no poseen soporte para 4G.

Así es, un Exynos de 8 núcleos en un Galaxy S5 no posee LTE aun siendo el gran flagship de la marca, algo que solucionaron con los Qualcomm.

Ahora bien, Sammy necesita mantener la demanda de procesadores Exynos alta para sostener su propio negocio de fabricación de chips, habiendo perdido clientes como Apple no ayuda, así que tiene lógica desde el punto de vista de la firma, abandonar a Qualcomm y, de una vez por todas, resolver el tema de los SoC con productos propios y sin depender de un tercero.

Via ReCode
Fabio Baccaglioni


Apuntando específicamente a gamers, automóviles y aplicaciones de alto rendimiento gráfico, NVidia tiene que mostrar un diferencial con respecto a Qualcomm y Samsung y sabe que eso está en el segmento de gráficos donde más experiencia tiene.

El Tegra X1 es el sucesor del K1 que se basaba en 192 cores Kepler, más o menos lo mismo que un GPU económico normal.

El X1 cuenta con 256 cores Maxwell, los mismos que podemos encontrar en una GeForce 830M, soporte para DirectX 11.2, OpenGL 4.5, y soporte para DirectX 12 cuando la API esté disponible. Del lado del CPU estamos hablando de un octa-core convencional, cuatro A53 y cuatro A57, en configuración big.LITTLE muy parecido al Qualcomm Snapdragon 810.

El proceso de fabricación es el de 20nm de TSMC y dejan de lado el proyecto "Denver" para el CPU optando por la modalidad Tick-Tock típica de Intel. Al pasar de 28 a 20nm prefieren seguir con núcleos normales ARM antes de involucrar un cambio de arquitectura y un nuevo proceso al mismo tiempo.

Según NVidia el X1 ofrece hasta 1 TeraFLOP de performance para palabras de 16 bits de punto flotante, soporta video H.265 a 4K codificando a 30fps y decodificando hasta 60fps.

NVidia se focalizó principalmente en el uso del X1 para automóviles, su primer uso será el Nvidia Drive CX, una computadora para automóviles con soporte para múltiples pantallas de alta resolución, sistemas operativos Android, QNX y Linux. También presentó el Drive PX para piloto automático controlando 12 cámaras y utilizando un par de X1.

Las primeras motherboards de referencia cuentan con un X1, 4GB de RAM, y ya estan sobrepasando a todos en los benchmarks, lo que es esperable para semejante GPU con capacidad para desktop. Desde ya que hay que esperar que el consumo de esto no sirva para un celular sino para una tablet u otro dispositivo intermedio.

Más detalles en ARS Technica
Fabio Baccaglioni
Ambas empresas llevan una vida casi de matrimonio, se pelean por un lado pero van juntos por otros y en este caso el proceso de fabricación de 14nm FinFET parece ser causal suficiente para mantener un matrimonio por conveniencia.


Foto microscópica de las 13 capas FinFET de Intel a 14nm


En Corea ya hablan de que Samsung ha comenzado a producir los Apple A9 con su nuevo proceso en vez de concentrar la producción en el de 20nm de TSMC. El divorcio que parecía total ahora, con esta novedad, parece alargarse un poco más.

TSMC, por su parte, venía trabajando en el proceso FinFET de 16nm que no es lo suficientemente beneficioso como esos dos pequeños nanómetros de diferencia. Intel ya viene produciendo en este proceso durante 2014.



En todos los casos las ventajas de 14-16nm FinFET sobre el 20nm Planar son enormes como para pasarlas por alto y es bien sabido que Apple si algo no tiene son principios, sólo les interesa el objetivo final y éste es vender más y más teléfonos acaparando la mejor tecnología posible aun si es de un rival. Samsung, además, no es una sola empresa, en el conglomerado quien produce procesadores está separado de la división móviles, así que tampoco es un problema.

Lo que sí queda rara es la estrategia de múltiples factorías con distintos procesos para Apple ya que no es lo mismo TSMC que Samsung, además de que todavía no hay definiciones sobre qué tecnologías se utilizarán para llegar a los 10nm. Durante el CES nos enteraremos de más detalles.

Via ETNews
Fabio Baccaglioni


Tal vez alejados del hype móvil, AMD necesita lanzar nuevos procesadores para tratar de darle pelea a su máximo rival, Intel, aunque esto sea una batalla perdida ¡No hay que perder las esperanzas! así que Carrizo es parte del trabajo de AMD para lograr robarle en un segmento donde Intel puede estar más flojo.

Los APU le han dado una muy buena chance, el combo CPU+GPU integrados no sólo abarata costos sino que baja consumo, algo que hoy en día está muy en boga. El Carrizo es un APU basado en la última iteración del core Bulldozer, llamada Excavator, producido en 28nm.



Al igual que los otros APU no se espera un incremento en la potencia por core, lugar que le queda a Intel como líder indiscutido, en cambio va por la performance. La única adición importante es el AVX de 256-bit. El GPU por su parte está basado en el core Tonga aunque no se estima que incorporen un High Bandwidth Memory (HBM), dentro del APU, no al menos en los modelos baratos, aun así sigue siendo más potente que el GPU integrado de Intel.

En síntesis lo importante para AMD es achicar el gap con los Haswell y para ello debería aumentar la eficiencia un 30% por core, algo difícil ya que en cada iteración AMD logra dar con un 10% de mejora solamente. Los primeros Carrizo seguramente se verán para comienzos de 2015, la siguiente generación, con cambio de arquitectura, está planificada para 2016.

¿Qué mantiene arriba a AMD? Obviamente ser el proveedor de APUs de la XBox One y la PS4, eso, por suerte, le dará ingresos importantes durante casi una década.

Via Extremetech