Hasta ahora es un rumor, Apple empezaría a utilizar sus propios diseños de procesadores ya no solamente en los iPhones e iPads sino en las Macs.
Suena bonito desde el ángulo de la empresa: un procesador propio, un desarrollo contemplando los deseos y necesidades de los diseñadores de Apple, dejando atrás a Intel (al menos en algunos productos inicialmente) y abriendo una nueva puerta con mayor control.
Pero ¿Será lo mismo para los usuarios? Los clientes de Apple ¿Obtendrán beneficio alguno? Obviamente lo primero que pensamos todos es en la batería porque energéticamente los ARM son más eficientes que los x86 por arquitectura.
Por otra parte Intel se ha quedado “varada” en los 14nm mientras que su principal rival, AMD, tiene toda su línea Ryzen en los 7nm (Fabricado por TSMC, el mismo proveedor de silicio de Apple y NVidia) y apunta a los 5nm para el año que viene. Intel ha dormido en los laureles y el próximo año verá cómo sus rivales le roban market share.
Pero los procesadores de Intel no son para nada malos, es Apple la que ha sido lenta en mejorar sus equipos también, las Macbook son superadas en specs por prácticamente toda marca de notebooks, sus upgrades son caros y lentos y poco tienen que ver con el procesador ya que tenemos infinidad de equipos usando los core de 10ma generación.
No se trata de eso tampoco, tener control total sobre la plataforma va más de la mano de Apple pero para los usuarios de Mac eso tal vez no sea tan beneficioso.
Para empezar tienen que olvidarse de tener aplicaciones de Adobe a la mano, no al menos ahora, ya que toda la suite de Adobe está programada de forma nativa en Mac requiriendo de la arquitectura en particular. Muchas funciones de la mayoría de sus aplicaciones son migrables sin problemas, pero muchas otras no, así que todo el proceso de migración y adaptación lleva un buen tiempo (y costo). Si Apple es inteligente (y no tan monopólica, ejem) puede adelantarle samples de desarrollo a Apple y que el tiempo entre hardware y software se reduzca al mínimo. Eso sería un acierto.
Pero también es sabido que, al menos en video, compiten. No creo que sea negocio comprarse una Mac con procesador ARM hasta que no funcionen las herramientas más usadas de diseño y edición allí (desde Photoshop a Illustrator o After Effects).
No sólo el diseñador clásico vería algún que otro problema, olvídense de Bootcamp, olvídense de Steam ni mucho menos ejecutar un Linux allí, las restricciones serán más parecidas a las de iOS que las de un sistema operativo serio porque sencillamente es a ESO a lo que se apunta, no sólo al control del hardware sino al bloqueo del software. Algo que Apple viene haciendo en sus teléfonos ahora exportado a las notebooks y Mac de escritorio.
Esto, desde el punto de vista de los desarrolladores, invita a programar apps no-nativas, usando entornos como Electron super ineficientes en vez de desarrollar algo nativo (cada vez hay menos apps nativas para las Mac x86, no es de extrañar) pero también abre la puerta a los desarrolladores de iOS para entrar en notebooks, es un ida y vuelta.
Lo interesante será ver cómo el día del lanzamiento “venderán” la idea y tratarán de decir que la migración será sin problemas como no lo fue la de PowerPC a x86. Los más jóvenes no recordarán esa época en la que Apple golpeaba lastimosamente a Intel hasta que un día, sin más, se pasaron a x86. Más allá del dibujo de marketing lo complejo fue la migración del software con capas de abstracción y emulación para poder mover lo viejo a lo nuevo, extrema ineficiencia y varios años hasta que todo quedó perfecto.
Ese tiempo debería ser corto porque en su momento era lógico el paso de PowerPC a x86, IBM se estaba quedando muy por detrás de Intel y su arquitectura era inferior. Pero ahora es un paso… innecesario desde el punto de vista tecnológico por lo que es más difícil de justificar. La ventaja actual es que la eficiencia de las arquitecturas hace más “transparente” en términos de eficiencia y con una buena capa de emulación la gran mayoría es incapaz de notar la diferencia. (Siempre digo, a partir del gigahertz el resto fue RAM :P)
Veremos si este próximo WWDC el rumor se transforma en realidad y, si es así, a comer popcorn esperando los nuevos flame wars de ignotos tecnológicos justificadores 😀
Voy preparando el pochoclo… esto se va a poner bueno! 🙂
seeee