Categoría: Artículos

Fabrizio Ballarino


Para quienes no lo recuerden hace un mes les comentamos sobre una idea bastante llamativa y ambiciosa por parte de Walmart para entregarnos las compras hechas en la puerta de nuestra casa, o mejor dicho, directamente dentro del hogar. Sin embargo, la empresa de Jeff Bezos tomó nota al instante de esto y es así como hoy presenta a Amazon Key, su respuesta a la competencia que llega de antemano.

Funciona para aquellos registrados en Amazon Prime, permitiendo otorgar el acceso a nuestra residencia a familiares, amigos, encargados de limpieza o cualquier otra persona de alguna otra actividad que se te ocurra.
Fabrizio Ballarino


En una jugada realmente un tanto llamativa Walmart, gigante cadena de supermercados reconocida a nivel mundial, anunció su unión con August Home, un proveedor especializado en cerraduras y demás accesorios inteligentes para el hogar.

Sin embargo, lo "loco" de esto no es esa asociación en sí, sino lo que trae consigo. Dicho de otra forma, la firma de almacenes nos presenta una nueva propuesta y solución para el momento de realizar nuestras compras... o mejor dicho, para entregarlas.
Fabio Baccaglioni


El pobre de Mark no entiende las razones (y se pone en modo pasivo-agresivo) de por qué en India su servicio de Internet capado, limitado y cesgado no es aceptado en India como él cree que debería, el gobierno Indio le está imponiendo restricciones.

La principal razón es la falta de neutralidad de la red del servicio ¿En qué consiste? Pues bien, el servicio es un acceso gratuito a una versión de Internet redibujada por Facebook (eso es Internet.org) y el ISP de turno, en este caso es Reliance.

Esto significa que los que accedan a internet desde sus móviles no verán internet, verán una versión limitada a Facebook y ciertos sitios que Facebook coordine con Reliance, una versión de un jardín vallado a un nivel que recuerda al AOL de los años 90. Pero Zuckerberg no lo entiende ¿Qué podría tener de malo?

Mark ve un país con mil millones de personas sin acceso a Internet, pero al mismo tiempo no ve a Internet como lo que vemos nosotros, ve solamente a Facebook como relevante. Es ahí donde falla el esquema, podrá ser gratuito pero el objetivo que se percibe no parece para nada solidario del mismo modo que nadie veía en su momento con buenos ojos al monopolio de Microsoft en la guerra de los browsers ni nadie ve muy bien al todopoderoso Google hoy en día.

El ente regulador de telecomunicaciones de India le ordenó a Reliance que cese la comercialización del servicio, mientras tanto quieren que se aclare cómo los operadores cobrarán por acceso a todo el resto de la red, la parte que para Zuckerberg es irrelevante, parece, pero que es la base de la neutralidad de la red: que no decida el ISP, que decida el usuario, acceso irrestricto a cualqueir sitio.

Otro argumento de Zuckerberg es que la mayoría a los 30 días decide por un plan full pagando, que el gratuito abre la puerta solamente, pero no la totalidad, por ende abre la puerta a una red para pobres y otra para no tan pobres donde los más pobres seguirán marginalizados de Internet ¿Acaso soluciona algo? ¿Quien se beneficia realmente? Por otra parte, Facebook no tiene necesidad de regalar nada, no es que le neguemos la idea solidaria, es que no está entendiendo cómo se percibe desde el otro lado porque lo ve con ojos de rico queriendo ayudar a pobres.

1.000 millones de personas carecen de acceso a la web pero ¿necesitan acceso a tan sólo el 1% de la web decidida por Mark? Seguramente no es lo que estan necesitando por ende ¿Eso es realmente acceso a Internet? Mark no entiende por qué habrían de rechazarlo.

Gran pregunta que dejará muchas discusiones en la mesa...
Renzo Montuori
En este post (el primero que escribo para Tecnogeek), intentaré echar luz sobre un tema del que muchos han hablado, pero sin saber exactamente los alcances. Algunos de los que me conocen personal o digitalmente, saben de rechazo al software privativo, y mi siempre presente recomendación de usar software libre.

¿Por qué? Porque hay muchos programas libres (no necesariamente gratuitos, más adelante lo explico) que brindan mejores performances, funciones especiales, etc., y son muchas veces más seguros que sus contrapartidas privativas (para los novatos, que por ejemplo bloquean códigos maliciosos, troyanos y otras cosas que van minando nuestra capacidad de aprovechar al 100% nuestra PC).

A continuación, Software Libre!

Nota del Editor: Habitualmente invitamos a amigos del blog a escribir, Renzo nos envió esta nota introductoria sobre el software libre, un buen recordatorio de todo este software que usamos a diario y nos olvidamos por qué y para qué es libre, disfrútenla!
Fabio Baccaglioni
Hace mucho había leído algo al respecto pero no le di suficiente importancia, era tan sólo una mención más, pero ahora me detuve en un excelente artículo de OSNews donde comentan cómo todos nuestros actuales dispositivos tienen un segundo sistema operativo, cerrado, privativo y muy vulnerable que nadie, absolutamente nadie critica ni discute.



En todo teléfono que tenemos en nuestras manos hay un sistema operativo fácil de reconocer, el que interactúa directamente con el usuario, sea Android, iOS, BlackBerry, Symbian, Windows Phone, Tizen, Maemo, FirefoxOS, en todos los casos entendemos cómo funcionan o podemos, al menos, saber quien es el responsable detrás de él.

Pero lo que no sabemos es que en los teléfonos hay un segundo sistema operativo, está dentro de los chips de banda base, los que controlan la radio y las telecomunicaciones.

Por ejemplo los SoC de Qualcomm que controlan todas las señales y comunicación con las antenas, todo eso sucede en un pequeño procesador ARM y con un pequeño sistema operativo con un kernel propietario, REX, llamado AMSS. ¿Alguien conoce su código? sólo Qualcomm, claro está, y el problema de crear uno nuevo para dicha tarea es que éste ínfimo sistema controla las 69 tareas principales que van desde el USB hasta el GPS pasando por LTE, GSM, UMTS, HSPA y demás. Todo en ese pequeño procesador extra.

El problema con el mismo es que nadie sabe qué hace ni cómo lo hace, está cubierto por decenas de patentes y licencias que impiden liberar el código aun si tuviésemos la mejor voluntad, simplemente los abogados de Qualcomm ni lo sugerirían, pero el diseño de dichas funciones data de los años 80 y 90, sin protección ni verificación alguna este procesador toma señales, opera y las envía.

Con esto en mente un investigador de la Universidad de Luxemburgo, Ralf-Philipp Weinmann, se puso a descubrir cómo funcionan mediante ingeniería inversa y confirmó sus sospechas, el chip utiliza los viejos comandos Hayes, como los viejos modems, para comunicarse y no hace ningún esfuerzo en protegerse ni verificar la fuente de las órdenes que recibe, si uno le envía código desde una radio cercana puede tranquilamente forzar al teléfono a colgarse o, en muchos casos, a tomar control de éste mediante las numerosas vulnerabilidades existentes en ese AMSS.

Noten la idea, un teléfono súper moderno tiene dentro un modem de los antiguos con todas las vulnerabilidades con las que se trabajaba en los años 80 y es hackeable desde el exterior tan sólo enviándole unos bytes por radio y cómo no hace ningún esfuerzo en cubrirse Weinmann logró ejecutar código remoto enviándole solamente 73 bytes...

Esta caja negra en los celulares es un peligro latente que hasta el día de la fecha a nadie parece preocuparle aun cuando todo esto se está comentando en la comunidad BlackHat desde 2010. Un diseño defectuoso, una implementación en las sombras y un riesgo ridículo que todos, hasta el mejor de los celulares, comparte. Para seguir el caso.
Fabio Baccaglioni


Y si les pregunto de donde sale la mayor parte de las ganancias ¿Acertarían? pues al parecer la mayor parte proviene del negocio de memorias y el de smartphones Galaxy baratos.

La suma de 10.2 trillones de Wons, o 9600 millones de dólares, es de ganancias logrando un máximo en los últimos tres años y recuperando mucho en el negocio de memorias, estos números son para julio-septiembre.

Los smartphones de alta gama bajaron mucho las ganancias por unidad pero es en el negocio de los Galaxy baratos, los "mini" y la enorme, infinita, variedad de sub-modelos en donde se da la mayor parte de las ganancias y compensa masivamente a los más caros. La división de móviles reportó 6.7 trillones de wons de esos 10.2 totales.

El negocio de notebooks, tablets y SmarTV es apenas marginal, el mercado de LED TV bajó un 5% por la competencia, aunque los TVs más grandes se vendieron más, comparando 50" con mayores a 65", todos enormes para nuestro mercado local, jeje.

Las memorias tanto las DRAM como las NAND crecieron mucho, hay una excelente demanda, las primeras ya pasando casi todas a proceso de 20nm y las NAND migrando todo a 10nm, en ambos casos los nuevos procesos le brindarán mayores ganancias a la empresa coreana.

Via Reuters y el informe de Samsung
Fabio Baccaglioni


Impresionante nota del periodista finlandés Sampsa Kurri del site Taskumuro sobre la historia de MeeGo, el nacimiento y caída de un sistema operativo para celulares de Nokia que podría haber sido la gran diferencia y que no lo logró por múltiples razones.

El artículo es extremadamente completo y detallado, desde los comienzos con Maemo y las primeras tablets de Nokia, la N770 y N800, los años dedicados al desarrollo sin una idea muy clara y sin muchos recursos y la falta de visión a largo plazo.

Es interesante ver cómo las rivalidades internas, el exceso de outsourcing, los directivos temerosos de perder empleos, symbian, y todo conspiró para que no se le dedicase la atención que merecía.

Maemo pasó a llamarse MeeGo cuando lo fusionaron a Moblin, el sistema también basado en Linux que preparaba Intel, y fue su perdición. Intel no estaba preparada para el mundo móvil, es más, tardó cuatro años en hacerlo y recién ahora en 2012 el Motorola RAZRi es el primer celular con procesador de Intel que se comercializa masivamente.

Maemo además sufrió el cambio de varias partes "importantes", desde el sistema de paquetes (DEB a RPM), el cambio de plataformas de desarrollo (GTK+ a QT), una vez optado QT los de Symbian crearon su propio SDK y los de Maemo otro, y tres, no uno, tres cambios de diseño de UI que le hicieron perder el tiempo de una forma alarmante.

No sólo eso, los equipos de trabajo funcionaban de manera independiente, ninguno tenía la visión global, cada gerente tenía su propia idea de lo que debía ser y por esta razón no había comunicación y nadie sabía como iba a encajar el rompecabezas.

Antes de la llegada de Stephen Elop Nokia había dedicado su desarrollo a MeeGo pero era tarde, el descontrol implicó además que se sume mucha gente al proyecto sin tener una función específica, más y más gerentes, más y más en la cadena de mando y nadie queriendo arriesgar nada. Cada vez que los desarrolladores insistían en hacer un cambio los ejecutivos frenaban todo, la cadena de mando estaba rota, al nadie arriesgar, nada se hacía bien o se tardaba demasiado.

Cada vez que el sistema estaba como para publicarse, el hardware quedaba obsoleto y nuevos cambios se sumaban. El integrar a Intel fue el tiro de gracia, éstos no podían proveer ni conectividad 4G ni un procesador de bajo consumo como los ARM, unir el desarrollo de Nokia con el de Intel fue desastroso y todo se atrasó.

Cuando Elop decidió matar Symbian y MeeGo les dejó lanzar UN teléfono, los developers se decidieron por el N9, la plataforma había quedado genial, pero era el único y último producto con MeeGo.

Para los fans de Nokia, MeeGo y Linux fue un golpe muy duro la opción de Elop, todo o nada con Microsoft, pero probablemente es lo único que encauzaría a Nokia en un camino de estabilización. Esto le costó a la finlandesa unos 5000 puestos de trabajo, abandonar MeeGo, QT, Intel y un montón de dinero desperdiciado tanto en esta plataforma como en las tecnologías que venía invirtiendo (hasta WiMAX con Intel).

Hoy los Lumia, que son desde el hardware el desarrollo que estaba tomando MeeGo, son la esperanza que les queda, por parte de MeeGo resucitó en manos de ex empleados de Nokia, Jolla apunta para aparecer el año que viene. Y si Elop vió que debían abocarse al mercado norteamericano porque ahí es donde se toman las decisiones de mercado, tanto Jolla como el sistema de Mozilla apuntan a China y los países en desarrollo. Quien sabe, por ahí en un tiempo vemos al ñieto de Maemo dando vueltas por ahí.

Lean el artículo de Taskumuro porque es genial, está en inglés, pero mucho mejor que el original en finlandés
Fabio Baccaglioni
La compra de SeaMicro por parte de AMD empieza a dar sus frutos con la nueva tanda de servidores ultra densos, en este caso el SeaMicro SM15000 y sonará raro pero los SeaMicro utilizan tanto Opteron como... Xeon! y si, es que en el ambiente de servidores masivos no se puede uno poner en contra del cliente y SeaMicro ofrecía ambas plataformas antes de ser adquirida por AMD.



Los procesadores soportados hoy son el Intel Xeon E3-1260L (Sandy Bridge) pero en noviembre ya saldrán a la venta con el AMD Piledriver y el nuevo Xeon E3-1265Lv2 (Ivy Bridge).

En cada SM15000 entran 64 placas, cada una tiene un nuevo PileDriver de ocho núcleos a velocidades de entre 2.0, 2.3 y 2.8GHz, cada sistema permite hasta 512 cores, y 2048 cores en un rack. Sumándole a esto cada Opteron soporta hasta 64GB de RAM DDR3, por ende cada sistema logra hasta 4TB de RAM y 16TB para todo el rack.

En el caso de los Xeon las cifras son la mitad porque son de cuatro núcleos y la memoria también es la mitad por la misma razón. Pero los Xeon trabajan con HiperThreading, a gusto del consumidor.

La plataforma "Freedom" le da la posibilidad de interconectar almacenamiento directo al rack, hasta 336TB por array en el modelo más costoso llevandolo a 5PB para todo un sistema completo. Si, 5 petabytes!

Cada sistema mide unos 45 cm de alto, es decir, 64 servers y 5 petabytes en un rack de diez. Luego el sistema Fabric permite interconectarlo con otros racks similares a velocidades de 1.28Tb/s.

Para más detalles técnicos, XBitLabs
Fabio Baccaglioni
Normalmente no enlazamos artículos de medios tradicionales porque rara vez ofrecen información importante sobre tecnología, pero este artículo de La Nación es muy interesante e importante: "El Gobierno sacrificó la Internet móvil para tener más TV digital"

No es poca noticia, ya hace un rato sabía que la tecnología LTE venía atrasada por la falta de un espacio en el espectro radioeléctrico para llegar al país. Apenas el 3G insuficiente que tenemos cumple ocasionalmente con su cometido, no me espero un 4G muy funcional, pero si la banda de frecuencias es ocupada por la TV Digital Terrestre nos dejará bastante afuera del mundo no en esta década si no en la siguiente, es el largo plazo lo que cuenta.

¿Necesitamos más TV Digital? lo que hay todavía no llega a todos por la falta de una distribución amplia de los decodificadores, todavía hay una plaza enorme de televisores viejos con sintonizador analógico en el mercado y el plan de LCD para todos recién comenzó por lo que estimo que faltan AÑOS para que el público encuentre la TV Digital atractiva en Argentina.

Recién ahora empiezan a aparecer canales más profesionales y privados, sumados a las señales "sociales" o las estatales, de hecho, todavía ni TeLeFe ni Canal 13 transmiten a pleno ni en HD (TeLeFe ocasionalmente sí, pero normalmente en 16:9 pero SD), sólo pruebas. La migración de analógico a digital permite no sólo una mejor calidad de imagen si no un mayor número de canales y la posibilidad de alta definición.

Hasta que el apagón analógico no llegue hay que ir tomando otras frecuencias y es justo la banda de 700Mhz la que peligra: en el resto del mundo es la más utilizada para LTE/4G, la de 2.6Ghz requiere mayor cantidad de antenas y bien sabemos lo que esto significa en nuestro país.

Las operadoras obviamente no quieren invertir mucho cuando podrían invertir menos, el gobierno por su parte quiere ampliar el número de canales en TV Digital Terrestre en una estrategia que, a mi parecer y esto a modo de opinión personal, busca en el largo plazo ofrecer una versión de Cablevisión sin esta compañía en el medio, que la TV Abierta pueda ofrecerte una suculenta cantidad de canales para no necesitar del cable.

Pero eso es apenas una sospecha, fundada o no, lo cierto es que utilizando las frecuencias de VHF y UHF se podría contar con hasta 130 canales sin necesidad de consumir el espectro que podría utilizarse para LTE.

Esperemos que la estrategia a largo plazo sea equilibrada, mientras tanto se siguen tomando decisiones más por lo inmediato que por el futuro. Por otra parte, me encantaría que se acelere el proceso de digitalización y pasaje a la TDA, pero eso lleva mucho tiempo e inversión.
Cecilia
A medida que la conciencia por el medio ambiente crece, a las empresas no solo les pedimos que hagan buenos productos, sino que, en el proceso, cuiden al planeta. ¿Se preguntaron alguna vez cuáles son las empresas más amigables con el medio ambiente en el ámbito de la tecnología?