Requerimientos del Duke Nukem Forever

Publicado por Matías el 05/05/2011 a las 09:55 (1632)
El Duke Nukem Forever es un juego muy particular sobre el cual hablar. Sus catorce años de eterno desarrollo estuvieron plagados de idas y vueltas, cancelaciones y renacimientos, y sin dudas debe ser uno de los juegos sobre el cuál más se ha escrito (ya aquí hablamos sobre él reiteradas veces, y tal vez por ningún mérito en particular más que el haberse hecho desear durante tanto tiempo, ya que pocos pudieron probarlo como se debe.


Gearbox, desarrolladores de el juego, cuya actual fecha de lanzamiento (desgraciadamente, nunca se puede asegurar nada sobre el Duke Nukem Forever, porque cada vez que dije algo después me tuve que contradecir, así que ahora no pongo mis manos en el fuego por él) es el 14 de junio, dio a conocer cuáles son los requerimientos del mismo y, por suerte, no son muy altos, por lo que a diferencia de cómo terminé el párrafo anterior, probablemente muchos sí puedan probarlo en un futuro cercano .

Requerimientos mínimos
  • Sistema Operativo: Windows XP / Vista / 7
  • Procesador: Intel Core 2 Duo @ 2.0Ghz / AMD Athlon 64 X2 @ 2.0Ghz
  • Memoria: 1GB
  • Espacio en disco: 10GB
  • Memoria de video: 256MB
  • Placa de video: nVidia GeForce 7600 / ATI Radeon HD 2000
  • Placa de sonido: compatible con DirectX

Requerimientos recomendados
  • Sistema Operativo: Windows XP / Vista / 7
  • Procesador: Intel Core 2 Duo @ 2.4Ghz / AMD Athlon 64 X2 @ 2.6Ghz
  • Memoria: 2GB
  • Espacio en disco: 10GB
  • Memoria de video: 512MB
  • Placa de video: nVidia GeForce 8800GTS / ATI Radeon HD 3850
  • Placa de sonido: compatible con DirectX

Les recuerdo que, además de PC (usará el cliente Steam para temas de verificación de DRM, por lo que se necesitará conexión a Internet por lo menos una vez), el juego también arribará a PS3 y Xbox 360, y tendrá un multiplayer interesante. ¿Saldrá finalmente el 14 de junio o no? Quién sabe...

Vía Tom's Hardware.

¿Cuál es el porcentaje de teléfonos con Gingerbread instalado?

Publicado por Matías el 05/05/2011 a las 00:25 (2436)
La respuesta podría no sorprenderles: 4%. La versión 2.3 del sistema operativo de Google para teléfonos móviles, Android Gingerbread, está disponible desde hace 5 meses, un período de tiempo larguísimo en el mundo móvil actual, y aún así, sólo el 4% de todos los teléfonos con Android poseen esta versión del sistema operativo. Hilando más fino, el 3% tiene 2.3.3 y el 1% restante con 2.3.

¿Y cómo se compone el resto del ecosistema? La gran mayoría de los usuarios, un 65.9%, posee Android 2.2 (Froyo); otra porción mayoritaria es la de los poseedores de teléfonos con Android 2.1 (Eclair): 24.5%. Un 5.3% de los usuarios tiene Android 1.6 o menos, y el 0.3% usa Android 3.0 (Honeycomb), porcentaje que habla de las dificultades que está teniendo Motorola con las ventas de su Xoom.

Porque todo es más lindo si lo miramos en un gráfico

¿Quiénes son los culpables? Todos Risa . Los fabricantes de teléfono insisten con diferenciar sus interfaces de usuario, por más que saben que el mantenimiento de las mismas enlentece todo el proceso de desarrollo, perjudicando finalmente al usuario. Su decisión es ligeramente entendible desde el punto de vista económico-ambicioso-capitalista: es muy difícil diferenciarse en hardware ya que todos poseen características similares, y Android de fábrica es el mismo para todos, la única forma que ven de poder atraer más público es ofreciendo algo distinto desde el lado de lo visual. Es una pena que no se den cuenta que hay otras formas, como desbloqueando los bootloader, ofreciendo teléfonos que tengan versiones actualizadas del sistema operativo, por mencionar algunas (y estoy seguro que mucha gente compra celulares por la marca, por el historial de la misma, más que por las funcionalidades que traiga el dispositivo).

Por otra parte, al parecer Google no les da acceso a los fabricantes a las futuras versiones del sistema operativo hasta que no se publique la SDK, lo que tampoco ayuda al procesao de desarrollo, alargándolo aún más. Y a la receta sumémosle las operadoras telefónicas, que a su vez tienen que hacer más modificaciones a los firmwares y testear que esté todo bien.

Más info en el blog de Google, vía IntoMobile.

Intel anunció su proceso de 22nm y los transistores 3D Tri-Gate

Publicado por Fabio Baccaglioni el 04/05/2011 a las 16:00 (3438)
El gran anuncio de la fecha fue el de Intel, por ahí todavía algunos medios no entienden que significa cuando Intel anuncia una nueva etapa o tecnología porque parece una seguidilla lógica o evolución esperada, pero no, no lo es, esto va más allá.

El plan de Intel parece fijo porque tienen un plan justamente, nada se hace improvisado, hoy presentaron su proceso para construír procesadores a 22nm pero no sólo el tamaño se achicó, la arquitectura cambia completamente con los nuevos transistores 3D Tri-Gate. Suena a ciencia ficción pero no lo es, hace varios años que se viene hablando de este tipo de transistores, primero si eran físicamente posibles, y en 2009 Intel demostró cómo hacerlos con unos módulos de memoria con estos transistores.

Ahora pasan a mostrarnos el futuro Ivy Bridge, no una memoria RAM, un procesador entero hecho con estos transistores de tres estados.

Para entender un poco, así es el típico transistor de un Sandy Bridge actual fabricado bajo proceso de 32nm:



Para aquellos que sufrieron la carrera de sistemas en la facultad o la de ingeniería electrónica saben como funciona un transistor y cómo es la lógica de su circuito. Las tres cosas para lo que sirven es para dejar pasar la corriente cuando se desea, impedirlo cuando no se desea y alternar entre estos estados lo más rápido posible, así tenemos los unos y ceros y la famosa frecuencia de trabajo.

Ahora bien, traducido a lo que más nos interesa en el primer estado se consume energía, en el segundo se desperdicia y lo tercero nos indica la velocidad en que todo eso sucederá. Estos procesadores tienden a perder energía dependiendo los voltajes en los que se trabaje y el tamaño de cada parte, cuanto más chicos más energía se pierde en forma de calor, esto fue la causa de la extinción de los famosos Pentium 4, soñaban con llegar a los 4Ghz pero nunca iban a poder con esos materiales.

El transistor 3D de Intel en cambio introduce un cambio en el diseño, en vez de una capa plana de inversión utilizan un silicio con tres lados creando un área de inversión mucho mayor (x5).



Según Intel esto provoca que la compuerta tiene mayor control sobre la corriente que pasa por el transistor, el voltaje de la capa de silicio ya no afecta la corriente cuando el transistor está apagado, al tener mayor superficie puede pasar más corriente por él, la densidad no crece, entra en el mismo espacio y se pueden agregar más capas de silicio para mejorar la durabilidad y performance.

En teoría un procesador de 22nm hecho con 3D Tri-Gate debería perder menos energía en iddle que uno planar en el mismo tamaño, además se puede operar a un voltaje menor lo que disminuye el consumo directamente. Dependiendo la velocidad de switch se puede ganar entre un 37% y un 18% de baja de consumo, comparado con un Sandy Bridge actual que ya tiene buena performance de batería ¿que tal un 37% más?



Esta tecnología no la veremos este año pero tampoco habrá que esperar demasiado, 2012 es el año en que todos los micros de Intel pasarán a usar las compuertas 3D Tri-Gate y el proceso de 22nm (los Atom recién en 2013).

Ahora sí el sueño dorado de los 4Ghz abandonados en el Pentium 4 se logrará pasar con estos cambios notables y quien les dice tal vez el año que viene veamos teléfonos con procesadores x86, lo digo despreciando los actuales intentos del gigante azul por conquistar un mercado esquivo. Veremos que harán ARM y AMD para tratar de evolucionar o morir en el intento.

Aquí lo tienen todo explicado para principiantes:



Fuentes: Engadget, Anandtech

Tienda de aplicaciones en Windows 8

Publicado por Matías el 03/05/2011 a las 15:27 (1894)

Hace un tiempo hablamos sobre cómo Apple dejó de distribuir software físico oficialmente en sus tiendas, vaticinando un alejamiento del modelo de distribución de software actual (aunque añejo y cada vez más en desuso), que requiere que uno vaya a una tienda y compre la caja con el programa dentro. La distribución digital tiene muchísimas ventajas, y parece ser también la preferida por el público (¿cómo se explica si no el éxito de mercados como Steam por ejemplo?).

No resulta sorprendente entonces, que se hayan encontrado indicios de una tienda de aplicaciones en el código filtrado de Windows 8, del cual ya les trajimos algunos rumores.

Al igual que la Mac App Store, la tienda tendrá calificaciones, reseñas por parte de los compradores, y feedback de los desarrolladores. Se espera también que no existan varias versiones de una misma aplicación, sino que se sigua un modelo similar al que Windows instauró en WP7 y Xbox: uno baja un trial de una aplicación, y luego desbloquea la funcionalidad por completo.

Hay un problema que hacen notar en Electronista, sin embargo, y es que al ser un jugador mayoritario del mercado, Microsoft puede ser criticado por prácticas monopólicas, al estar favoreciendo su propia tienda de aplicaciones, o aún dentro de ella, ciertas aplicaciones propias frente a las de terceros.

Vía Electronista.

La vieja Asus EEE 701 ¿sigue siendo potente?

Publicado por Fabio Baccaglioni el 03/05/2011 a las 14:32 (3134)


Sólo por curiosidad quería ver como funcionaba la vieja y querida Asus EEE en un test moderno con el cual se comparan teléfonos con procesadores ARM. Cabe aclarar que la Asus EEE 701 fue la primer netbook en llegar al mercado, el gran invento que trajo las nets a todo el mundo, de ahí en más nació esa nueva categoría que logró ventas millonarias, pero aquella 701 no era nada comparda con la segunda y tercer generación con procesadores Atom.

En cambio la 701 traía un procesador Intel Celeron underclockeado a 600Mhz, si, una miseria, un x86, no un ARM, pero ¿es un procesador tan viejo? lo es en muchos sentidos, pero con mi vieja EEE 701 la quise comparar con las nuevas vedettes, tablets y smartphones con procesadores ARM de dos núcleos a 1Ghz, unas bestias sin dudas pero ¿como se comportan con la viejita?

Actualicé a la última versión de Lubuntu, el sistema operativo basado en Ubuntu pero con interfaz liviana LXDE, es que la Asus más no aguanta, éste viene con Chromium 11.0.696.57 como browser así que me dispuse a realizar el test Sunspider, dedicado específicamente a web, creado por la gente de Webkit. El test en una PC normal debería dar un resultado entre 300 y 350ms, algo rápido, pero en los teléfonos se toma su tiempo, la falta de optimización de código es notable y el resultado lo muestra:

Asus EEE 701 (Lubuntu + Chromium 11.0.696.57) 2300ms

Asus EEE Pad (Android 3.0) 1888ms
Motorola Xoom (Android 3.0) 2060ms
iPad 2 (iOS 4.3) 2097ms
Nexus S (Android 2.3) 6410ms
Samsung Galaxy TAb (Android 2.2) 7066ms
Motorola Milestone 2 (Android 2.2) 7278ms
iPad 1 (iOS 4.2) 8321ms
iPhone 4 (iOS 4.2) 10414ms


El menor valor en milisegundos, mejor resultado.

Tomé los valores de diversas fuentes, aquí, aquí y aquí.

Sólo puedo llegar a una obvia conclusión: que regresión que tuvimos!

Ni Android ni iOS pero principalmente ningún ARM está a la altura de un procesador "económico" de Intel de hace 4-5 años, de hecho, es el único de esa lista con un clock a 600Mhz, el resto es superior, desde 800Mhz a 1Ghz, tecnología más moderna, menor consumo, menor tamaño, procesos modernos. Aun así hay algo en la arquitectura que está fallando y no se lo podemos asignar a uno solo de ellos, Android está basado en Linux, iOS en BSD, son diferentes, dos proyectos absolutamente antagónicos, pero los valores se aproximan.

Es evidente que el mayor problema de los x86 es el consumo, para lograr esos 2300ms en un equipo de hace 3 años el procesador consume hasta 20 Watts en total, en cambio todos los ARM no superan los 5Watts el más potente, por lo general estan en el orden de 1 Watt. La batería de la EEE 701 dura, en el mejor de los casos unas dos horas, dándole un uso fuerte menos. El menos rendidor de los otros en la lista dura toda una jornada sumando antenas de 3G, GPS, EDGE, etc.

Pero aun así la experiencia recién se aproxima con los nuevos procesadores + GPU, Tegra y demás, que constan de un GPU de NVidia más un dual core ARM Cortex A9 a 1Ghz cada uno, similar el caso del A5 de Apple que es básicamente eso pero con otro GPU.

Quien iba a decir que esta vieja EEE aun patea traseros

Lanzamiento oficial de la BlackBerry Bold Touch

Publicado por Fabio Baccaglioni el 02/05/2011 a las 12:11 (2246)


En el Blackberry World, evento al cual no fuimos invitados , se presentó oficialmente la nueva BlackBerry, la 9900 Bold Touch.

Este teléfono incluye varias mejoras esperadas en una línea que necesita modernizarse constantemente para estar a la par de los smartphones "populares" y bien que lo ha logrado hasta ahora, al menos en LATAM estan teniendo una mayor cantidad de público no-oficinista gracias al BlackBerry Messenger, algo raro por cierto.

También es la aparición en un primer producto del BlackBerry OS 7 que todavía no está basado en QNX como sí lo está el de la PlayBook.

La Bold Touch combina una BB tradicional con pantalla touch de alta densidad de pixeles, 287 dpi, mucha conectividad con no sólo soporte para 4G, HSPA tribanda, GSM cuatribanda si no WiFi a/b/g/n en 2.4Ghz y , sorpresa, 5Ghz.

Soporte para NFC ofrecido no sólo para transacciones si no para conectarse con la PlayBook, video en HD, procesador a 1.2GHz, 728Mb de RAM, etc.

  • Peso y dimensiones: 115x66x10mm y 130 gr.
  • Display 2.8" capacitiva def VGA y resolución de 287dpi
  • Teclado: QWERTY y Trackpad
  • Procesador 1.2Ghz y 728MB RAM
  • Memoria Interna: 8Gb y soporte para tarjetas de hasta 32Gb
  • Cámara: 5.0mpx y captura de video en 720p
  • GPS/aGPS
  • Conectividad: WIFI, a/b/g/n (en 2.4 y 5Ghz); GSM/EDGE cuatribanda y HSPA+ tribanda
  • Blackberry 7 OS


Sin precio ni fecha de lanzamiento todavía

Via Celularis y saludos a Mariano que anda por allá

Peluche casero del Portal

Publicado por Matías el 02/05/2011 a las 11:26 (2143)
Casero es un decir, porque si bien está hecho en casa, muestra más diseño y tecnología que cualquier peluche que haya visto jamás. Saben que acá nos gusta mucho el Portal, hemos hablado de él muchas veces y si bien todavía no pudimos jugar (al menos yo, no sé Fabio) el Portal 2, seguimos firmemente apoyándolo.

Por eso no puedo evitar postear este video que muestra a un peluche de un personaje poco considerado del juego. Sí, todos amamos el Companion Cube, pero... ¿cómo poder olvidarnos de esas hermosas Sentry Guns, que además, nos hablan? Ni siquiera los de Valve la tienen en cuenta, que optaron por poner en sus oficinas una Sentry Gun del Team Fortress 2 .

Dispuesto a resolver esta injusticia, Jonathan Guberman, junto a un amigo, diseñó lo que pueden ver en el siguiente video: un peluche de una Sentry Gun, equipada con sensores de movimiento, presión e inclinación, que según la acción que uno realiza, profiere una frase diferente. Tienen que mirar el video:


Completísimo y buenísimo, no cabe duda. Guberman, en su blog, muestra qué necesitó para hacerlo, si alguno de ustedes desea enfrentar el mismo reto. Vía Geek.com.

El comienzo de una época triste: límite en banda ancha

Publicado por Matías el 02/05/2011 a las 11:11 (2284)

Hace unos años, una ligera nube se posó sobre nuestras cabezas, pero por suerte nada había ocurrido. ¿De qué hablo? La amenaza de un ISP de nuestro país (Arnet, pero si lo lograba seguro se extendía a los otros) de limitar el ancho de banda disponible por usuario a 4GB (un chiste) por mes, y cobrar 5U$S el GB excedente. Una locura por donde se lo mire, como bien había hecho la cuenta Fabio en su momento (¡2004!), un cliente con 512Kbps de conexión podía superar su límite en un día.

Ahora, en 2011, es aceptable decir que el uso de Internet cambió un poco. Sin dudas, gran parte del tráfico actual se debe a ver videos de manera online, el streaming de videos. YouTube, Netflix, Hulu, Vimeo, Cuevana, son sólo algunos de los sitios implicados. Esto también implanta una pequeña semilla en la gente, que va creciendo y se transforma en "¿Para qué voy a pagar por cable, si todo lo que quiero ver está en Internet y cuando yo quiero?", agregándole una "responsabilidad"/funcionalidad a los ISPs que antes no tenían.

Estas razones llevaron al mayor ISP de Estados Unidos, AT&T, a imponer límites de ancho de banda sobre sus usuarios. Si bien era una característica que ya existía en otros ISP, AT&T es el 2do. proveedor de Estados Unidos, logrando ahora que la mayoría de los usuarios de banda ancha de ese país se encuentren restringidos a dicho límite.

Los límites, por suerte, son mayores con los que se amagó en su momento en nuestro país. En el caso de AT&T, los suscriptores de DSL tendrán un ancho de banda de 150GB, mientras que los de UVerse (mezcla de DSL y fibra) uno de 250GB. Esto puede llegar a ser un límite "bastante alto" para la mayoría de la gente (el 99%, según AT&T); no obstante, es cuestión de que vivan más de tres personas en la misma casa, viendo varias series online por día, para superarlo. Otros países no tienen tanta suerte. En Canadá, por ejemplo, hay un límite de 25GB (y estoy seguro de que ese lo alcanzan todos fácilmente).

Lo curioso es que el problema que generó estas restricciones no es la cantidad de datos que consumen los norteamericanos, sino cuándo. En ciertas horas pico (a la noche, claro), el consumo se agiganta y, por una limitada infraestructura en cablemodem, comienza a tener fallas por saturación del nodo (lo que le da Internet a uno y todos sus vecinos). Seguramente ustedes se dan cuenta con Fibertel/Telecentro que en horas específicas el servicio se vuelve inutilizable por lo lento.

¿Cuál es la idea de este post? Contarles lo que está pasando allá afuera, para enterarnos, informarnos. Sabemos, por suerte, que acá las cosas de afuera siempre llegan más tarde; el problema es que llegan tanto las buenas como las malas. Si esta medida se sigue extendiendo en los países centrales, no dudo que llegará aquí también. Y vamos a tener que defendernos de algún modo...

Imagen y post vía Wired.

Detalles de los Atom -Cedar Trail- de Intel

Publicado por Fabio Baccaglioni el 02/05/2011 a las 01:24 (2088)


Intel ha sentido el golpe leve del AMD Brazos y está conciente de ello, pero aun así sus planes de actualización de los Atom sigue un camino algo más lento pasando su próxima revisión para el Q4 de este año.

Así veremos nuevos Atom recién dentro de unos meses dándole a AMD y su E-350 la posibilidad de ganar mucho mercado (lo está haciendo) en el segmento netbook/subnotebook/económicas.

La nueva generación, Cedar Trail, está basada en el proceso de 32nm con el CPU y el GPU en un mismo silicio, dos cores en todos los casos, en el D2500 single thread y en el D2700 dos threads por core.

Los modelos de Atom disponibles serán los siguientes según Anandtech:

Procesadores Atom
Modelo D410 D510 D425 D525 D2500 D2700
Cores/Threads 1/2 2/4 1/2 2/4 2/2 2/4
Frequencia (GHz) 1.66 1.66 1.83 1.83 1.86 2.13
L2 Cache (KB) 512 1024 512 1024 1024 1024
RAM DDR2 DDR2 DDR2/3 DDR2/3 DDR3 DDR3
TDP (W) 10 13 10 13 10 10
GPU DX9 DX9 DX9 DX9 DX10.1 DX10.1


Como pueden notar el TDP de los nuevos será de 10 Watts bajando un poco aun a costa de subir la frecuencia bastante. El cambio principal será ese, la velocidad de los cores, gracias al nuevo proceso, pero hasta el 2012 no veremos ningún cambio en la arquitectura por lo que las ventajas contra AMD se darán en el terreno de los Megahertz.

Ahora bien, los nuevos IGP (GPU integrado) soportarán DirectX 10.1, una evolución necesaria porque deben competir directamente con el Radeon HD 6310 del AMD E-350 y es una lucha desigual. El nuevo IGP seguramente sea una versión reducida del incorporado en los Sandy Bridge grandes, pero a nivel GPU no está nada dicho todavía.

Otro detalle es ver como el D525 está a la altura del nuevo D2500, hasta tiene HT lo que seguramente en algunos aspectos de fuerza bruta podrá vencer a su hermano mayor, algo no tan raro, en GPU el nuevo obviamente será mejor.

Además de DirectX 10.1 incluye decodificación de HD (MPEG2, VC1, AVC, and H.264) con soporte para Blu-Ray 2.0. Salidas HDMI 1.3a, DisplayPort 1.1, eDP (embedded DisplayPort), LVDS, y VGA.

Atom seguirá siendo un problema para Intel por una simple razón. Por pocos dólares más uno puede adquirir una notebook con mucha mayor potencia, sea un Pentium viejo o un Celeron, ni digo un i3, ya hay equipos con poca diferencia monetaria pero de tres a cuatro veces más potencia. ¿Se justifica este tipo de procesadores "capados"? Al parecer Intel todavía ve un segmento de nicho en el cual la batería es lo único importante.

Pero es curioso esto porque si bien el Atom dura mucho, la relación potencia-performance es mediocre, en muchos casos superada por la plataforma de AMD, Brazos, que aun con un TDP de 18W a veces es superior al Atom y ni hablar de lo mal parado que se ve ante sus hermanos mayores Sandy Bridge. Personalmente creo que los Sandy Bridge son tan superiores como procesadores que no hay discusión al respecto, ni AMD se aproxima a esa relación potencia-performance, son geniales.

En fin, por lo visto hay Atom para rato

Una casi oferta para 3G falsamente ilimitado

Publicado por Fabio Baccaglioni el 29/04/2011 a las 17:33 (6883)


No se como es que piensan a veces las promos pero ¿donde cabe en la imaginación de quien poner "ilimitado" en la mísma promoción de algo que si superás los 10Mb de consumo te baja la velocidad a la de un modem de hace 15 años?

Este post es más una opinión que información, pero recibimos una noticia en la "redacción" (que generoso) de Tecnogeek que me pareció rara, Personal ofrece por un peso (0,25ctvs de dolar) navegación 3G ilimitada por un día.

Hasta ahí suena perfecto, el mail de prensa es ideal, navegar a un peso al día! con 30 pesos, menos de diez dólares, navegación ilimitada! pues no.

Al final del correo dice "La velocidad de navegación desciende a 64 kbps cuando el consumo del día alcanza los 10MB". A ver, que significa "ilimitado"? porque en el título de la nota de prensa dice "Internet ilimitado a $1 por día" literalmente ¿por qué estas promociones? no lo entiendo y no quiero con esto que se me enojen desde Personal, nada "personal" justamente, tan sólo que no entiendo por qué este tipo de cosas en el año 2011.

Porque la misma idea se puede vender igual sin la "mentirita", 10 Mb por día a 1$ es muy buena opción, me conecto cuando quiero, uso internet cuando quiero y por un peso hasta 10 megas hago lo que se me canta y luego, bueno, por el resto del día me baja la velocidad, pero sigo por el mismo peso online ¡está bien!

Es la misma promo, invertida en razonamiento y forma de proponerla, pero ambas son diferentes en el mensaje que dan, una es sincera, la otra totalmente deshonesta. Se que es marketing puro, pero los sitios de tecnología no podemos "recomendar" una promo cuando sale tan mal cocinada desde el área de márketing y cuando es tan fácil hacerlo bien. Cuando más honestos sean con sus clientes, más se los recomendará.

Si mañana alguien me pregunta sobre esta promo, si sirve, si le conviene, le diré "pero ojo que luego de los 10 megas te baja la velocidad y te vas a sentir en 1999 eh!", lo que es un mensaje totalmente negativo. Pero nadie sabe cuanto son 10 megas, ni cuanto usan por navegar un rato, así que tomará la promoción con pinzas cuando podría encararse completamente a la inversa ¿me explico? El que quiera opinar opine, pero por favor, no vengan con la seguidilla de insultos tontos contra las operadoras telefónicas, eso es cuento viejo, ya lo sabemos, son las peores prestadoras de servicios, pero poco a poco, a veces, nos dan bola.

3603 Noticias (361 páginas, 10 por página)



Powered by
Cake Division