Nos quieren quitar Internet


hoy navengando en la red me sorprendio esta noticia sobre un software para filtar nuestra informacion la tecnologia ha avanzadfo tanto que creo que lo van a poder realizar:

Nos quieren quitar Internet

Ayer os comentábamos el último desvarío de quienes intentan cortar los lazos de la democracia en la red. Un software para controlar, para “militarizar” lo que se dice, quién lo dice y cómo se dice en la red. No sólo eso, el día de ayer dio para mucho, y casi todo malo. En un sólo día nos enterábamos de lo siguiente: en Estados Unidos se ponía la primera piedra para aumentar la censura, una propuesta en el Congreso con la que perseguir y enjuiciar el uso del streaming como delito. Además, se cerraba la web de foros españolas exvagos.es, una persecución que realmente comenzó en noviembre del año pasado, cuando Estados Unidos decidió “apretar” contra todos los alojamientos que colgaran contenidos con derechos de autor. Como colofón, y desde el mismo país, se sabía de otro software dirigido para controlar las redes sociales.

Viajamos a Europa. Actualmente, la Unión Europea espera al próximo mes de mayo para la resolución de las nuevas normas de seguridad en la red. Se trata de un movimiento que busca reforzar la seguridad en el usuario, una aplicación que supondrá que la navegación, tal y como la conocemos hoy, variará. Ni mejor ni peor, simplemente el usuario podrá adoptar medidas de seguridad ante el envío de publicidad masiva. ¿El fin de las cookies? Se verá con el tiempo, pero esta medida invita a pensar que las startups europeas perderán terreno frente al resto en su propio territorio, ya que la medida sólo tendrá jurisdicción en aquellas compañías cuyo origen se encuentra en Europa.

De las revueltas en el mundo árabe hemos hablado mucho últimamente y casi todo apunta a que las herramientas que nos ofrece la web han ayudado al levantamiento de los pueblos. La mal llamada revolución de la red, es una revolución de la gente a la que las nuevas tecnologías les han permitido estar conectados, informarse y organizarse. Es evidente que esta idea no gusta, y no hay más que mirar al pasado reciente y los intentos de corte de Internet en Egipto o en Libia o las propuestas en Estados Unidos del llamado ‘Kiil Switch’ (poder para que el presidente corte la conexión bajo amenaza), para pensar que las redes, tal y como las conocemos hoy, no gustan. En primer lugar porque los gobiernos no las pueden controlar y en segundo lugar porque hay que buscarle “beneficios” a la nueva comunidad.


En el Reino Unido también se debate estos días sobre la posibilidad de una Internet con dos velocidades. En este caso, el agravante es claro. Se trata de que los proveedores tengan dos “ofertas”, una para el ciudadano normal, y otra dirigida a las grandes compañías que “juegan” en la red. Diferencias: La “nuestra” será más lenta y más barata. La “otra” tendrá un ancho de banda enorme donde las compañías puedan manejar muchos datos. ¿Dónde está la trampa? Principalmente, lo que se critica es que este poder podría implicar ralentización a unos y priorización a otros, dependiendo de los contratos o la relación que tenga un proveedor con ciertas empresas.

Esta es más o menos la situación actual de la red y los debates más calientes. Existen otros, conocemos la Ley Hadopi o La Ley Sinde, pero ambas son derivadas, su origen surge de la necesidad de controlar y de la presión de los lobbies. Existen y existirán, pero son parches mínimos en comparación con las ideas y propuestas de los “grandes”.

La llegada de nuevos actores como WikiLeaks o los mismos Anonymous arrojan aún más incertidumbre y casi parece que existe una mayor celeridad en concretar un nuevo orden en la red.

Quizá todo se deba a que la propia Internet es un derivado de los grandes monopolios de siempre. Internet ha recogido lo mejor de la música, el cine o la literatura y lo ha transformado. La Industria en cambio no ha modificado, sigue en la misma línea, casi no ha cambiado. A los medios de comunicación les ha ocurrido algo parecido. Ayer nos enterábamos de que el prestigioso New York Times apostaba finalmente por los contenidos de pago ¿se equivoca? El tiempo lo dirá, pero como decían mis compañeros Pepe o Eduardo, en una sociedad, la digital, donde si no eres visible nadie te ve, el movimiento se antoja arriesgado.

Ese mismo concepto, el de invisibilidad, es el que parece que quieren. Mientras menos ruido haya, mientras más insignificantes seamos, todo podrá seguir como antes. Por todo esto, el concepto de neutralidad en la red parece cada vez más una utopía, y la Internet, tal y como la conocemos hoy, una idea del pasado.

En riesgo más de 40 millones de usuarios de banca electrónica


Como usuario de banca electrónica, es muy probable que hayas recibido un token, ese pequeño dispositivo para generar claves de acceso a tu cuenta bancaria a través de Internet. Estos tokens utilizan SecurID, un mecanismo diseñado por una de las compañías de seguridad más importantes y pretigiadas: RSA. Tales tokens son utilizados por más de 40 millones de personas repartidos en unas 30.000 organizaciones bancarias y de gobierno alrededor en todo el planeta. Según reporta la misma RSA, SecurID esta en riesgo luego de suceder lo siguiente:

Recientemente, nuestros sistemas de seguridad identificaron un ciber ataque en extremo sofisticado contra RSA. Tomamos un serie de agresivas medidas contra la amenaza para proteger nuestro negocios y a nuestros clientes, incluso hemos fortalecido nuestra infraestructura […]

Nuestra investigación nos ha llevado a creer que el ataque pertenece a la categoría Amenza Persistente Avanzada. Nuestra investigación también reveló que como resultado del ataque fue extraída información de nuestros sistemas. En particular, la información está relacionada con SecurID

RSA confía en que la información robada no permite un ataque directo a ninguno de sus clientes usuarios de SecurID —es decir, los usuarios de tokens para banca electrónica—. No obstante, es importante mencionar que el riesgo es latente porque es probable que la seguridad ofrecida SecurID haya perdido efectividad, más aún ante un posible ataque de mayores dimensiones. RSA estará trabajado, dicen, estará en contacto directo con sus cliente para fortalecer la seguridad del sistema. Además, ha publicado una lista de recomendaciones que coloco aquí gracias a la traducción de Hacking.mx para los interesados:

■Se recomienda a los clientes aumentar su enfoque en la seguridad para aplicaciones de redes sociales y el uso de las aplicaciones y sitios web por cualquier persona con acceso a sus redes críticas.

■Se recomienda a los clientes cumplir con las políticas de contraseña segura y PIN.

■Se recomienda a los clientes seguir la regla del mínimo privilegio en la asignación de funciones y responsabilidades a los administradores de seguridad.

■Se recomienda a los clientes volver a educar a sus empleados sobre la importancia de evitar correos electrónicos sospechosos, y recordarles el no proporcionar los nombres de usuario u otras credenciales a nadie, sin verificar la identidad de la persona y autoridad. Los empleados no deben acceder a contestar solicitudes de credenciales por e-mail o teléfono y deberán informar cualquier intento.

■Se recomienda a los clientes prestar especial atención a la seguridad en torno a sus directorios activos, haciendo pleno uso de sus productos SIEM, así como la aplicación de dos factores de autenticación para controlar el acceso a los directorios activos.

■Se recomienda a los clientes seguir de cerca los cambios en los niveles de privilegios de usuario y derechos de acceso utilizando tecnologías de control de seguridad como SIEM, y considerar la adición de más niveles de aprobación manual para los cambios.

■Se recomienda a los clientes realizar hardening, monitorear constantemente, y limitar el acceso físico y remoto a la infraestructura que aloja el software de seguridad crítica.

■Se recomienda a los clientes examinar sus prácticas de help desk para la fuga de información que podría ayudar a un atacante realizar ataques de ingeniería social.

■Se recomienda a los clientes actualizar sus productos de seguridad y los sistemas operativos con los últimos parches.

La recomendación de quien les escribe es mantenerse informados y contactar a su banco para recibir asesoría apropiada. No sabemos lo que sucederá con la información que obtuvieron los hackers, lo cierto es que si los algoritmos de cifrado están implementados como es debido, los riesgos se ven reducidos.


fuente del articulo

Opera ya soporta aceleración 3D

Opera ya soporta aceleración 3D por hardware y WebGL en todos los sistemas operativos

De los grandes navegadores, Opera era el único que faltaba por implementar la aceleración por hardware. Se ve que los noruegos han querido esperar a tenerlo todo perfecto, porque ahora salen pisando fuerte: aceleración 3D por hardware y soporte para WebGL en todos los sistemas operativos.

El soporte es completo, y funciona en cualquier sistema que tenga instalados los drivers OpenGL ES 2, lo que incluye no sólo a Windows, Linux y Mac, sino también a móviles y televisiones de última generación.


Con esta mejora, ahora Opera puede mostrar contenidos 3D con el famoso elemento canvas de HTML5, además de que mejorará bastante el rendimiento en trabajos gráficos pesados. De momento sólo está incluida en una de las versiones de desarrollo de Opera 11.50, Barracuda, así que tendremos que esperar para que llegue a la versión estable.

Lo que más me llama la atención es la tranquilidad de los chicos de Opera. En contraste con el resto de navegadores, que se lanzan a implementar cosas rápidamente aunque queden con algunas carencias, ellos se han esperado y tranquilamente han sacado una implementación muy completa y bien hecha.

La Radeon HD 6990

La Radeon HD 6990 se muestra oficialmente y la GeForce GTX 590 rumoreada para el PAX 2011


La competencia del mercado de las tarjetas gráficas va a ponerse de lo más interesante en el ya inminente mes de marzo, pues se esperan jugosas novedades tanto por parte de AMD como de NVIDIA. Los primeros están a punto de lanzar la Radeon HD 6990, prevista para el día 8 según rumores cercanos a la compañía, una tarjeta equipada con dos GPU Cayman de 2 GB cada una -total de 4 GB- que se configura en CrossFireX. Por su parte, se espera que la GeForce GTX 590 cuente con 1.024 núcleos CUDA en total, 3 GB de memoria RAM con dos controladores de 384 bits y 3 salidas DVI. Este año el PAX East 2011 se inicia el 11 de marzo, y es muy probable que para entonces conozcamos los datos oficiales al respecto.

Dell Venue Pro se deja ver por Europa

Dell Venue Pro se deja ver por Europa

Habíamos seguido su lanzamiento en EEUU y hasta su momentánea demora de comercialización (ejem ejem), por lo que no podíamos pasar por alto su anuncio de llegada a Europa. Sí, hablamos del Venue Pro, el interesante terminal con teclado QWERTY deslizable y SO Windows Phone 7 de Dell que ha decidido por fin dar el salto y ya prepara su aterrizaje en dos importantes mercados del Viejo Continente: por un lado en Reino Unido, donde puede reservarse (estando disponible en 10 días) por 459 libras (540 euros/745 dólares al cambio); por otro en Alemania, donde desde hoy mismo puede comprarse libre por un coste de 534 euros. ¿Significará por tanto que comienza el tour europeo que muchos esperaban de este bonito smartphone? Todo parece apuntar a que sí, de forma que tendremos que seguir muy de cerca a este teléfono de Dell. Impacientes estamos por conocer sus nuevos destinos.

Larry Page pasa a ser el CEO de Google

Larry Page pasa a ser el CEO de Google

Un gran cambio se acaba producir al interior de Google: Eric Schmidt deja su puesto a la cabeza del gigante de la web, pasando ahora ocupar el cargo de Presidente Ejecutivo. Su lugar será ocupado a partir del 4 de abril por uno de los creadores originales del buscador: Larry Page. El otro creador, Sergei Brin, se encargará de la realización de proyectos estratégicos, enfocándose en nuevos productos, bajo el título de Co-Fundador.


En cuanto a Schmidt, su cargo le llevará a ocuparse de las relaciones exteriores, por decirlo así. Se ocupará de ampliar las relaciones comerciales, manejar sus tratos con los gobiernos, la relación con los clientes y las alianzas con otras empresas. De puertas para dentro, seguirá como asesor de Page y Brin.

En resumen: que los dos creadores del producto estrella de la empresa y que fue el pilar que la hizo llegar donde está, se ponen a la cabeza de ella, aunque uno más visible que otro. Sin duda un buen movimiento, ya que ambos gozan de mucha más simpatía y popularidad que Schimdt.

¿Cómo veis este cambio? ¿Creéis que cambiará el rumbo de la empresa? Aunque Schimdt dice en el post donde comunica este cambio que eran un “triunvirato”, él estaba siendo la cara más visible de la empresa. ¿Volveremos a ver menos casos como los de Wave y Buzz a partir de abril? Yo, al menos, espero que así sea.

La imagen de la semana: El nuevo logotipo de HTML 5


La imagen de la semana: El nuevo logotipo de HTML 5

HyperText Markup Language (Lenguaje de Marcado de Hipertexto), más conocido por su acrónimo HTML, es el lenguaje base utilizado para confeccionar páginas web. Aunque la versión 5 aún no está oficialmente implementada, ya hay navegadores con soporte para la nueva especificación y sitios web que lo emplean.

El consorcio internacional World Wide Web Consortium, responsable de las recomendaciones de los estándares web y conocido como W3C, ha presentado esta semana el logotipo para la nueva revisión del lenguaje. Es la primera vez que HTML tiene un logotipo y la última en que llevará asociado un número de versión. En el futuro no habrá HTML 6, será simplemente HTML.

Este logotipo representa también otros lenguajes asociados al HTML, tales como CSS (Cascading Style Sheets), hojas de estilo en cascada, SVG (Scalable Vector Graphics), gráficos vectoriales escalables y WOFF (Web Open Font Format), un tipo de letra que pretende ser un estándar dentro de la web.

Dentro de poco esta imagen estará presente en muchas páginas web como distintivo de las tecnologías empleadas en su confección y es por ello nuestra imagen de la semana.

CleanPages, una extensión de Opera al estilo Safari Reader

CleanPages es un add-on para el navegador Opera similar a Safari Reader que permite obtener una vista limpia de la página web que estemos consultando con un sola click en el icono correspondiente. Este complemento es una adaptación hecha por QuHno de Readability™, un software de Arc90 Labs Experiment.

La funcionalidad que añade al navegador mejora la legibilidad del documento electrónico mediante la eliminación de elementos innecesarios. Mejora el diseño y combina múltiples páginas de un mismo artículo en una sola. Funciona incluso con páginas guardadas localmente y en modo fuera de línea.



Este complemento no es un adblocker ni scriptBlocker, que limpian el contenido de las páginas una vez cargadas. CleanPages se limita a ocultarlos siendo el proceso reversible, devolviendo a la página su aspecto original.

Cuando se activa el botón del add-on, la página aparece en blanco con el texto del documento y los enlaces que contenga. Se muestran entonces tres botones en la parte superior izquierda de la página alineados verticalmente de color gris matizado, hasta que pasas el puntero del ratón por encima y adquieren su color real.


Reload, devuelve la página en su estado original. Print Page, desplegará el mecanismo de selección de impresora y Email page address abre un cuadro de diálogo con tres opciones: usar el cliente de correo predeterminado del sistema, crear una cuenta en el servicio gratuito Opera Mail o conectar con un servicio de correo web.

Si optamos por la tercera opción, se activa un cuadro desplegable donde puedes elegir cuatro servicios de estas características: Yandex, Mail.ru, Opera Webmail y Fastmail. Puedes marcar la casilla Recordar mi elección para no tener que repetir el proceso cada vez.

Una característica muy interesante de cleanPages es cómo se comporta si seleccionas un párrafo de texto y después activas el botón. Si el texto elegido es menor de 300 caracteres, de forma automática selecciona el texto completo relacionado con la selección y si este tiene imágenes asociadas, también. Si la selección es de más de 300 caracteres, muestra todo el artículo, independizado de la página, completamente limpio.

Configurar cleanPages es muy sencillo, basta con marcar el icono con el botón derecho del ratón. Aparecerá una caja con varias posibilidades, elige opciones. Esto abrirá otra pestaña del navegador con todas las opciones de configuración: estilo, tamaño de letra y margen horizontal. Cada una dispone de cinco opciones distintas que puedes seleccionar con los controles tipo radio que incorpora. Existe un control tipo checkbox para convertir los enlaces como notas al pie de página.

CleanPages está en seis idiomas, pero no en español, por lo que asumirá el inglés como idioma por defecto. En la versión actual, no funciona bien con las pantallas de inicio o páginas con marcos y en general con aquellas que están mal construidas, pero esto no es un defecto de esta herramienta que puede ser muy útil en trabajos de investigación. Es una de esas extensiones que merece la pena tener instaladas. Además, solo ocupa 24,7 KB.

dlvr.it: desde nuestro blog a las redes sociales

La semana pasada asistí a la presentación de un producto (de pago) para automatizar la publicación de contenidos en distintos perfiles de redes sociales, es decir, automatizar el proceso de que los nuevos posts de un blog pasen a difundirse en Twitter, Facebook o Google Buzz. A día de hoy, muchos gestores de contenidos incluyen este tipo de funciones (WordPress tiene un plugin para Twitter, en Facebook podemos añadir un RSS con RSS Graffiti, etc), sin embargo, hay portales o blogs que cuentan con esta función o les es muy costosa de implementar.


Prestaciones similares podemos encontrar en dlvr.it, un servicio web con el que automatizar el proceso de difusión de nuestro blog (o cualquier otra fuente que genere RSS) entre los distintos perfiles que tengamos en las redes sociales y el servicio soporte, es decir, Twitter, Facebook, LinkedIn, Buzz, Tumblr, StatusNet y MySpace. dlvr.it comprueba cada 15 minutos nuestro feed en busca de actualizaciones, por lo que, se supone, que la actualización de nuestros perfiles es bastante rápida (con un desfase máximo de 15 minutos), además de monitorizar tanto el blog (que sirve como fuente) como los perfiles que hayamos configurado y en el que la aplicación tenga que escribir, avisándonos si se produce la caída de alguno.

Además, y teniendo en cuenta que el servicio es gratuito, tendremos la posibilidad de programar mensajes (o posts, si usamos la nomenclatura de la herramienta) que también podremos difundir en los perfiles sociales que hayamos vinculado a la cuenta.


El manejo es muy sencillo, simplemente se trata de crear pares “fuente-destinos”, en los que podremos, incluso, filtrar la categoría del post o los autores, generando así publicaciones personalizadas.

Pero si hay un detalle que, especialmente, me ha gustado es la sección de informes. Poder difundir contenidos en distintos perfiles de redes sociales está bien, pero si luego no podemos medir cuántos usuarios han entrado en nuestra web a través de lo que compartimos en Twitter o Facebook, no tendremos forma de analizar nuestra estrategia de presencia en las redes sociales y, por ejemplo, conocer dónde reside el nicho de usuarios más activo (es decir, los que entran en nuestra web).

Para ser un servicio gratuito, hay que reconocer que está muy bien y es bastante completo, de hecho, también es usado por Cnet, Los Angeles Times o Groupon, para dar difusión de sus contenidos. Es una manera rápida, y barata, de dotarnos con la capacidad de automatizar publicaciones sin tener que integrar módulos en nuestro portal web o blog o, en algunos casos, tener que realizar algún desarrollo. Si disponemos de una fuente de RSS, automatizar el resto del proceso es posible.

Google se enfocará en iniciativas móviles en 2011

Google se enfocará en iniciativas móviles en 2011

2011 es el año de los proyectos móviles para Google. Así lo dejó ver Eric Schmidt, CEO de la compañía —bueno, hasta que Larry Page herede el trono— en su reciente colaboración en la Harvard Business Review. La empresa se moverá principalmente en tres frentes: el desarrollo de redes móviles de alta velocidad, el dinero móvil y la costeabilidad de los smartphones.

Sobre las redes móviles de alta velocidad, Schmidt comentó que usarán tecnología LTE, un sistema de comunicación que se ha ganado el mote de 4G — aunque no cumple completamente los estándares de velocidad para esa denominación. Esta red tendrá una velocidad de ocho a diez megabits, unas 10 veces más rápidas que las que tenemos hoy en día. Sin embargo, lo que llama la atención es que, aparentemente, Google está desarrollando el LTE. Al parecer, el principal interés de la compañía es ganarle a la competencia la guerra por la patentes. Si logra hacerse del registro, Google no sólo podría implementar esta red en Android, sino que también obligaría a terceros a pagarle regalías si quieren usar la misma infraestructura.


La segunda meta de Google es el dinero móvil. Schmidt escribió que los teléfonos tiene muchísimo potencial como herramientas financieras, sobre todo en las partes más pobres del mundo. Este servicio parece ser una de las áreas principales a trabajar en este año. De entrada, Google ha ofrecido en enero un puesto para un experto en NFC (near field communications) Esta oferta sale a colación después de que la compañía añadiera tecnología basada en este protocolo de interfaz inalámbrica a Android. Las transacciones son, quizá, el proyecto que más dificultades tendrá para levantarse.

Por último, la apuesta de Google en el mercado de smartphones apunta hacia la costeabilidad. Android es la clave para abaratar estos dispositivos, ya que en el mercado se encuentran teléfonos inteligentes cuyo precio es inferior a los cien dólares. La idea es bajar aún más la barra, dejando el precio por debajo de los $75. Schmidt tiene la visión de mil millones de personas adquiriendo, dentro de los próximos cinco años, un teléfono barato con pantallas táctiles para navegación. “¿Pueden imaginar cómo esto cambiará la conciencia sobre la información local y mundial, y su noción de la educación?”, pregunta.

Llama la atención que Schmidt haya dicho que todas las iniciativas de Google para 2011 serán móviles. A mí parecer, también habría que apuntar el despegue de Google Googles, pues aunque ya está disponible en Estados Unidos, hace falta que se extienda al resto del mundo. Los planes de Schmidt son ambiciosos, y cada uno de ellos puede significar un golpe de autoridad ante la competencia. Lo único que podemos asegurar es que 2011 promete bastante, pues los movimientos de Google generarán un efecto dominó en un mercado móvil cada vez más y más competido.

World IPv6 Day: Google y Facebook ponen fecha a la activación de las nuevas direcciones IP

World IPv6 Day: Google y Facebook ponen fecha a la activación de las nuevas direcciones IP


El próximo 8 de junio, Google, Facebook, Akamai y algunas de las empresas más representativas de la red, participarán en el World IPv6 Day. Durante ese día, todos sus servicios estarán disponibles a través del nuevo espacio de direcciones IP.

La intención es concienciar y promover la implantación de IPv6, ante el inminente agotamiento de las direcciones IP actuales, según explica Google en su blog. Aunque se espera que la doble pila IP que ese día tendrán que emplear los servidores no interfiera en el servicio, podría darse el caso de que algunos usuarios no puedan navegar con normalidad en los sitios participantes.

Google mide activamente la conectividad IPv6 de sus visitantes
La página del buscador registra si el visitante se conecta a través de IPv6. Con estos datos, Google elabora un gráfico estadístico que muestra la evolución del uso de IPv6 desde el año 2008.

A pesar de que las direcciones de IANA se agotarán en las próximas semanas y sólo los registros regionales dispondrán de los últimos rangos para asignar durante algunos meses más, la implantación de IPv6 aún es muy baja. Según los datos de Google, tan sólo el 0,2% de sus visitantes acceden por IPv6.

Con esta acción, las grandes empresas de Internet quieren llamar la atención sobre la urgencia de que los ISP adapten sus redes para que los usuarios puedan navegar a través de IPv6.

Android 3.0 "Honeycomb", diseñado para tablets

Android 3.0 "Honeycomb", diseñado para tablets


Android se acerca al mundo de las tablets con la versión 3.0 "Honeycomb" pensada especialmente para este tipo de dispositivos, que tan de moda se han puesto en los últimos meses. Se han mostrado los primeros vídeos, y los grandes fabricantes ya están apostando por nuevos productos con esta plataforma.

Empezando por el software propiamente dicho, Android hasta ahora ha pecado de no tener una versión pensada para usar específicamente con un tablet. Por ejemplo, aunque quizás sea un símil un tanto exagerado, un Galaxy Tab no deja de ser un teléfono tamaño XL.

Interfaz pensada para las tablets



La cuestión es que pese al mayor tamaño de las pantallas de las tablets, su interfaz en las versiones actuales de Android sigue siendo en esencia la misma que para los teléfonos móviles, con lo que una adaptación se hace bastante necesaria para plantar cara mejor al iPad, que aunque no resulta un gran cambio respecto a iOS en iPhone, sí está mejor integrado.

Los vídeos que podemos ver a continuación proceden de la G-Slate fabricada por LG que lanzará el operador T-Mobile en Estados Unidos. En ellos, podemos ver una interfaz bastante más espaciada y limpia, con efectos tridimensionales y widgets que se gestionan desde un panel bastante intuitivo asignándolos a los distintos escritorios.


Entre las aplicaciones, destacan un GMail optimizado para tablets, rediseño de YouTube, videoconferencia, navegador web al estilo Chrome y acceso a la tienda de libros Google eBookstore. Además, los botones físicos que existen ahora mismo en los teléfonos móviles Android (home, búsqueda, menú y atrás) desaparecerán en favor de una interfaz totalmente táctil en la pantalla.


A partir de ahora, pues, Android tendrá dos vías de desarrollo paralelas, una siguiendo con las versiones 2.x para teléfonos móviles, siendo la última la 2.3 "Gingerbread", y las 3.x para tablets. Dos segmentos de dispositivos distintos, pero que compartirán un mismo núcleo.

Invasión de tablets Honeycomb la primera mitad de 2011



En cuanto a los dispositivos en sí, tanto varios de los grandes fabricantes ya han anunciado algunos modelos con Android 3.0 "Honeycomb", que todavía no están a la venta, pero que nos hacen una idea de lo que está por venir.

La primera en aparecer fue la Xoom de Motorola, con pantalla de 10,1 pulgadas y 1280x800 píxeles de resolución, procesador de doble núcleo Nvidia Tegra 2 a 1 Ghz, 1 GB de RAM y 32 GB de memoria interna. En una actualización que llegará en primavera, recibirá compatibilidad con redes móviles LTE de cuarta generación.



También en LG apuestan por Internet móvil de alta velocidad la G-Slate, compatible con redes HSPA+, que son rápidas, pero no llegan al nivel de LTE. Eso sí, todavía sin más datos técnicos de la tablet por el momento.

Asus, por su parte, tiene con su Eee Pad Slider y la Transformer, dispositivos muy parecidos al Xoom con el añadido de un teclado QWERTY físico deslizante en el primer caso, y una base con teclado a la que se puede conectar la pantalla para transformarlo en un pequeño portátil. El último, más sencillo con 7" y procesador de un núcleo a 1,2 GHz, es el Eee Pad MeMo.

Finalmente, Toshiba con un modelo también similar al resto con doble núcleo Tegra 2, y HTC, con un dispositivo que se dará a conocer durante la feria Mobile World Congress de febrero en Barcelona, completarán la primera alineación de tablets que llegarán al mercado durante la primera mitad del 2011, para hacer frente al, por el momento, todopoderoso iPad.