APROVECHA LAS VENTAJAS DE LA NUBE

Lo que comenzó siendo una tendencia es ya una realidad. Cada vez es más fácil desvincular nuestros datos y aplicaciones del ordenador, teniéndolos siempre accesibles desde cualquier PC, Mac o móvil con conexión a Internet
Hace años que estamos oyendo hablar de cloud computing o servicios en la Nube, un concepto de por sí algo abstracto, complicado de entender de primeras y probablemente hasta aburrido. Sin embargo es muy posible que, sin saberlo, ya estéis disfrutando de las posibilidades del cloud computing. El ejemplo más claro son los actuales servicios de correo web, como Gmail y Hotmail, o redes sociales, como Facebook o Tuenti. Son servicios de comunicación accesibles desde cualquier navegador web, que no necesitan que instalemos o configuremos nada especial en nuestros ordenadores para poder disfrutarlos. Pero cloud computing es mucho más que eso.

Definamos el concepto

Llamamos cloud computing (traducido como computación en la nube) al concepto de desarrollar aplicaciones que actúan como servicios basados exclusivamente en Internet, accesibles desde un navegador web y que no necesitan de software instalado localmente en nuestro ordenador para funcionar. De esta forma, todos losprocesos se ejecutan en un servidor remoto que también almacena los datos, lo que supone que nuestro equipo no tiene que encargarse de mostrar mucho más que el resultado de nuestra tarea en el navegador.
Esta nueva manera de entender la informática supone un gran paso adelante por planteamiento, gestión y posibilidades. De entrada el protagonismo pasa del ordenador personal, que ahora es un mero instrumento para acceder a Internet, a los servidores remotos gestionados de manera centralizada por la empresa a cargo del servicio. Tanto empresas como usuarios finales reducirán sus problemas técnicos (ahora lo más importante es el navegador) y, salvo que necesiten ejecutar aplicaciones más complejas, podrán trabajar cómodamente con un hardware más reducido, al tiempo que el teletrabajo será una realidad sencilla de llevar a la práctica. Así, con una conexión a Internet y cualquier ordenador, podrán consultar su correo, manejar documentos, acceder a aplicaciones de gestión interna, etc.
Presente y futuro
Durante los últimos años hemos visto cómo el número de servicios de cloud computing no ha parado de crecer.Google ha sido una de las empresas que más fuerte ha apostado por este concepto, con Gmail como punta de lanza, pero desarrollando una larguísima lista de soluciones a su alrededor que abarcan prácticamente todos los ámbitos (Maps, Reader, News, etc.).
Microsoft, la otra grande del mercado de consumo, también ha apostado fuerte con toda la gama de serviciosWindows Live, aunque en este caso más enfocados a reforzar y ampliar las posibilidades de Windows, el sistema operativo líder en el mundo.
Pero no han sido las únicas. Eventos internacionales como la CloudCamp, apoyada por empresas tecnológicas de primer orden, dan una idea de los movimientos que se están produciendo en este campo. De hecho, los grandes desarrolladores de software corporativo están invirtiendo mucho en portar y posicionar sus principales aplicaciones como servicios SaaS (Software as a Service). Otro claro ejemplo de esto esSalesforce, multinacional líder en sistemas CRM que hace ya tiempo que ofrece toda su gama de productos como servicios web accesibles desde cualquier navegador. Ello a cambio de una cuota mensual que resulta ridícula en comparación con lo que tradicionalmente tenía que gastar una compañía en implementar un sistema de ese calibre en su estructura (servidores, licencias de software, instalación y personalización, etc.).
El futuro, pues, es muy alentador. Los servicios que ya están en marcha están en constante evolución, mejorando sus prestaciones cada poco tiempo. Al mismo tiempo, es raro el mes que no vemos un nuevo servicio en la Nube que vale la pena tener en cuenta. Sin embargo, no todo es un camino de rosas, y es que el cloud computing tiene un handicap importante: garantizar la seguridad.

Seguridad de los datos

Una de las mayores preocupaciones de los usuarios residenciales, y sobre todo empresariales, es la seguridad de los servicios y datos que funcionan en la Nube. De entrada, eso de no poder «tocar” los archivos de información es algo que genera gran desconfianza. Si guardamos todo nuestro correo en Gmail o Hotmail, seguro que en alguna ocasión nos habremos planteado lo que pasaría si, por casualidad, se perdiese información o Google simplemente decidiese cortar el servicio o empezar a cobrar por él.
En el caso de las empresas y profesionales, otra preocupación añadida pasa por la posibilidad de que alguien no autorizado pueda tener acceso a sus datos, consultar información sensible, o utilizar en su contra información sensible. Eso sin olvidar el temor a que las comunicaciones que se producen a través de una red pública como es Internet, puedan ser interceptadas.
En general la propia arquitectura distribuida de los servicios de cloud computing, donde los datos y carga de trabajo se distribuye entre múltiples servidores y sistemas de almacenamiento seguro, hace que sea poco probable o imposible llegar a perder la información. Aun así, por lo general los más paranoicos tendrán la posibilidad de hacer alguna clase de copia de seguridad exportando ficheros o mediante alguna utilidad.
Sobre el acceso e interceptación de los datos la solución es algo más compleja. En el caso de las comunicaciones, siempre hemos de controlar que se utilicen conexiones cifradas de tipo HTTPS. De hecho, soluciones profesionales como Google Apps y casi cualquiera de los servicios que hemos elegido para este Especial ya utilizan por defecto esta clase de conexión, aunque resulte algo más lenta.
Ahora bien, los accesos no autorizados pueden ser un problema si no se controlan de manera adecuada. Usuarios residenciales y profesionales han de tener mucho cuidado con los lugares en los que introducen sus contraseñas de acceso o cuando marcan la clásica casilla de recordar contraseña.
Cuando trabajemos con nuestro portátil o PC de sobremesa no habrá problema. Pero, mucho ojo con ordenadores ajenos, como los instalados en hoteles, cibercafés, salas de espera, etc. Un simple keyloggerque infecte el sistema puede ser suficiente para robar contraseñas que posibiliten el acceso a información valiosa.
De ahí que sea recomendable usar contraseñas fuertes y complejas, cambiarlas cada poco tiempo (máximo 30 días),y mejor aún si se puede tener acceso a un log de conexiones que nos indique que algo raro está ocurriendo.
En grandes organizaciones la solución a estos problemas viene en parte por la instalación de servicios en la Nube propios, que controlan y gestionan directamente. Para el resto, no queda más remedio que confiar en la solvencia de las empresas que nos ofrecen esos servicios y seguir unas normas básicas en lo que a gestión de contraseñas se refiere.

Principales ventajas

Ahora bien, salvando las reticencias de la seguridad, utilizar los servicios de la Nube tiene una larga lista de ventajas. De entrada, podemos trabajar indistintamente con diferentes ordenadores o dispositivos (sobremesa, portátil, netbook, móvil), incluso con sistemas operativos diferentes, pero de manera similar. Como ejemplo, al final de este especial os mostramos un práctico con los pasos que podría seguir un usuario para unificar todas sus cuentas de correo en Gmail, manejar sus documentos ofimáticos desde Google Docs o gestionar sus calendarios y contactos desde la Web, teniéndolos siempre sincronizadors vía Internet con su móvil. También os mostramos cómo este usuario puede almacenar todos sus ficheros on-line para consultarlos desde cualquier ordenador y compartirlos con colaboradores, familiares y amigos.
El caso de este usuario es totalmente real y lo que ha obtenido a cambio es poder trabajar con sus diferentes ordenadores de manera indistinta, en casa o el trabajo, y con sus datos siempre a mano incluso desde su smartphone. El resultado es, por una parte, un aumento de la productividad y, por otra, una reducción considerable de los quebraderos de cabeza asociados a la gestión, mantenimiento y sincronización de la información.
Otro ejemplo: Si hasta ahora cada vez que cambiábamos un PC teníamos que trasladar el correo, reconfigurar todas las cuentas, copiar y restaurar datos y aplicaciones, y preocuparnos de ajustar una larga lista de parámetros, con el cloud computing las cosas se simplifican mucho. Para lo más básico (correo, documentos ofimáticos, fotos o ficheros personales) tan sólo tendremos que configurar nuestro acceso a Internet y comenzar a usar un navegador. A partir de ahí puede que necesitemos instalar localmente algunas aplicaciones concretas, pero lo más básico e importante, nuestros datos, estarán disponible casi de inmediato.
De la misma forma, si perdemos un portátil y empleamos un servicio como Dropbox para almacenar todos nuestros datos on-line (se explica en el práctico), no tendremos que preocuparnos de mucho más que cambiar la contraseña de acceso y lamentar la pérdida económica. En efecto, en cuanto tengamos un nuevo portátil en las manos tardaremos muy poco en volver a estar operativos.
De cara a los desarrolladores de software, el cloud computing permite pasar de vender productos en caja con CD y licencia, a ofrecer un servicio desde sus propios servidores. Así es fácil luchar contra la piratería (no hay software instalable que proteger), controlar actualizaciones o errores, y presentar una nueva forma decomercialización tipo SaaS con precios más ajustados y clientes más fieles.

Los mejores servicios

Para introducirnos en el mundo del cloud computing hemos preparado este Especial, donde todos los usuarios encontrarán servicios útiles para su tareas diarias. Ya sea trabajar, divertirse, comunicarse o compartir, todos hallaréis servicios gratuitos o muy asequibles que os ayudarán a comenzar a sacar el máximo partido a la Nube.
Hemos categorizado los servicios haciéndolos más sencillos de localizar, y eligiendo los que consideramos mejores o más representativos de cada segmento. Hay otros que son igualmente interesantes, pero ante tanta oferta conviene centrarse en lo más importante e interesante para luego explorar otras alternativas.

Un aspecto importante es que los servicios que hemos elegido son en su mayoría gratuitos o tienen un coste realmente ajustado. Además, se encuentran al alcance de cualquier usuario con unos conomientos mínimos, y para aprovecharlos no necesitaremos mucho más que un ordenador con acceso a Internet y un navegador web medianamente actualizado y compatible.
.
ESPECIAL APROVECHA LAS VENTAJAS DE LA NUBE
El correo electrónico sigue siendo un medio importante para muchos usuarios, pero ya hay canales que ofrecen actualizaciones en tiempo real y posibilidades que explotan al máximo la comunicación con nuestra comunidad de amigos y conocidos.
Uno de los ámbitos en los que Internet se vuelve más interesante es a la hora de trabajar con documentos ofimáticos sin necesidad de tener instalada ninguna suite ofimática, y con la ventaja de poder trabajar colaborativamente
Hoy nos basta con acceder a la Web para disputar partidas multijugador, disfrutar de contenidos audiovisuales o ir de tiendas. Incluso descubrimos herramientas excelentes de edición fotográfica que ni siquiera tenemos que descargar
Las aplicaciones de seguridad en la Red tienen un enorme potencial de crecimiento: se liberan de las limitaciones de potencia de los ordenadores domésticos para aprovechar el poder de los servidores y mejoran su eficiacia sumando experiencias de otros usuarios
A estas alturas seguramente os hayáis dado cuenta de que hay pocas cosas que no se puedan hacer en la Nube. De hecho, a las propuestas específicas en campos como la ofimática o las comunicaciones se suman otras opciones aún más variadas
El mundo profesional es uno de los más beneficiados por la corriente del Cloud Computing. Las nuevas aplicaciones se ofertan bajo el modelo SaaS (software como servicio), con costes de implantación y mantenimiento mínimos
¿Imaginas trabajar con cualquier PC o Mac o Linux con acceso a Internet y hacer prácticamente lo mismo, casi de inmediato y al margen de la plataforma? ¿O no preocuparte por hacer backups de tus datos o instalar un antivirus o borrar ficheros para no llenar el disco duro? Pues es real, te lo da la Nube y encima gratis

EL PROCESADOR, AUTENTICO CORAZÓN DEL ORDENADOR

El procesador  determina la capacidad del PC

A la CPU de los ordenadores se la suele llamar coloquialmente «el corazón» del sistema. Esta metáfora, con todo lo imprecisa que pueda ser, refleja bastante bien la misión de los procesadores
La forma en la que se organiza hoy un ordenador es esencialmente la misma que la pensada hace varias décadas por Von Neumann, que propuso una forma de organizar los datos y los programas conjuntamente en el mismo espacio de memoria (arquitectura Von Neumann). Eso sí, en los años 70 se encontró un problema de rendimiento que hizo que la modificase para dar lugar a la arquitectura Hardvard y más tarde a la Hardvard Modificada, que contempla el uso de memorias caché para eliminar el cuello de botella de la idea original.
Así pues, se tiene un programa y unos datos almacenados en memoria. También tenemos un procesador que va leyendo secuencialmente las instrucciones del programa y los datos con los que operan estas instrucciones, almacenando los resultados de las operaciones en caso necesario y «encargando» a los distintos sistemas de hardware que «hagan cosas» según corresponda a los sistemas de entrada/salida.
Por ejemplo, que muestren en pantalla un mensaje (sistema de vídeo), que se reproduzca un sonido (sistema de audio), etc. La memoria donde el procesador accede para leer y escribir las instrucciones y los datostiene que ser muy rápida, y para ello se desarrolló la memoria RAM, aunque es cara y volátil, de modo que no sirve para almacenarlos de forma permanente. Para ello, se usan sistemas de almacenamiento masivo, como los discos duros. Lo que hace el sistema es cargar los programas y los datos que se necesiten, descargándolos cuando no se precisen para liberar espacio. La memoria caché es una memoria ultrarrápida y cara donde se almacenan los datos y las instrucciones que se vayan a usar de manera inminente.
El chipset
Estamos ante otro componente de los ordenadores actuales que no puede obviarse. Tradicionalmente, el chipset se encargaba de poner en comunicación el procesador con la memoria y los subsistemas de entrada/salida, arbitrando el tráfico de datos a través del bus del sistema. Este bus, sin embargo, se ha convertido en un cuello de botella y se ha ido sustituyendo por otras tecnologías.
Así, AMD lleva el controlador de memoria a la CPU con HyperTransport; lo mismo que Intel, que además pasa del bus del sistema a QPI (Quick Path Interconnect) o DMI (Direct Media Interface). Intel en sus últimosCore i3/i5 ha integrado el procesador gráfico en la CPU, abriendo el camino hacia sistemas con un nivel de integración elevado, donde apenas hacen falta dos chips para construir un equipo completo. AMD diversifica menos sus chipsets, con una plataforma de referencia compuesta por procesador, chipset y sistema gráfico, aprovechando la tecnología adquirida a ATI. La familia más reciente de chipsets de AMD es la 8xx, con variantes que incluyen gráficos integrados con tecnología DX10.1, así como otros que ya incorporan SATA 6 Gbps.
Zócalos y procesadores
La compatibilidad de un procesador con una placa base viene determinada sobre todo por el zócalo. Con cada cambio de arquitectura, se corre el riesgo de afrontar un cambio de zócalo, que a su vez hace que un procesador no pueda usarse con una placa base que ya se tenga en propiedad. AMD se ha mantenido más conservadora que Intel en este campo. La variación más relevante fue la introducción del zócalo AM3, evolución del AM2+. Los procesadores AM3 se pueden instalar en una placa AM2+ actualizando su BIOS, pero los procesadores AM2+ no se pueden instalar en una placa AM3 debido a que el controlador de memoria no es compatible con DDR3. Los AM2 se pueden instalar en los zócalos AM2+.
La BIOS es la segunda variable que interviene en la compatibilidad de procesadores con las placas base. Así, un modelo nuevo de procesador, cuando se instala en una placa base con un zócalo compatible, como norma general precisa de una actualización previa de la BIOS de la placa para que sea reconocido correctamente por el sistema.
Intel ha pasado del zócalo LGA775 de 775 pines a los 1.366 de los procesadores Nehalem Bloomfield y Gulftown o a los 1.156 de los Lynnfield y Clarkdale. El aumento de pines entre el zócalo LGA775 propio de los Core, y los 1.366 o 1156 de los Core i3/i5/
El papel que juega la CPU
La misión del procesador es la de ejecutar las instrucciones de las que se compone un programa. Todo en un ordenador son programas: desde el sistema operativo, hasta un juego o un navegador de Internet. El ritmoal que se procesan estas instrucciones viene dado por el reloj del sistema y se mide en unidades de frecuencia: hercios por segundo o, para facilitar su escritura, en millones de hercios por segundo. En los procesadores más rápidos, se utilizan ya los gigahercios.
La forma de operar de un procesador es esencialmente secuencial. Además, es necesario que los programas estén escritos en un lenguaje que sea totalmente «entendible» por la CPU. Los programas escritos en lenguajes de alto nivel se «compilan» para convertirlos en instrucciones compatibles con la arquitectura del procesador. En los PCs y el mundo Windows/Mac, se trata de arquitecturas X86 y X86-64. De todos modos, a pesar de ser un proceso secuencial, Intel y AMD han conseguido desarrollar tecnologías que consiguen que en cada ciclo de reloj se procese más de una instrucción.
Es posible analizar las secuencias de instrucciones y procesar «por adelantado» ciertas secuencias de código a modo de predicción. Generalmente, se acierta y se consigue que la pipeline de procesamiento esté constantemente ocupada. En algunos casos, sin embargo, la predicción es errónea y la penalización es invertir algunos ciclos de reloj vaciando la pipeline.
Otro recurso más reciente es aprovechar la multitarea de los sistemas operativos actuales o las propiedades multihilo de los programas, de modo que se puede distribuir el trabajo entre distintos procesadores en sistemas multiprocesador o entre los distintos núcleos integrados en una única CPU.
Los procesadores multinúcleo son la norma general en estos tiempos, ya sean físicos o «virtuales», como en el caso de los procesadores Intel con tecnología Multi-Threading. Los más recientes procesadores de Intel y AMD integran seis núcleos físicos, que, en el caso de Intel, pasan a ser 12 al aplicar esta tecnología.
Glosario
• Compilador: Software que se encarga de traducir los lenguajes de alto nivel en instrucciones de bajo nivel «entendibles» con el hardware de los ordenadores. Generalmente, generan instrucciones compatibles con arquitecturas X86 y X86-64. Tanto Intel como AMD disponen de compiladores optimizados para sus arquitecturas correspondientes, con juegos adicionales y propietarios que aceleran ciertas operaciones binarias.
• In Order vs Out of order: Las arquitecturas de procesadores han sido en las últimas generaciones de Intel y AMD de tipo out of order. A costa de aumentar la complejidad de diseño, se pueden procesar varias instrucciones por cada ciclo de reloj. Sin embargo, en los Atom de Intel, se ha vuelto a in order, donde no es posible usar algoritmos de predicción ni «adelantar» la ejecución de instrucciones fuera de su orden secuencial. Gracias a eso, el número de transistores es reducido y el consumo, comedido.
• Pipeline: Conjunto de etapas que conforman la secuencia de ejecución de código en una CPU. Un mayor número de etapas supone poder hacer más cosas a la vez, pero también «trocear» las instrucciones en tareas más simples que requieren a su vez una mayor velocidad de reloj.
• TDP (Thermal Design Power): Es el valor máximo para el consumo de los procesadores. En unos casos, se trata de la potencia calculada a partir de los valores de corriente consumidos, con un voltaje estándar y ciertas condiciones ambientales; en otros, del valor de disispación exigido para el sistema de refrigeración. Define una potencia disipada o consumida por el micro con máxima carga de trabajo.

MANTEN MAS LIMPIO EL DISCO DURO

El trabajo y la navegación diaria por Internet hacen que poco a poco se nos vaya ensuciando el disco duro, que va acumulando basura digital. Para evitarlo hay que ser constantes y realizar una limpieza de vez en cuando, pero lo cierto es que terminamos bajando la guardia y al final todos los discos acaban repletos de archivos inútiles que pueden terminar ralentizando nuesta máquina.
El remedio que aquí te presentamos no va a evitar que se ensucie tu disco, pero se encarga de limpiarlo de vez en cuando para que tú no tengas que estar tan pendiente. Para ello vamos a combinar dos utilidades que probablemente conoces. La primera es el Liberador de espacio en disco y la segunda es el Programador de tareas. Si no las conoces en profundidad seguro que al menos has oído hablar de ellas. Para combinarlas de manera efectiva, debes ir primero al Programador de tareas, este se encuentra en Inicio / Todos los programas / Accesorios / Herramientas del sistema.
Una vez en el programador, debes crear una tarea básica nueva. Para ello debes hacer clic en Acción y luego Crear Tarea Básica. Dale un nombre y una descripción y pulsa Siguiente.
A continuación debes decidir cada cuánto tiempo quieres realizar dicha limpieza y pulsar Siguiente. Elige el que más se ajuste dependiendo de la cantidad de trabajo a que sometas a tu equipo y de lo «limpio» que seas.
En la siguiente pantalla debes marcar cuándo empieza la tarea. En este ejemplo hemos elegido Semanalmente, así que en esta ventana seleccionaremos el día de la semana que se va a ejecutar dicha tarea. También puedes escoger si quieres que se repita la tarea cada número determinado de semanas.
En la siguiente ventana debes elegir la opción Iniciar un programa y en la siguiente debes escribir en el apartadoPrograma o Script «cleanmgr.exe». Pulsa Siguiente. En la última ventana nos aparecen todas las opciones que hemos ido seleccionando en el proceso y si marcamos Abrir el cuadro de propiedades de las tareas al pulsar finalizar, nos aparecen dichas propiedades.
En esta ventana se pueden configurar las propiedades y condiciones de la tarea, lo cual nos permite opciones interesantes y recomendables, como por ejemplo que el equipo se inicie para ejecutar la tarea si estaba apagado. No te recomiendo que desactives la opción Permitir que la tarea se ejecute a petición, ya que si lo haces, la única forma de ejecutar esta tarea es a través de la programación que tú has realizado. Si eres administrador, esto puede venirte muy bien para que no te «trasteen» los equipos. Siempre puedes volver al programador de tareas y en las propiedades de esta tarea, volver a cambiar este parámetro.

Analiza cómo gastas el espacio de tu disco duro

Cuando el disco duro se ha llenado de datos y queremos saber cómo se organizan estos, toca analizarlo. Para ello, podemos recurrir al, programa Xinorbis, que además es perfecto por sus múltiples opciones a la hora de presentar los datos. Primero, pulsa en la pestaña Information/Summary.
Después, para analizar un disco o carpeta, solamente tienes que seleccionar qué analizar pulsando en el botón en forma de carpeta y en Scan (con ello comenzará el análisis). Una vez concluido el proceso, pulsa en la pestaña Tablepara saber el número de ficheros de cada clase (imágenes, películas, documentos, etc.) que hay en tu disco, así como el tamaño de los mismos y el porcentaje de espacio que ocupan.
Si seleccionas el botón con un icono redondo, los resultados se visualizarán gráficamente a modo de diagrama de porciones y, si haces clic sobre el botón de barras, a modo de diagrama de barras. Otras de las opciones más útiles para presentar la información son: Folders, en función de los directorios; Magnitude, análisis por tamaño de ficheros;Dates, según la fecha de creación; Top 101, muestra los 101 más grandes (Largest Files) y los 101 más pequeños (Smallest Files); y Users, el tamaño ocupado por cada usuario. Después, puedes guardar un informe en formato HTML pulsando en el botón de Explorer.

COPIAS DE SEGURIDAD EN WINDOWS 7







Tus archivos digitales estarán siempre protegidos de la manera más fácil y cómoda que puedas imaginar gracias al último sistema de Microsoft. Tanto es así que ni siquiera es necesaria tu intervención
Nivel: Básico
La preocupación frente a la posibilidad de perder nuestros archivos digitales ya es cosa del pasado. Conserva tus fotos, vídeos, música, documentos, etc. gracias al Centro de Copias de Seguridad y Restauración de Windows 7. Todos sabemos lo importante que resulta hacer copias de seguridad de nuestros archivos más preciados. Pese a ello, suelen ser pocos los usuarios que las llevan a cabo de manera regular. Si nos centramos en aquellos usuarios que de manera habitual hacen copia de seguridad de sus archivos, son muchos los que recurren a programas de terceros para realizar dicha tarea. Pero en ninguna edición de Windows 7 (Home Premium, Professional y Ultimate) es necesario acudir a herramientas externas al propio sistema operativo.
Para llevar a cabo nuestra copia de respaldo necesitaremos un disco duro externo, cuya capacidad dependerá del volumen de datos que almacenemos en nuestro equipo. Veamos paso a paso cómo programar una copia de seguridad periódica de nuestro equipo haciendo uso del Centro de Copias de Seguridad y Restauración de Windows 7.
Paso 1. Una primera toma de contacto
Para acceder al Centro de Copias de Seguridad y Restauración de Windows, nos dirigimos a Inicio/Todos los programas/Mantenimiento/Copias de Seguridad y Restauración. En la pantalla que se abre, se nos da opción de Configurar copias de seguridad, Crear una imagen de sistema, Crear un disco de reparación del sistema, Seleccionar otra copia de seguridad para restaurar los archivos y Recuperar la configuración del sistema o el equipo. Vamos a centrarnos en la primera de las opciones, que trata de cómo configurar las copias de seguridad.

Paso 2. Elige la ubicación para la copia
Comenzamos conectando nuestra unidad de disco duro externa al equipo. A continuación, hacemos clic en Configurar copias de seguridad y, en ese panel, elegimos nuestra unidad de disco duro externa.
Opcionalmente, tenemos la oportunidad de guardar la copia de seguridad en red, aunque en nuestro ejemplo nos hemos decantado por el disco externo. Seguidamente, pulsamos Siguiente.

Paso 3. Los datos de origen
Ahora nos aparece una nueva ventana en la que se nos pregunta de qué deseamos hacer una copia de seguridad. Tenemos dos posibilidades. Dejar a Windows que elija es la opción más sencilla, pues guardará en la copia de respaldo todos nuestros archivos ubicados en bibliotecas (documentos, imágenes, música y vídeos), en el escritorio y en las carpetas de Windows predeterminadas (Contactos, Descargas, etc.). No obstante, cabe la posibilidad de que tengamos los datos alojados en otras particiones y, por tanto, nos interese más la segunda opción: Dejarme elegir. Así, seleccionaremos las bibliotecas o carpetas que deseamos incluir. En este paso a paso vamos a apostar por la segunda opción. A continuación, haz clic en Siguiente.

Paso 4. Selecciona los archivos
Puesto que hemos elegido en el paso anterior la segunda opción, tenemos la libertad de seleccionar qué archivos de nuestro equipo deseamos añadir a la copia de seguridad. Nos aparecen nuestras bibliotecas y podemos elegir aquellas que nos interesen y desmarcar las que no.
Asimismo, desde Equipo podemos ver todas nuestras particiones. Marcamos en todas ellas aquellas carpetas que nos interesen y desmarcamos las que no. También decidimos si deseamos o no una imagen de sistema. Ésta nos servirá para hacer que el equipo vuelva al estado en el que se encontraba justo antes de proceder a la copia de seguridad (con los mismos programas que había instalados, configuraciones, documentos, etc.), por si se diera el caso de que en un momento determinado la instalación de Windows se daña y no queremos perderlo todo. De nuevo, hacemos clic en Siguiente.

Paso 5. Revisa la configuración
En la nueva ventana, se nos informa acerca de la ubicación que hemos seleccionado para almacenar la copia, al mismo tiempo que se nos proporciona un resumen de los ficheros que hemos incluido en ella: bibliotecas de usuario, carpetas añadidas o excluidas… También se nos informa de si hemos añadido, o no, una imagen del sistema.
Por otro lado, se nos brinda la oportunidad de modificar la programación por defecto. Para ello, hacemos clic en Cambiar programación y, en la nueva pantalla, especificamos la frecuencia (diaria, semanal, mensual) con que se llevará a cabo la copia de seguridad, así como el día de la semana y la hora. Aceptamos para guardar los cambios. Para concluir con la configuración del backup, hemos de pinchar en Guardar configuración y ejecutar copia de seguridad.

Paso 6. Restaura los datos respaldados
Para afrontar esta tarea, nos dirigimos a la ventana principal del Centro de Copias de Seguridad y Restauración. Una vez ahí, comprobamos que tenemos a nuestra disposición dos alternativas a la hora de restaurar el contenido de una copia de seguridad. Si hemos realizado el backup en la instalación actual del sistema operativo, en el apartado Restauración nos aparecerá la opción Restaurar todos los archivos de usuarios. En cambio, si lo hemos hecho en una instalación anterior del sistema operativo, se nos indicará que Windows no encontró ninguna copia de seguridad para este equipo.
Si queremos recuperar el contenido de una copia de seguridad no realizada en la instalación actual de Windows 7, sino en una anterior, debemos acudir a Seleccionar otra copia de seguridad para restaurar los archivos.

Paso 7. Backups de otros sistemas
El Centro de Copias de Seguridad y Restauración procederá a buscar en todos los dispositivos conectados al PC una copia de seguridad que hayamos realizado por medio del mismo. Para que la localice, tendremos que tener conectado el disco duro externo en el que realizamos el respaldo de nuestros datos. Nos mostrará en pantalla todos los backups que ha encontrado, informándonos del periodo que abarca cada uno de ellos, el equipo en que se realizó y la ubicación del mismo. Elegimos la copia de seguridad de la cual queremos recuperar, total o parcialmente, su contenido y hacemos clic en Siguiente.

Nos aparece una nueva pantalla en la que tenemos básicamente dos opciones para recuperar nuestros archivos. Con Restauración total elegimos recuperar todos los archivos salvaguardados, mientras que con Restauración parcial solo obtendremos una parte. Eso sí, nos permite utilizar distintas opciones de búsqueda, como Buscar (introducimos una o varias palabras clave y se nos mostrarán todos los resultados, archivos o carpetas que coincidan con la búsqueda; desde ahí, podremos añadir para su recuperación aquellos resultados que nos interesen). Por su parte, tanto con Buscar archivos como con Buscar carpetas es factible navegar por la estructura de la copia de seguridad seleccionando los archivos o carpetas que nos interesen, respectivamente. Obviamente, sería muy complicado llevar a cabo una restauración parcial haciendo únicamente búsquedas por palabras clave. Una vez que hayamos seleccionado el contenido que nos interesa, hacemos clic en Siguiente, de modo que se inicie el proceso de restauración de archivos, bien en la ubicación original en que se encontraban en la anterior instalación de Windows 7 o bien en la ubicación que nosotros seleccionemos.

Conserva tus fotos, vídeos, música, documentos, etc. gracias al Centro de Copias de Seguridad y Restauración de Windows 7

AMPLIE LA POTENCIA DE TU WIFI

Si tu ordenador se conecta a través de Internet por WiFi y tienes problemas porque se encuentra en un lado de la casa donde apenas llega la señal, es posible que puedas solucionar el problema cambiando los canales del router o bien cambiando la potencia de la antena de tu dispositivo WiFi.
Lo primero es más complicado, porque cada router es diferente, pero generalmente debemos entrar a través del navegador web en la dirección IP de nuestro router. Para ello la teclearemos en el campo de URL; normalmente suele ser la 192.168.1.1 ó 192.168.0.1 También debes saber la clave del administrador. Si no la has cambiado -algo que lamentablemente suele ser habitual- la podrás encontrar en Internet haciendo una simple búsqueda. Las más usuales son user: admin / pass: admin o user: admin / pass: 1234.
Si tienes Imagenio deberás desconectarlo para entrar por web y es recomendable que lo hagas a través del portal Alejandra.

Por defecto, cuando te instalan el router suelen dejar alguno de los canales más bajos; sube el canal al más alto posible. Esto te garantiza una cobertura más estable. Si algún router de la zona usa el mismo canal, te harán interferencia por lo que tendrás que cambiar a uno inferior. Para ello entra en el apartado Configuración y luego en el apartado WiFi de tu router.

Selecciona un valor de los disponibles para la casilla Canal.

Cambiar la potencia de la antena de tu dispositivo WiFi no es un proceso complicado. Como hay innumerables marcas de dispositivos, cada una lo nombra o denomina de una manera diferente. Por ello debes buscar un apartado que se llame Power management, Transmit power, Potencia de transmisión o algo similar. Para llegar aquí, debemos ir a Equipo o Mi PC (depende del sistema operativo que tengas) y pulsar sobre él con el botón derecho. A continuación vamos a Propiedades y después a Administrador de dispositivos.

Abrimos la pestaña Adaptadores de red y seleccionamos el dispositivo WiFi. Pulsamos sobre él con el botón derecho y volvemos a elegir Propiedades. En la ventana que se abre seleccionamos Opciones avanzadas.

Aquí buscamos la opción que esté relacionada con la Potencia de transmisión. Ponemos el valor al máximo y pulsamos Aceptar.
Estas dos opciones por separado o en conjunto pueden mejorar la calidad de recepción de tu WiFi, si realmente esta necesita mejorar. 

Toshiba presenta un televisor 3D que no requiere gafas

Toshiba, en un comunicado recogido por BBC News, anuncia el primer televisor que permitirá ver imágenes tridimensionales sin necesidad de utilizar gafas. En palabras de Masaaki Oosumi, presidente de la sección de productos visuales de la firma japonesa, se trata de un lanzamiento necesario, «obviamente es más natural ver la televisión sin gafas».
La tecnología desarrollada, muy similar a la utilizada en la consola portátil Nintendo 3DS, se fundamenta en un sistema que emite rayos de luz con diferentes ángulos, lo que permitirá a los espectadores recrear las imágenes 3D sin tener que llevar gafas especiales. Para lograr su propósito, el espectador debe situarse dentro de la zona óptima de visión, lo que podría suponer un inconveniente si obliga al usuario a situarse muy cerca de la pantalla.
La oferta de Toshiba incluirá dos tamaños de pantalla, de 12 y 20 pulgadas, ya que resulta difícil implementar esta tecnología en televisores de gran tamaño. Por poner un ejemplo, la distancia adecuada a la que debe situarse el espectador para disfrutar de imágenes en tres dimensiones será de 90 centímetros para el modelo de 20 pulgadas y 65 centímetros para las 12 pulgadas.
Está previsto que Toshiba lance al mercado los televisores antes de fin de año, con un precio de 120.000 yenes (1.400 dólares) el tamaño de 12 pulgadas y 240.000 yenes (2.800 dólares) el modelo de 20 pulgadas. Por último señalar que la firma japonesa se encuentra trabajando en una pantalla de 56 pulgadas. 

La séptima versión de Google Chrome será 60 veces más rápida que su predecesora

La respuesta de Google a la llegada al mercado de la versión beta de Internet Explorer 9 ha sido afirmar que Google Chrome 7, cuya versión final estará disponible a principios de 2011, será 60 veces más rápido que su navegador actual.
Igual que sucede con el navegador de Microsoft, el fuerte incremento de velocidad se consigue mediante la aceleración por hardware, una tecnología
que aprovecha la aceleración gráfica de los ordenadores para mostrar el contenido multimedia de las webs a mayor velocidad.
Los ingenieros de Redmond, James Robinson y Gregg Tavares, especifican en el blog oficial de Chrome que «Además, este sistema selecciona las mejores APIs gráficas que ofrece cada sistema operativo que Chrome 7 soporta: Windows XP, Vista y 7, Mac OS y Linux». La acelaración afectará tanto a los gráficos 2D como a los 3D, detalle muy a tener en cuenta para aquellos que juegan mediante el navegador. 

Los tablets y las 3D protagonizan IFA 2010


La Feria Internacional de Electrónica de Consumo (IFA) cierra sus puertas tras convertirse durante cinco días en el escenario perfecto para que las grandes marcas presuman de las novedades y tendencias que lanzarán al mercados en los próximos meses

IFA Berlín vuelve a demostrar que sigue siendo la mayor feria de electrónica de Europa celebrando una edición marcada por la feroz competencia en el segmento de los tablets y la reafirmación de las tres dimensiones como la característica fundamental en las televisiones del futuro.
Prácticamente todos los aspirantes al trono en el mercado de los tablets han elegido la cita berlinesa para presentar su candidatura. Samsung está dispuesta a ponerle las cosas difíciles al iPadde Apple con Galaxy Tab, un tablet basado en Android 2.2, con pantalla multitáctil de siete pulgadas, cámara de 3 Megapíxeles y un peso de 380 gramos.

Toshiba ha exhibido Folio 100, también con Android 2.2, pantalla multitáctil de diez pulgadas y un peso que supera los 700 gramos. Apostando por una política de precios atractivos, Archos ha renovado su gama de tablets presentando varios modelos, destacamos el Archos 70 Internet Tablet (pantalla de siete pulgadas) y el Archos 101 Internet Tablet (su pantalla aumenta hasta los 10,1 pulgadas).

La apuesta por las tres dimensiones continuó muy presente en esta edición, si bien es cierto que todavía no existe una gran producción de contenidos hay que reconocer que las ofertas son cada vez más atractivas. LG sorprendió con el finísimo LEX8 (apenas 0,88 cm de grosor) y una nueva tecnología de iluminación, bautizada como nano, que ofrece una calidad de imagen realmente impactante. Samsung, que también presentó nuevos modelos 3D, prefirió centrarse en monitores con funciones de voz sobre IP para realizar videoconferencia y videollamada, los modelos SyncMaster 220TN y SyncMaster 225UW.

Sin tanto relumbrón, Philips, Panasonic y Sony también mostraron sus novedades en la feria, que este año alcanzó el medio siglo de existencia. Aunque sin duda lo más llamativo para el gran público fue la posibilidad de experimentar con las tres dimensiones sin necesidad de llevar gafas, una tecnología llamada a ser decisiva para la popularización de las 3D.
Sin apartarnos de las noticias relacionadas con la televisión, nos encontramos con Google y el anuncio de la llegada de su servicio de televisión a todo el mundo en 2011. Google TV estará basado en Android y será abierto, de hecho la idea del buscador es llevar al televisor las capacidades de comunicación y multimedia de Internet. Sin ir más lejos, en la propia feria encontramos que fabricantes de televisores como Sony ya disponen de equipos que integran Google TV.

Para concluir no podemos dejar de mencionar a Sony, que hizo correr ríos de tinta con el lanzamiento de Qriocity, un nuevo servicio en streaming que permitirá disfrutar de vídeo, música, juegos y libros electrónicos. Esta plataforma conecta muchos de los dispositivos del gigante japonés con acceso a Internet (PlayStation 3, pantallas Bravia, ordenadores o reproductores Blu-ray) y permite disfrutar de entretenimiento de alta calidad

LA INTENSA HISTORIA DE GOOGLE

En 1998 Yahoo! se erguía de forma exultante por encima de todas las empresas que ejercían su actividad de negocio en la Red. Tres de cada cuatro búsquedas recurrían a su servicio. Pero, dos años más tarde, una pequeña compañía fue la única capaz de resistir la embestida de la crisis de las «puntocom»

En el año 2000, unos pocos meses después de su fundación, Google gestionaba más de diez millones de búsquedas diarias. Las empresas que habían cimentado su actividad de negocio alrededor de las nuevas tecnologías comenzaban a sufrir la terrible embestida del crac financiero ocasionado por el «efecto 2000». Solo un año antes el temor al cambio de milenio había obligado a miles de empresas dispersas por todo el planeta a renovar su infraestructura informática para garantizar su correcto funcionamiento después de la llegada del temido nuevo milenio.

Sin embargo, el 1 de enero de 2000 no pasó nada. La llegada del nuevo año no supuso debacle alguna. El cambio de fecha no provocó la catarsis que tantos expertos habían vaticinado, y el gasto en tecnología cesó de forma brusca. La mayor parte de las empresas que habían nacido o se habían fortalecido para satisfacer esa demanda contemplaron el derrumbe de su negocio sin que pudiesen hacer nada para evitarlo.

Pero Google aguantó. Sus fundadores habían alumbrado un nuevo modelo de negocio capaz de nutrirse de un excelente motor de búsqueda para ofrecer servicios publicitarios irresistibles para compañías grandes y pequeñas. Acababa de nacer un gigante capaz de renovar la industria tecnológica en la misma medida en que décadas antes lo habían hecho IBM y Microsoft.

Dos jóvenes con talento

La historia de Google se entrelaza de forma muy estrecha con la propia vida de sus creadores, Larry Page y Sergey Brin, dos jóvenes licenciados en matemáticas e informática cuyos caminos confluyeron en la universidad californiana de Stanford. Ambos preparaban su doctorado en Ciencias Informáticas y, a pesar de que su personalidad es diferente, tienen mucho en común.

Larry pertenece a una familia judía de clase media y marcada ideología progresista. Sergey, por su parte, también es judío, aunque procede de una familia rusa que emigró de la antigua Unión Soviética para combatir el antisemitismo que truncó las carreras de Mijaíl y Eugenia, los padres de Sergey. Ambos eran eminentes matemáticos, pero las posibilidades de promoción de una pareja judía en la URSS de los 70 eran muy escasas.

La familia Brin llegó a Estados Unidos sin recursos, pero los padres de Sergey no tardaron en encontrar la forma de salir adelante como profesores en la Universidad de Maryland. Mijaíl daba clases de matemáticas y Eugenia de ruso. El entorno académico en el que se desarrolló la infancia de Sergey y su enorme inteligencia propiciaron sus primeros coqueteos con la informática. El primer ordenador del joven Brin fue un Commodore 64, con el que comenzó a frecuentar los primeros chats IRC de Internet a principios de los 80.

Larry es estadounidense y, como tal, su origen judío no supuso ni para él ni para su familia una traba. Su padre, Carl, era un ingeniero informático muy competente experto en Inteligencia Artificial y profesor en las universidades de Carolina del Norte y Michigan. Su madre también enseñó programación en esta última, y ambos supieron inculcar a sus hijos la pasión por la tecnología desde que eran muy pequeños.

Al igual que Sergey, Larry manifestó un interés enorme por los ordenadores desde los seis o siete años. En esa época sus padres adquirieron un Exidy Sorcerer, uno de los primeros computadores personales que, poco más tarde, comenzó a ser utilizado por su hijo menor para jugar y escribir trabajos para el colegio en una época en la que no era ni mucho menos habitual que un niños presentase trabajos escolares realizados con un procesador de textos y plasmados en papel con una impresora matricial.

Y todo empezó… en un dormitorio

El arrollador éxito de Google no se debe únicamente a la puesta a punto de un buen producto. Solo la capacidad de trabajo de sus fundadores, sus ideas innovadoras, su compenetración y, cómo no, sus principios morales, pueden explicar que una empresa con poco más de 10 años sea capaz de dar trabajo a cerca de 20.000 personas y facturar alrededor de 22.000 millones de dólares anuales.

En cualquier caso, la compañía empezó a gestarse cuando Larry y Sergey eran estudiantes de doctorado. El primero trabajaba en sus ratos libres en un sofisticado motor de clasificación de páginas web capaz de analizar los enlaces existentes en las páginas y su relación con unas determinadas palabras clave. Esta astuta filosofía permitió a Page programar un algoritmo diseñado para relacionar páginas web y clasificarlas de una manera más coherente y eficaz que la ofrecida por los motores de búsqueda en Internet con más éxito a finales de los 90: AltaVista y Yahoo! El resultado de sus investigaciones fue PageRank System, una tecnología muy sofisticada que poco después constituyó el corazón de Google.

Mientras Larry trabajaba en su sistema de clasificación, Sergey desarrolló un avanzado rastreador capaz de analizar el contenido de una página web para crear un esbozo de los datos que contiene y almacenarlo de forma automática en un repositorio central que podría ser utilizado por un motor de búsqueda. Esta fue la época en la que se conocieron, y, como era de esperar, no tardaron en darse cuenta de que sus proyectos se complementaban a las mil maravillas. Acababa de nacer Google.

Lo primero que hicieron fue construir un ordenador equipado con un sistema de almacenamiento de tamaño considerable para la época en el que indexaron todas las páginas del sitio web de la Universidad de Standford. El invento funcionaba, así que decidieron instalar el servidor en el dormitorio de Larry, mientras que la habitación de Sergey hacía las veces de centro de finanzas. Su primera opción fue intentar vender su tecnología a otra empresa, pero no recibieron la atención que esperaban, así que, finalmente, optaron por fundar su propia compañía. No cabe duda de que tenían un producto excepcional, pero ésta no era su única arma.

Además, ambos compartían una misma visión del mundo, su entusiasmo por la tecnología y, sobre todo, un idealismo que les animaba a crear un producto útil que realmente aportase algo positivo a la sociedad. Tanto las personas que han trabajado para ellos como las que lo siguen haciendo en la actualidad aseguran que esa visión idealista sigue siendo el motor de Google hoy en día. De hecho, cuando alguien opta a un puesto relevante en la compañía debe entrevistarse con los propios Brin y Page, lo que revela de forma inequívoca que buscan en los demás los mismos atributos que ellos comparten.

El lado «malvado» de Google

España es uno de los países en los que esta compañía ostenta una mayor cuota de mercado. Tanto es así que más del 90% de las consultas realizadas en nuestro país nacen en los servidores de Google. Su posición en la mayor parte de los países con un nivel de industrialización elevado es también muy favorable, de hecho, en Alemania y Holanda su penetración es similar a la española. Sin embargo, en Japón, China y Corea del Sur su éxito es muy inferior (su presencia en esta última potencia es meramente anecdótica). Aun así, su cuota de mercado global asciende aproximadamente a un 75% en el ámbito de las búsquedas en Internet, lo que para algunos analistas y usuarios representa un monopolio efectivo.

Pero, además del buscador, la compañía cuenta con otros productos líderes, como son YouTube, Google Maps, Gmail, Google Earth… Esta envidiable presencia en frentes tan diversos ha situado a esta firma en el punto de mira no solo de la competencia, sino también de miles de usuarios hastiados de su descomunal capacidad de concentración. Esta animadversión creciente llegó a su máximo apogeo en marzo de 2008, fecha en la que Google adquirió DoubleClick, una empresa de publicidad que desarrolla su actividad de negocio en Internet.

Antes de que la compra fuese efectiva, la operación fue investigada por la Comisión Federal de Comercio de Estados Unidos y el Comité Regulador de la Unión Europea, y ambas entidades decidieron aprobar la adquisición debido a que no conllevaba una disminución sustancial de la competencia a pesar de que la principal fuente de ingresos de Google es, precisamente, la publicidad.

China, el gigante mutilado

La incursión de la compañía en el gigantesco país asiático fue sin lugar a dudas la operación que más quebraderos de cabeza provocó a los responsables de Google. Larry y Sergey se vieron obligados a aceptar las exigencias del gobierno chino, que les obligó a censurar las entradas devueltas por el buscador. No cabe duda de que China es un mercado descomunal en el que una empresa como Google debe estar presente, pero para muchos generadores de opinión en Internet la aceptación de una condición tan poco progresista y antidemocrática la situó de forma incontestable en el «eje del mal».

Sus dos fundadores reconocieron públicamente que les costó mucho tomar esta decisión ante el dilema moral que planteaba, pero finalmente decidieron hacerlo porque consideraban que su presencia beneficiaba a los usuarios chinos. Aun así, a finales del pasado mes de marzo decidieron desmantelar su portal en China como respuesta a las presiones del Gobierno y a los ataques que sufrieron numerosas cuentas de Gmail, trasladando el servicio a sus servidores de Hong Kong, protegidos de censura o filtro alguno.

Cuando Sergey o Larry son interrogados por algún periodista acerca de las posibles prácticas monopolísticas de Google no dudan en argumentar que siempre han obrado y obrarán de buena fe. Su principal objetivo, más allá incluso de las decisiones empresariales, es favorecer los intereses de los usuarios y contribuir en la medida de sus posibilidades a crear un mundo mejor en el que la disponibilidad de la información contribuya a igualar las oportunidades de todos. ¿Idealistas? No cabe duda. Aquellos que los conocen aseguran que su moralidad es inquebrantable y que han hecho de su idealismo el timón con el que gobiernan el descomunal trans­atlántico que es Google.

Siempre en La Nube

El auténtico corazón de la compañía es Internet. La mayor parte de los servicios que pone a disposición de los usuarios solo requiere un ordenador equipado con un navegador y una conexión a la Red; unos pocos necesitan la instalación de un pequeño cliente, pero todos ellos se conectan a la inmensa red de ordenadores que la compañía posee dispersa por la faz del planeta. Algunos expertos estiman que Google posee más de un millón de ordenadores interconectados por miles de kilómetros de fibra óptica, aunque el equipo directivo esconde con recelo las dimensiones de su red distribuida.

La potencia y fiabilidad de sus servicios residen, precisamente, en esta descomunal infraestructura repleta de redundancia. Y su indiscutible habilidad para poner a punto servicios on-line exitosos se nutre, por un lado, del genio de sus fundadores, y, por otro, de su habilidad para conseguir que sus empleados rindan al 100% y se preocupen por desarrollar propuestas innovadoras que puedan cuajar comercialmente. Para lograrlo, Larry y Sergey decidieron permitir que los ingenieros de Google dediquen el 20% del tiempo de su jornada laboral a proyectos tecnológicos propios que luego puedan ser desarrollados por la compañía.

Según algunas fuentes, en la actualidad Brin, Page y Schmidt, el director general en el que Larry y Sergey han delegado la responsabilidad de velar por el crecimiento económico de la empresa, han decidido apostar por pulir más sus servicios y no seguir lanzando nuevos productos a un ritmo tan elevado como el de los últimos años. Aun así, es evidente que Google seguirá sorprendiéndonos.

Todo parece apuntar que en cualquier momento lanzará GDrive, un innovador servicio en el que llevan trabajando varios años sin desvelar apenas detalles, y que nos permitirá almacenar todo el contenido de nuestros PCs (los datos y las aplicaciones) en La Nube. De esta forma, cada vez que instalemos un nuevo programa o creemos un fichero de datos, nuestro equipo se sincronizará automáticamente con los servidores de Google, de manera que podremos recuperar toda la información desde una ubicación diferente si el hardware de nuestro PC resultase dañado. Pero éste no es el único servicio sorprendente. Sergey y Larry han hecho público su interés por los viajes espaciales, de hecho, han llegado a un acuerdo con la NASA para poner a punto una especie de Google Maps aplicado a la Luna y algunos planetas de nuestro sistema solar.

Los servicios de la compañía no se desarrollan exclusivamente en el ecosistema de los PCs. En 2005 Google compró Android, una compañía especializada en soluciones de telefonía que se encontraba enfrascada en el desarrollo de un innovador sistema operativo para smartphones. El siguiente gran paso adelante en este mercado fue la comercialización de Nexus One, un teléfono inteligente gobernado por Android 2.1 lanzado a principios de 2010 y con el que Brin y Page pretenden hacerse un hueco en el mundo de la telefonía móvil.

El hardware de su propuesta ha sido fabricado por HTC, y su principal baza es el tremendo potencial que ofrece Android como plataforma de desarrollo. Tanto es así que, además de esta firma taiwanesa, otros jugadores con gran peso específico en este mercado como Sony Ericsson, LG, Samsung o Motorola han lanzado sus propias propuestas equipadas con Android.

¿Sabías que…?

Google no fue la primera opción que barajaron Larry Page y Sergey Brin cuando decidieron encontrar un nombre apropiado para su compañía. Una de sus primeras elecciones fue What Box, pero parecía tener connotaciones poco apropiadas para un buscador de Internet. Por esta razón, no tardaron en hurgar en sus conocimientos matemáticos para bautizarla con el nombre de un número muy grande.

El término Gúgol fue inventado por el sobrino de nueve años del matemático estadounidense Edward Kasner, que decidió emplearlo para identificar al número 10 elevado a 100, que es terriblemente grande. A Larry se le ocurrió utilizarlo para bautizar su buscador, pero por error escribió Google en vez del término correcto en inglés, que es googol.