APROVECHA LAS VENTAJAS DE LA NUBE

Lo que comenzó siendo una tendencia es ya una realidad. Cada vez es más fácil desvincular nuestros datos y aplicaciones del ordenador, teniéndolos siempre accesibles desde cualquier PC, Mac o móvil con conexión a Internet
Hace años que estamos oyendo hablar de cloud computing o servicios en la Nube, un concepto de por sí algo abstracto, complicado de entender de primeras y probablemente hasta aburrido. Sin embargo es muy posible que, sin saberlo, ya estéis disfrutando de las posibilidades del cloud computing. El ejemplo más claro son los actuales servicios de correo web, como Gmail y Hotmail, o redes sociales, como Facebook o Tuenti. Son servicios de comunicación accesibles desde cualquier navegador web, que no necesitan que instalemos o configuremos nada especial en nuestros ordenadores para poder disfrutarlos. Pero cloud computing es mucho más que eso.

Definamos el concepto

Llamamos cloud computing (traducido como computación en la nube) al concepto de desarrollar aplicaciones que actúan como servicios basados exclusivamente en Internet, accesibles desde un navegador web y que no necesitan de software instalado localmente en nuestro ordenador para funcionar. De esta forma, todos losprocesos se ejecutan en un servidor remoto que también almacena los datos, lo que supone que nuestro equipo no tiene que encargarse de mostrar mucho más que el resultado de nuestra tarea en el navegador.
Esta nueva manera de entender la informática supone un gran paso adelante por planteamiento, gestión y posibilidades. De entrada el protagonismo pasa del ordenador personal, que ahora es un mero instrumento para acceder a Internet, a los servidores remotos gestionados de manera centralizada por la empresa a cargo del servicio. Tanto empresas como usuarios finales reducirán sus problemas técnicos (ahora lo más importante es el navegador) y, salvo que necesiten ejecutar aplicaciones más complejas, podrán trabajar cómodamente con un hardware más reducido, al tiempo que el teletrabajo será una realidad sencilla de llevar a la práctica. Así, con una conexión a Internet y cualquier ordenador, podrán consultar su correo, manejar documentos, acceder a aplicaciones de gestión interna, etc.
Presente y futuro
Durante los últimos años hemos visto cómo el número de servicios de cloud computing no ha parado de crecer.Google ha sido una de las empresas que más fuerte ha apostado por este concepto, con Gmail como punta de lanza, pero desarrollando una larguísima lista de soluciones a su alrededor que abarcan prácticamente todos los ámbitos (Maps, Reader, News, etc.).
Microsoft, la otra grande del mercado de consumo, también ha apostado fuerte con toda la gama de serviciosWindows Live, aunque en este caso más enfocados a reforzar y ampliar las posibilidades de Windows, el sistema operativo líder en el mundo.
Pero no han sido las únicas. Eventos internacionales como la CloudCamp, apoyada por empresas tecnológicas de primer orden, dan una idea de los movimientos que se están produciendo en este campo. De hecho, los grandes desarrolladores de software corporativo están invirtiendo mucho en portar y posicionar sus principales aplicaciones como servicios SaaS (Software as a Service). Otro claro ejemplo de esto esSalesforce, multinacional líder en sistemas CRM que hace ya tiempo que ofrece toda su gama de productos como servicios web accesibles desde cualquier navegador. Ello a cambio de una cuota mensual que resulta ridícula en comparación con lo que tradicionalmente tenía que gastar una compañía en implementar un sistema de ese calibre en su estructura (servidores, licencias de software, instalación y personalización, etc.).
El futuro, pues, es muy alentador. Los servicios que ya están en marcha están en constante evolución, mejorando sus prestaciones cada poco tiempo. Al mismo tiempo, es raro el mes que no vemos un nuevo servicio en la Nube que vale la pena tener en cuenta. Sin embargo, no todo es un camino de rosas, y es que el cloud computing tiene un handicap importante: garantizar la seguridad.

Seguridad de los datos

Una de las mayores preocupaciones de los usuarios residenciales, y sobre todo empresariales, es la seguridad de los servicios y datos que funcionan en la Nube. De entrada, eso de no poder «tocar” los archivos de información es algo que genera gran desconfianza. Si guardamos todo nuestro correo en Gmail o Hotmail, seguro que en alguna ocasión nos habremos planteado lo que pasaría si, por casualidad, se perdiese información o Google simplemente decidiese cortar el servicio o empezar a cobrar por él.
En el caso de las empresas y profesionales, otra preocupación añadida pasa por la posibilidad de que alguien no autorizado pueda tener acceso a sus datos, consultar información sensible, o utilizar en su contra información sensible. Eso sin olvidar el temor a que las comunicaciones que se producen a través de una red pública como es Internet, puedan ser interceptadas.
En general la propia arquitectura distribuida de los servicios de cloud computing, donde los datos y carga de trabajo se distribuye entre múltiples servidores y sistemas de almacenamiento seguro, hace que sea poco probable o imposible llegar a perder la información. Aun así, por lo general los más paranoicos tendrán la posibilidad de hacer alguna clase de copia de seguridad exportando ficheros o mediante alguna utilidad.
Sobre el acceso e interceptación de los datos la solución es algo más compleja. En el caso de las comunicaciones, siempre hemos de controlar que se utilicen conexiones cifradas de tipo HTTPS. De hecho, soluciones profesionales como Google Apps y casi cualquiera de los servicios que hemos elegido para este Especial ya utilizan por defecto esta clase de conexión, aunque resulte algo más lenta.
Ahora bien, los accesos no autorizados pueden ser un problema si no se controlan de manera adecuada. Usuarios residenciales y profesionales han de tener mucho cuidado con los lugares en los que introducen sus contraseñas de acceso o cuando marcan la clásica casilla de recordar contraseña.
Cuando trabajemos con nuestro portátil o PC de sobremesa no habrá problema. Pero, mucho ojo con ordenadores ajenos, como los instalados en hoteles, cibercafés, salas de espera, etc. Un simple keyloggerque infecte el sistema puede ser suficiente para robar contraseñas que posibiliten el acceso a información valiosa.
De ahí que sea recomendable usar contraseñas fuertes y complejas, cambiarlas cada poco tiempo (máximo 30 días),y mejor aún si se puede tener acceso a un log de conexiones que nos indique que algo raro está ocurriendo.
En grandes organizaciones la solución a estos problemas viene en parte por la instalación de servicios en la Nube propios, que controlan y gestionan directamente. Para el resto, no queda más remedio que confiar en la solvencia de las empresas que nos ofrecen esos servicios y seguir unas normas básicas en lo que a gestión de contraseñas se refiere.

Principales ventajas

Ahora bien, salvando las reticencias de la seguridad, utilizar los servicios de la Nube tiene una larga lista de ventajas. De entrada, podemos trabajar indistintamente con diferentes ordenadores o dispositivos (sobremesa, portátil, netbook, móvil), incluso con sistemas operativos diferentes, pero de manera similar. Como ejemplo, al final de este especial os mostramos un práctico con los pasos que podría seguir un usuario para unificar todas sus cuentas de correo en Gmail, manejar sus documentos ofimáticos desde Google Docs o gestionar sus calendarios y contactos desde la Web, teniéndolos siempre sincronizadors vía Internet con su móvil. También os mostramos cómo este usuario puede almacenar todos sus ficheros on-line para consultarlos desde cualquier ordenador y compartirlos con colaboradores, familiares y amigos.
El caso de este usuario es totalmente real y lo que ha obtenido a cambio es poder trabajar con sus diferentes ordenadores de manera indistinta, en casa o el trabajo, y con sus datos siempre a mano incluso desde su smartphone. El resultado es, por una parte, un aumento de la productividad y, por otra, una reducción considerable de los quebraderos de cabeza asociados a la gestión, mantenimiento y sincronización de la información.
Otro ejemplo: Si hasta ahora cada vez que cambiábamos un PC teníamos que trasladar el correo, reconfigurar todas las cuentas, copiar y restaurar datos y aplicaciones, y preocuparnos de ajustar una larga lista de parámetros, con el cloud computing las cosas se simplifican mucho. Para lo más básico (correo, documentos ofimáticos, fotos o ficheros personales) tan sólo tendremos que configurar nuestro acceso a Internet y comenzar a usar un navegador. A partir de ahí puede que necesitemos instalar localmente algunas aplicaciones concretas, pero lo más básico e importante, nuestros datos, estarán disponible casi de inmediato.
De la misma forma, si perdemos un portátil y empleamos un servicio como Dropbox para almacenar todos nuestros datos on-line (se explica en el práctico), no tendremos que preocuparnos de mucho más que cambiar la contraseña de acceso y lamentar la pérdida económica. En efecto, en cuanto tengamos un nuevo portátil en las manos tardaremos muy poco en volver a estar operativos.
De cara a los desarrolladores de software, el cloud computing permite pasar de vender productos en caja con CD y licencia, a ofrecer un servicio desde sus propios servidores. Así es fácil luchar contra la piratería (no hay software instalable que proteger), controlar actualizaciones o errores, y presentar una nueva forma decomercialización tipo SaaS con precios más ajustados y clientes más fieles.

Los mejores servicios

Para introducirnos en el mundo del cloud computing hemos preparado este Especial, donde todos los usuarios encontrarán servicios útiles para su tareas diarias. Ya sea trabajar, divertirse, comunicarse o compartir, todos hallaréis servicios gratuitos o muy asequibles que os ayudarán a comenzar a sacar el máximo partido a la Nube.
Hemos categorizado los servicios haciéndolos más sencillos de localizar, y eligiendo los que consideramos mejores o más representativos de cada segmento. Hay otros que son igualmente interesantes, pero ante tanta oferta conviene centrarse en lo más importante e interesante para luego explorar otras alternativas.

Un aspecto importante es que los servicios que hemos elegido son en su mayoría gratuitos o tienen un coste realmente ajustado. Además, se encuentran al alcance de cualquier usuario con unos conomientos mínimos, y para aprovecharlos no necesitaremos mucho más que un ordenador con acceso a Internet y un navegador web medianamente actualizado y compatible.
.
ESPECIAL APROVECHA LAS VENTAJAS DE LA NUBE
El correo electrónico sigue siendo un medio importante para muchos usuarios, pero ya hay canales que ofrecen actualizaciones en tiempo real y posibilidades que explotan al máximo la comunicación con nuestra comunidad de amigos y conocidos.
Uno de los ámbitos en los que Internet se vuelve más interesante es a la hora de trabajar con documentos ofimáticos sin necesidad de tener instalada ninguna suite ofimática, y con la ventaja de poder trabajar colaborativamente
Hoy nos basta con acceder a la Web para disputar partidas multijugador, disfrutar de contenidos audiovisuales o ir de tiendas. Incluso descubrimos herramientas excelentes de edición fotográfica que ni siquiera tenemos que descargar
Las aplicaciones de seguridad en la Red tienen un enorme potencial de crecimiento: se liberan de las limitaciones de potencia de los ordenadores domésticos para aprovechar el poder de los servidores y mejoran su eficiacia sumando experiencias de otros usuarios
A estas alturas seguramente os hayáis dado cuenta de que hay pocas cosas que no se puedan hacer en la Nube. De hecho, a las propuestas específicas en campos como la ofimática o las comunicaciones se suman otras opciones aún más variadas
El mundo profesional es uno de los más beneficiados por la corriente del Cloud Computing. Las nuevas aplicaciones se ofertan bajo el modelo SaaS (software como servicio), con costes de implantación y mantenimiento mínimos
¿Imaginas trabajar con cualquier PC o Mac o Linux con acceso a Internet y hacer prácticamente lo mismo, casi de inmediato y al margen de la plataforma? ¿O no preocuparte por hacer backups de tus datos o instalar un antivirus o borrar ficheros para no llenar el disco duro? Pues es real, te lo da la Nube y encima gratis
Anuncios

EL PROCESADOR, AUTENTICO CORAZÓN DEL ORDENADOR

El procesador  determina la capacidad del PC

A la CPU de los ordenadores se la suele llamar coloquialmente «el corazón» del sistema. Esta metáfora, con todo lo imprecisa que pueda ser, refleja bastante bien la misión de los procesadores
La forma en la que se organiza hoy un ordenador es esencialmente la misma que la pensada hace varias décadas por Von Neumann, que propuso una forma de organizar los datos y los programas conjuntamente en el mismo espacio de memoria (arquitectura Von Neumann). Eso sí, en los años 70 se encontró un problema de rendimiento que hizo que la modificase para dar lugar a la arquitectura Hardvard y más tarde a la Hardvard Modificada, que contempla el uso de memorias caché para eliminar el cuello de botella de la idea original.
Así pues, se tiene un programa y unos datos almacenados en memoria. También tenemos un procesador que va leyendo secuencialmente las instrucciones del programa y los datos con los que operan estas instrucciones, almacenando los resultados de las operaciones en caso necesario y «encargando» a los distintos sistemas de hardware que «hagan cosas» según corresponda a los sistemas de entrada/salida.
Por ejemplo, que muestren en pantalla un mensaje (sistema de vídeo), que se reproduzca un sonido (sistema de audio), etc. La memoria donde el procesador accede para leer y escribir las instrucciones y los datostiene que ser muy rápida, y para ello se desarrolló la memoria RAM, aunque es cara y volátil, de modo que no sirve para almacenarlos de forma permanente. Para ello, se usan sistemas de almacenamiento masivo, como los discos duros. Lo que hace el sistema es cargar los programas y los datos que se necesiten, descargándolos cuando no se precisen para liberar espacio. La memoria caché es una memoria ultrarrápida y cara donde se almacenan los datos y las instrucciones que se vayan a usar de manera inminente.
El chipset
Estamos ante otro componente de los ordenadores actuales que no puede obviarse. Tradicionalmente, el chipset se encargaba de poner en comunicación el procesador con la memoria y los subsistemas de entrada/salida, arbitrando el tráfico de datos a través del bus del sistema. Este bus, sin embargo, se ha convertido en un cuello de botella y se ha ido sustituyendo por otras tecnologías.
Así, AMD lleva el controlador de memoria a la CPU con HyperTransport; lo mismo que Intel, que además pasa del bus del sistema a QPI (Quick Path Interconnect) o DMI (Direct Media Interface). Intel en sus últimosCore i3/i5 ha integrado el procesador gráfico en la CPU, abriendo el camino hacia sistemas con un nivel de integración elevado, donde apenas hacen falta dos chips para construir un equipo completo. AMD diversifica menos sus chipsets, con una plataforma de referencia compuesta por procesador, chipset y sistema gráfico, aprovechando la tecnología adquirida a ATI. La familia más reciente de chipsets de AMD es la 8xx, con variantes que incluyen gráficos integrados con tecnología DX10.1, así como otros que ya incorporan SATA 6 Gbps.
Zócalos y procesadores
La compatibilidad de un procesador con una placa base viene determinada sobre todo por el zócalo. Con cada cambio de arquitectura, se corre el riesgo de afrontar un cambio de zócalo, que a su vez hace que un procesador no pueda usarse con una placa base que ya se tenga en propiedad. AMD se ha mantenido más conservadora que Intel en este campo. La variación más relevante fue la introducción del zócalo AM3, evolución del AM2+. Los procesadores AM3 se pueden instalar en una placa AM2+ actualizando su BIOS, pero los procesadores AM2+ no se pueden instalar en una placa AM3 debido a que el controlador de memoria no es compatible con DDR3. Los AM2 se pueden instalar en los zócalos AM2+.
La BIOS es la segunda variable que interviene en la compatibilidad de procesadores con las placas base. Así, un modelo nuevo de procesador, cuando se instala en una placa base con un zócalo compatible, como norma general precisa de una actualización previa de la BIOS de la placa para que sea reconocido correctamente por el sistema.
Intel ha pasado del zócalo LGA775 de 775 pines a los 1.366 de los procesadores Nehalem Bloomfield y Gulftown o a los 1.156 de los Lynnfield y Clarkdale. El aumento de pines entre el zócalo LGA775 propio de los Core, y los 1.366 o 1156 de los Core i3/i5/
El papel que juega la CPU
La misión del procesador es la de ejecutar las instrucciones de las que se compone un programa. Todo en un ordenador son programas: desde el sistema operativo, hasta un juego o un navegador de Internet. El ritmoal que se procesan estas instrucciones viene dado por el reloj del sistema y se mide en unidades de frecuencia: hercios por segundo o, para facilitar su escritura, en millones de hercios por segundo. En los procesadores más rápidos, se utilizan ya los gigahercios.
La forma de operar de un procesador es esencialmente secuencial. Además, es necesario que los programas estén escritos en un lenguaje que sea totalmente «entendible» por la CPU. Los programas escritos en lenguajes de alto nivel se «compilan» para convertirlos en instrucciones compatibles con la arquitectura del procesador. En los PCs y el mundo Windows/Mac, se trata de arquitecturas X86 y X86-64. De todos modos, a pesar de ser un proceso secuencial, Intel y AMD han conseguido desarrollar tecnologías que consiguen que en cada ciclo de reloj se procese más de una instrucción.
Es posible analizar las secuencias de instrucciones y procesar «por adelantado» ciertas secuencias de código a modo de predicción. Generalmente, se acierta y se consigue que la pipeline de procesamiento esté constantemente ocupada. En algunos casos, sin embargo, la predicción es errónea y la penalización es invertir algunos ciclos de reloj vaciando la pipeline.
Otro recurso más reciente es aprovechar la multitarea de los sistemas operativos actuales o las propiedades multihilo de los programas, de modo que se puede distribuir el trabajo entre distintos procesadores en sistemas multiprocesador o entre los distintos núcleos integrados en una única CPU.
Los procesadores multinúcleo son la norma general en estos tiempos, ya sean físicos o «virtuales», como en el caso de los procesadores Intel con tecnología Multi-Threading. Los más recientes procesadores de Intel y AMD integran seis núcleos físicos, que, en el caso de Intel, pasan a ser 12 al aplicar esta tecnología.
Glosario
• Compilador: Software que se encarga de traducir los lenguajes de alto nivel en instrucciones de bajo nivel «entendibles» con el hardware de los ordenadores. Generalmente, generan instrucciones compatibles con arquitecturas X86 y X86-64. Tanto Intel como AMD disponen de compiladores optimizados para sus arquitecturas correspondientes, con juegos adicionales y propietarios que aceleran ciertas operaciones binarias.
• In Order vs Out of order: Las arquitecturas de procesadores han sido en las últimas generaciones de Intel y AMD de tipo out of order. A costa de aumentar la complejidad de diseño, se pueden procesar varias instrucciones por cada ciclo de reloj. Sin embargo, en los Atom de Intel, se ha vuelto a in order, donde no es posible usar algoritmos de predicción ni «adelantar» la ejecución de instrucciones fuera de su orden secuencial. Gracias a eso, el número de transistores es reducido y el consumo, comedido.
• Pipeline: Conjunto de etapas que conforman la secuencia de ejecución de código en una CPU. Un mayor número de etapas supone poder hacer más cosas a la vez, pero también «trocear» las instrucciones en tareas más simples que requieren a su vez una mayor velocidad de reloj.
• TDP (Thermal Design Power): Es el valor máximo para el consumo de los procesadores. En unos casos, se trata de la potencia calculada a partir de los valores de corriente consumidos, con un voltaje estándar y ciertas condiciones ambientales; en otros, del valor de disispación exigido para el sistema de refrigeración. Define una potencia disipada o consumida por el micro con máxima carga de trabajo.

MANTEN MAS LIMPIO EL DISCO DURO

El trabajo y la navegación diaria por Internet hacen que poco a poco se nos vaya ensuciando el disco duro, que va acumulando basura digital. Para evitarlo hay que ser constantes y realizar una limpieza de vez en cuando, pero lo cierto es que terminamos bajando la guardia y al final todos los discos acaban repletos de archivos inútiles que pueden terminar ralentizando nuesta máquina.
El remedio que aquí te presentamos no va a evitar que se ensucie tu disco, pero se encarga de limpiarlo de vez en cuando para que tú no tengas que estar tan pendiente. Para ello vamos a combinar dos utilidades que probablemente conoces. La primera es el Liberador de espacio en disco y la segunda es el Programador de tareas. Si no las conoces en profundidad seguro que al menos has oído hablar de ellas. Para combinarlas de manera efectiva, debes ir primero al Programador de tareas, este se encuentra en Inicio / Todos los programas / Accesorios / Herramientas del sistema.
Una vez en el programador, debes crear una tarea básica nueva. Para ello debes hacer clic en Acción y luego Crear Tarea Básica. Dale un nombre y una descripción y pulsa Siguiente.
A continuación debes decidir cada cuánto tiempo quieres realizar dicha limpieza y pulsar Siguiente. Elige el que más se ajuste dependiendo de la cantidad de trabajo a que sometas a tu equipo y de lo «limpio» que seas.
En la siguiente pantalla debes marcar cuándo empieza la tarea. En este ejemplo hemos elegido Semanalmente, así que en esta ventana seleccionaremos el día de la semana que se va a ejecutar dicha tarea. También puedes escoger si quieres que se repita la tarea cada número determinado de semanas.
En la siguiente ventana debes elegir la opción Iniciar un programa y en la siguiente debes escribir en el apartadoPrograma o Script «cleanmgr.exe». Pulsa Siguiente. En la última ventana nos aparecen todas las opciones que hemos ido seleccionando en el proceso y si marcamos Abrir el cuadro de propiedades de las tareas al pulsar finalizar, nos aparecen dichas propiedades.
En esta ventana se pueden configurar las propiedades y condiciones de la tarea, lo cual nos permite opciones interesantes y recomendables, como por ejemplo que el equipo se inicie para ejecutar la tarea si estaba apagado. No te recomiendo que desactives la opción Permitir que la tarea se ejecute a petición, ya que si lo haces, la única forma de ejecutar esta tarea es a través de la programación que tú has realizado. Si eres administrador, esto puede venirte muy bien para que no te «trasteen» los equipos. Siempre puedes volver al programador de tareas y en las propiedades de esta tarea, volver a cambiar este parámetro.

Analiza cómo gastas el espacio de tu disco duro

Cuando el disco duro se ha llenado de datos y queremos saber cómo se organizan estos, toca analizarlo. Para ello, podemos recurrir al, programa Xinorbis, que además es perfecto por sus múltiples opciones a la hora de presentar los datos. Primero, pulsa en la pestaña Information/Summary.
Después, para analizar un disco o carpeta, solamente tienes que seleccionar qué analizar pulsando en el botón en forma de carpeta y en Scan (con ello comenzará el análisis). Una vez concluido el proceso, pulsa en la pestaña Tablepara saber el número de ficheros de cada clase (imágenes, películas, documentos, etc.) que hay en tu disco, así como el tamaño de los mismos y el porcentaje de espacio que ocupan.
Si seleccionas el botón con un icono redondo, los resultados se visualizarán gráficamente a modo de diagrama de porciones y, si haces clic sobre el botón de barras, a modo de diagrama de barras. Otras de las opciones más útiles para presentar la información son: Folders, en función de los directorios; Magnitude, análisis por tamaño de ficheros;Dates, según la fecha de creación; Top 101, muestra los 101 más grandes (Largest Files) y los 101 más pequeños (Smallest Files); y Users, el tamaño ocupado por cada usuario. Después, puedes guardar un informe en formato HTML pulsando en el botón de Explorer.

COPIAS DE SEGURIDAD EN WINDOWS 7







Tus archivos digitales estarán siempre protegidos de la manera más fácil y cómoda que puedas imaginar gracias al último sistema de Microsoft. Tanto es así que ni siquiera es necesaria tu intervención
Nivel: Básico
La preocupación frente a la posibilidad de perder nuestros archivos digitales ya es cosa del pasado. Conserva tus fotos, vídeos, música, documentos, etc. gracias al Centro de Copias de Seguridad y Restauración de Windows 7. Todos sabemos lo importante que resulta hacer copias de seguridad de nuestros archivos más preciados. Pese a ello, suelen ser pocos los usuarios que las llevan a cabo de manera regular. Si nos centramos en aquellos usuarios que de manera habitual hacen copia de seguridad de sus archivos, son muchos los que recurren a programas de terceros para realizar dicha tarea. Pero en ninguna edición de Windows 7 (Home Premium, Professional y Ultimate) es necesario acudir a herramientas externas al propio sistema operativo.
Para llevar a cabo nuestra copia de respaldo necesitaremos un disco duro externo, cuya capacidad dependerá del volumen de datos que almacenemos en nuestro equipo. Veamos paso a paso cómo programar una copia de seguridad periódica de nuestro equipo haciendo uso del Centro de Copias de Seguridad y Restauración de Windows 7.
Paso 1. Una primera toma de contacto
Para acceder al Centro de Copias de Seguridad y Restauración de Windows, nos dirigimos a Inicio/Todos los programas/Mantenimiento/Copias de Seguridad y Restauración. En la pantalla que se abre, se nos da opción de Configurar copias de seguridad, Crear una imagen de sistema, Crear un disco de reparación del sistema, Seleccionar otra copia de seguridad para restaurar los archivos y Recuperar la configuración del sistema o el equipo. Vamos a centrarnos en la primera de las opciones, que trata de cómo configurar las copias de seguridad.

Paso 2. Elige la ubicación para la copia
Comenzamos conectando nuestra unidad de disco duro externa al equipo. A continuación, hacemos clic en Configurar copias de seguridad y, en ese panel, elegimos nuestra unidad de disco duro externa.
Opcionalmente, tenemos la oportunidad de guardar la copia de seguridad en red, aunque en nuestro ejemplo nos hemos decantado por el disco externo. Seguidamente, pulsamos Siguiente.

Paso 3. Los datos de origen
Ahora nos aparece una nueva ventana en la que se nos pregunta de qué deseamos hacer una copia de seguridad. Tenemos dos posibilidades. Dejar a Windows que elija es la opción más sencilla, pues guardará en la copia de respaldo todos nuestros archivos ubicados en bibliotecas (documentos, imágenes, música y vídeos), en el escritorio y en las carpetas de Windows predeterminadas (Contactos, Descargas, etc.). No obstante, cabe la posibilidad de que tengamos los datos alojados en otras particiones y, por tanto, nos interese más la segunda opción: Dejarme elegir. Así, seleccionaremos las bibliotecas o carpetas que deseamos incluir. En este paso a paso vamos a apostar por la segunda opción. A continuación, haz clic en Siguiente.

Paso 4. Selecciona los archivos
Puesto que hemos elegido en el paso anterior la segunda opción, tenemos la libertad de seleccionar qué archivos de nuestro equipo deseamos añadir a la copia de seguridad. Nos aparecen nuestras bibliotecas y podemos elegir aquellas que nos interesen y desmarcar las que no.
Asimismo, desde Equipo podemos ver todas nuestras particiones. Marcamos en todas ellas aquellas carpetas que nos interesen y desmarcamos las que no. También decidimos si deseamos o no una imagen de sistema. Ésta nos servirá para hacer que el equipo vuelva al estado en el que se encontraba justo antes de proceder a la copia de seguridad (con los mismos programas que había instalados, configuraciones, documentos, etc.), por si se diera el caso de que en un momento determinado la instalación de Windows se daña y no queremos perderlo todo. De nuevo, hacemos clic en Siguiente.

Paso 5. Revisa la configuración
En la nueva ventana, se nos informa acerca de la ubicación que hemos seleccionado para almacenar la copia, al mismo tiempo que se nos proporciona un resumen de los ficheros que hemos incluido en ella: bibliotecas de usuario, carpetas añadidas o excluidas… También se nos informa de si hemos añadido, o no, una imagen del sistema.
Por otro lado, se nos brinda la oportunidad de modificar la programación por defecto. Para ello, hacemos clic en Cambiar programación y, en la nueva pantalla, especificamos la frecuencia (diaria, semanal, mensual) con que se llevará a cabo la copia de seguridad, así como el día de la semana y la hora. Aceptamos para guardar los cambios. Para concluir con la configuración del backup, hemos de pinchar en Guardar configuración y ejecutar copia de seguridad.

Paso 6. Restaura los datos respaldados
Para afrontar esta tarea, nos dirigimos a la ventana principal del Centro de Copias de Seguridad y Restauración. Una vez ahí, comprobamos que tenemos a nuestra disposición dos alternativas a la hora de restaurar el contenido de una copia de seguridad. Si hemos realizado el backup en la instalación actual del sistema operativo, en el apartado Restauración nos aparecerá la opción Restaurar todos los archivos de usuarios. En cambio, si lo hemos hecho en una instalación anterior del sistema operativo, se nos indicará que Windows no encontró ninguna copia de seguridad para este equipo.
Si queremos recuperar el contenido de una copia de seguridad no realizada en la instalación actual de Windows 7, sino en una anterior, debemos acudir a Seleccionar otra copia de seguridad para restaurar los archivos.

Paso 7. Backups de otros sistemas
El Centro de Copias de Seguridad y Restauración procederá a buscar en todos los dispositivos conectados al PC una copia de seguridad que hayamos realizado por medio del mismo. Para que la localice, tendremos que tener conectado el disco duro externo en el que realizamos el respaldo de nuestros datos. Nos mostrará en pantalla todos los backups que ha encontrado, informándonos del periodo que abarca cada uno de ellos, el equipo en que se realizó y la ubicación del mismo. Elegimos la copia de seguridad de la cual queremos recuperar, total o parcialmente, su contenido y hacemos clic en Siguiente.

Nos aparece una nueva pantalla en la que tenemos básicamente dos opciones para recuperar nuestros archivos. Con Restauración total elegimos recuperar todos los archivos salvaguardados, mientras que con Restauración parcial solo obtendremos una parte. Eso sí, nos permite utilizar distintas opciones de búsqueda, como Buscar (introducimos una o varias palabras clave y se nos mostrarán todos los resultados, archivos o carpetas que coincidan con la búsqueda; desde ahí, podremos añadir para su recuperación aquellos resultados que nos interesen). Por su parte, tanto con Buscar archivos como con Buscar carpetas es factible navegar por la estructura de la copia de seguridad seleccionando los archivos o carpetas que nos interesen, respectivamente. Obviamente, sería muy complicado llevar a cabo una restauración parcial haciendo únicamente búsquedas por palabras clave. Una vez que hayamos seleccionado el contenido que nos interesa, hacemos clic en Siguiente, de modo que se inicie el proceso de restauración de archivos, bien en la ubicación original en que se encontraban en la anterior instalación de Windows 7 o bien en la ubicación que nosotros seleccionemos.

Conserva tus fotos, vídeos, música, documentos, etc. gracias al Centro de Copias de Seguridad y Restauración de Windows 7

AMPLIE LA POTENCIA DE TU WIFI

Si tu ordenador se conecta a través de Internet por WiFi y tienes problemas porque se encuentra en un lado de la casa donde apenas llega la señal, es posible que puedas solucionar el problema cambiando los canales del router o bien cambiando la potencia de la antena de tu dispositivo WiFi.
Lo primero es más complicado, porque cada router es diferente, pero generalmente debemos entrar a través del navegador web en la dirección IP de nuestro router. Para ello la teclearemos en el campo de URL; normalmente suele ser la 192.168.1.1 ó 192.168.0.1 También debes saber la clave del administrador. Si no la has cambiado -algo que lamentablemente suele ser habitual- la podrás encontrar en Internet haciendo una simple búsqueda. Las más usuales son user: admin / pass: admin o user: admin / pass: 1234.
Si tienes Imagenio deberás desconectarlo para entrar por web y es recomendable que lo hagas a través del portal Alejandra.

Por defecto, cuando te instalan el router suelen dejar alguno de los canales más bajos; sube el canal al más alto posible. Esto te garantiza una cobertura más estable. Si algún router de la zona usa el mismo canal, te harán interferencia por lo que tendrás que cambiar a uno inferior. Para ello entra en el apartado Configuración y luego en el apartado WiFi de tu router.

Selecciona un valor de los disponibles para la casilla Canal.

Cambiar la potencia de la antena de tu dispositivo WiFi no es un proceso complicado. Como hay innumerables marcas de dispositivos, cada una lo nombra o denomina de una manera diferente. Por ello debes buscar un apartado que se llame Power management, Transmit power, Potencia de transmisión o algo similar. Para llegar aquí, debemos ir a Equipo o Mi PC (depende del sistema operativo que tengas) y pulsar sobre él con el botón derecho. A continuación vamos a Propiedades y después a Administrador de dispositivos.

Abrimos la pestaña Adaptadores de red y seleccionamos el dispositivo WiFi. Pulsamos sobre él con el botón derecho y volvemos a elegir Propiedades. En la ventana que se abre seleccionamos Opciones avanzadas.

Aquí buscamos la opción que esté relacionada con la Potencia de transmisión. Ponemos el valor al máximo y pulsamos Aceptar.
Estas dos opciones por separado o en conjunto pueden mejorar la calidad de recepción de tu WiFi, si realmente esta necesita mejorar. 

Toshiba presenta un televisor 3D que no requiere gafas

Toshiba, en un comunicado recogido por BBC News, anuncia el primer televisor que permitirá ver imágenes tridimensionales sin necesidad de utilizar gafas. En palabras de Masaaki Oosumi, presidente de la sección de productos visuales de la firma japonesa, se trata de un lanzamiento necesario, «obviamente es más natural ver la televisión sin gafas».
La tecnología desarrollada, muy similar a la utilizada en la consola portátil Nintendo 3DS, se fundamenta en un sistema que emite rayos de luz con diferentes ángulos, lo que permitirá a los espectadores recrear las imágenes 3D sin tener que llevar gafas especiales. Para lograr su propósito, el espectador debe situarse dentro de la zona óptima de visión, lo que podría suponer un inconveniente si obliga al usuario a situarse muy cerca de la pantalla.
La oferta de Toshiba incluirá dos tamaños de pantalla, de 12 y 20 pulgadas, ya que resulta difícil implementar esta tecnología en televisores de gran tamaño. Por poner un ejemplo, la distancia adecuada a la que debe situarse el espectador para disfrutar de imágenes en tres dimensiones será de 90 centímetros para el modelo de 20 pulgadas y 65 centímetros para las 12 pulgadas.
Está previsto que Toshiba lance al mercado los televisores antes de fin de año, con un precio de 120.000 yenes (1.400 dólares) el tamaño de 12 pulgadas y 240.000 yenes (2.800 dólares) el modelo de 20 pulgadas. Por último señalar que la firma japonesa se encuentra trabajando en una pantalla de 56 pulgadas.