Mostrando entradas con la etiqueta hardware. Mostrar todas las entradas
Mostrando entradas con la etiqueta hardware. Mostrar todas las entradas

domingo, 7 de mayo de 2017

Windows 10 Creators update - Novedades de la versión

Windows 10 Creators Update - lanzada el 11 de abril de 2017.

Una actualización importantísima que añade mejoras muy esperadas como el Modo Juegos, el streaming 4K o la integración de la realidad virtual. Además incluye nuevas funcionalidades, todos los parches de seguridad publicados hasta ahora y corrige errores.

Vamos a dar un repaso a las principales novedades de esta nueva actualización de Windows 10:

Creatividad

Windows 10 Creators Update potencia la vertiente creativa de los usuarios, facilitando la creación y edición de contenidos 3D.

Paint 3D es una nueva versión de la veterana y aplicación de Windows diseñada para facilitar la creación de objetos 3D usando tanto pantalla táctil como teclado y ratón u otros dispositivos de entrada.

Microsoft ha puesto en marcha también una comunidad en línea que ofrece a los usuarios la posibilidad de exportar sus creaciones y compartirlas o descargar objetos 3D creados por otros usuarios. Además, Microsoft se ha unido al grupo de trabajo de Kronos que está desarrollando el formato abierto para contenido 3D, GL Transmission Format (glTF). para soportarlo nativamente en esta versión.


Configuración

La herramienta de Configuración general del sistema incorpora muchas de las funciones que hasta ahora se gestionaban desde el Panel de Control clásico. Las categorías de aplicaciones y juegos son nuevas, pero además hay más opciones en casi todos los apartados de esta herramienta básica para la gestión del sistema.

Interfaz de usuario

Se han realizado cambios menores en el menú de inicio y en sus teselas (Lives Tiles), principalmente para ofrecer mayores opciones de personalización. El aspecto general y funcionamiento es idéntico. 

Windows 10 Creators Update incorpor soporte mejorado de DPI (tamaño de texto) en las aplicaciones legado y universales, y más facilidad para cambiar el tamaño de las aplicaciones y gestionar la pantalla. Los monitores 2K y 4K son cada vez más comunes, pero los tamaños de letra utilizados por la mayoría de las aplicaciones están diseñados para pantallas HD (720p) y FullHD (1080p). Windows 10 permite cambiar el tamaño del texto, pero sólo se puede aumentar un 175%. Ahora se pueden establecer tamaños de texto más grandes y la opción de que sea la propia aplicación la que gestione este tema, para así dar soporte completo a los monitores 4K. Al entrar en Configuración de pantalla, ahora hay una nueva sección llamada Escala y Distribución, con el botón Personalizar la escala. Ofrece la opción de aumentar el tamaño de letra entre un 100 y un 500%.



Dispone de una barra lateral para gestionar las conexiones VPN y de una nueva herramienta de captura de pantalla (la que lleva OneNote 2016).


La barra de tareas y en el centro de actividades también han recibido mejoras. Por ejemplo una nueva barra de herramientas que permite consultar y gestionar sencilla y rápidamente el porcentaje de carga de la batería y su rendimiento; con una interfaz simple y clara muestra el porcentaje de carga de la batería y coloca justo en el centro una barra uno de cuyos extremos establece una máxima autonomía (izquierda) y el otro el máximo rendimiento (derecha).



También hay disponibles los nuevos temas (themes) que cambian varios elementos del sistema, fondo de escritorio, colores o sonidos, Los temas ahora se descargan desde la tienda de Windows en lugar de hacerlo desde una web de Microsoft como en versiones anteriores.

Borrado automático de ficheros

Se incluye la opción de que Windows haga automáticamente una pequeña limpieza del disco borrando archivos temporales y borrando de la papelera los ficheros que lleven más de 30 días en ella.

Realidad Virtual y “Mixta”

Windows 10 Creators Update potencia el uso de la realidad virtual/aumentada/mixta. Para empezar ha cambiado el nombre de Windows Holographic a Windows Mixed Reality, dando una “visión más amplia de la plataforma” y soportando la misma directamente en esta nueva versión de Windows 10. El objetivo es crear una plataforma más amplia que abarque los esfuerzos de Microsoft en realidad virtual, aumentada y mixta.

Windows 10 es totalmente compatible con dispositivos como Oculus Rift o HTC Vive. La propia Microsoft apostó por la realidad aumentada (mezcla de elementos virtuales y reales) con sus gafas Microsoft Hololens. Microsoft también va a lanzar unas gafas de realidad virtual llamadas Microsoft VR. En realidad se trata de un estándar y los dispositivos para esta plataforma como los cascos de realidad virtual/mixta serán desarrollados por grandes fabricantes como HP, Acer, Lenovo, Dell y Asus, entre otros. Microsoft VR incluirá seis sensores internos de movimiento que ofrecen una libertad de acción de 360 grados sin necesidad de mandos externos y, además, necesitará ordenadores menos potentes para disfrutar de su experiencia.

Windows Update – Actualizaciones

Generalmente las actualizaciones del sistema son beneficiosas, pero hay ocasiones en que nos dan más problemas de los que arreglan, o convierten un programa o un periférico en incompatible. Con Windows 10 Creators Update ya no será obligatorio instalar las actualizaciones, al menos durante un tiempo. Ahora las actualizaciones de características (mejoras y novedades) se pueden posponer hasta 365 días. Las actualizaciones de calidad (mejoras de seguridad), hasta 30 días. Quedan excluidos de este aplazamiento los cambios relacionados con la seguridad como las actualizaciones de las definiciones de Windows Defender. También se permite excluir los drivers de los periféricos si el usuario así lo estima oportuno, ya no será obligatorio instalar las nuevas versiones ni recibiremos notificaciones, algo especialmente útil para los usuarios a los que las nuevas actualizaciones de controladores les ocasionan problemas de compatibilidad con los periféricos.

Un nuevo sistema de actualizaciones pretende ahorrar tiempo y recursos como el ancho de banda a la hora de la descarga e instalación de actualizaciones. Ahora Microsoft creará paquetes “diferenciales” que permitirá disminuir en un 35% el tamaño de la descarga de las nuevas versiones de Windows 10, porque solo tendremos que realizar los cambios reales desde la última vez que se actualizó el dispositivo en lugar de una construcción completa el sistema.


Windows Defender

El antivirus y antimalware que trae de serie Windows 10 ha sido uno de los componentes más mejorados. Su nuevo nombre es Windows Defender Security Center y ya no solo ofrece protección antivirus y antimalware en tiempo real, sino que es un centro integrado de seguridad, mejorado en su interfaz de usuario y en su capacidad de funcionamiento.

Se puede realizar la revisión de las actualizaciones instaladas desde Windows Update o los controladores, obtener información sobre las conexiones de red, configuración del cortafuegos (firewall) de Windows y da acceso a la herramienta de solución de problemas.

También permite configurar la seguridad del navegador web ajustando la configuración de la función SmartScreen, advirtiendo de posibles sitios, descargas y aplicaciones maliciosas, además de gestionar el control parental, la actividad en línea de los menores y los controles para la compra de aplicaciones y juegos.

El nuevo Windows Defender también puede trabajar junto a soluciones antivirus de terceros.



Modo de juego

Se ha introducido un nuevo modo de juego para mejorar la experiencia en los videojuegos. Es una configuración opcional que sirve para que automáticamente el sistema dedique el máximo de recursos de hardware disponibles al juego, retirándolos de otros procesos del sistema.

El Modo Juego no hará que los juegos que rindan más o tengan mejores gráficos, sino que el framerate sea más estable. En muchos juegos es habitual que el framerate baje en escenas con mucha carga gráfica. Este nuevo modo desactiva tareas del sistema prescindibles mientras se juega y optimiza el uso de los núcleos de la CPU y la memoria RAM para dedicar más recursos al juego, reduciendo las bajadas de framerate.

Los juegos de Microsoft lanzados en Windows 10 y todos los que se ofrecen en la Tienda Windows serán compatibles con el Modo Juego, pero también funcionará con cualquier otro título de Windows, incluyendo los juegos de Steam.

El Modo Juego se activa en Configuración, entrando en la nueva sección Juegos. En la columna de la izquierda toca en Modo de Juego, y aquí podrás activarlo o desactivarlo.


También se ha añadido la función Beam (retransmisión), destinada a realizar streaming de las partidas. También se podrá interactuar de forma simple y directa con nuestros seguidores, que además podrán hacernos sugerencias en tiempo real.

Microsoft Edge

Se ha mejorado el navegador web exclusivo de Windows 10. Incorpora el bloqueo por defecto a Flash que ya están realizando otros navegadores. Tiene soporte WebVR para la ejecución de contenidos en HMDs y es compatible con la plataforma Windows Mixed Reality. Proporciona una navegación más organizada con la mejora de la gestión de pestañas, una función de vista previa de las pestañas y nuevos botones para su gestión rápida.

Edge ahora dispone de un botón para hibernar pestañas, de este modo quedan guardadas, sin consumir memoria, para acceder a ellas posteriormente. Para acceder a una pestaña hibernada tan solo  hay que pulsar en el botón Pestañas que has reservado y se abre una ventana que muestra una miniatura de las pestañas que están hibernadas, solo hay que pulsar en la que se desee despertar y ya está.

Edge ahora permite la lectura de libros electrónicos (ebooks) sin necesidad de software de terceros. Al integrarse en el navegador Edge la lectura de libros electrónicos beneficia de sus funciones, como usar Cortana para buscar el significado de una palabra, así como vídeo o material multimedia asociado. Se pueden usar los marcadores para guardar la posición de lectura. Tiene funciones para cambiar los tipos de letra, fondos, organización de la biblioteca, etc., incluso es capaz de leer en voz alta el contenido de los libros, con un resultado bastante satisfactorio.

Parece que Microsoft incluirá dentro de la tienda de Windows una sección para libros electrónicos.

El nuevo Edge también incorpora los pagos web y la apertura de una ventana InPrivate desde el icono de la misma barra de tareas.

Ahora Edge incluye una nueva característica llamada pestañas hibernadas que permite guardar las pestañas que se tengan abiertas para poder abrirlas más adelante de una vez. En la esquina superior izquierda hay dos nuevos botones: Reservar estas pestañas, que las guarda y las cierra y Pestañas que has reservado que y una ventana deslizante te las muestra los conjuntos de pestañas reservadas y permite restaurar el grupo que se desee.

La seguridad de Edge también se ha aumentado. Microsoft asegura que Edge bloquea un 9% más de ataques de phishing y un 13% más malware que Chrome.



Precision Touchpad

Los nuevos portátiles “diseñados para Windows 10” tendrán que usar obligatoriamente la tecnología Precision Touchpad en los paneles táctiles que incorporan para hacer la función del ratón.

Hasta ahora cada fabricante diseñaba sus touchpad, o los compraba a otros fabricantes, según le parecía resultando que cada dispositivo tenía un diseño y acabado distintos, ofreciendo distintas calidades y una funcionalidad que solía dejar que desear en un área u otra.

Para solucionar esta situación, Microsoft propuso una tecnología de calidad y estandarizada llamada Precision Touchpad, que ofrece a los fabricantes de hardware todo lo que necesitan para construir el mejor panel táctil en equipos Windows. La función está soportada nativamente en Creators Update y el fabricante que quiera tener la certificación “fabricado para Windows 10” deberá implementarla obligatoriamente en sus próximos equipos. De este modo se conseguirá una experiencia homogénea, de calidad y precisión en el uso de este dispositivo.

Bloqueo dinámico

Si emparejas un smartphone a través de Bluetooth con el ordenador, Windows 10 se bloqueará cuando te alejas y se desbloquearás cuando te acerques (si llevas el móvil encima, claro).

Cortana

Cortana, el asistente virtual de Windows 10, se ha mejorado con una nueva combinación de teclas (Win + C) para su ejecución; mayores opciones para los recordatorios y comandos sugeridos para aplicaciones que admitan esta función.

Cortana también ayudará en el trabajo cruzado en varios PCs, algo importante para quienes usan varios dispositivos y recurren a la sincronización entre ellos. Cuando pasemos de un equipo a otro mostrará enlaces para continuar de forma rápida y sencilla el trabajo que estábamos haciendo en otro equipo.

Modo Nocturno

La cantidad de luz azul que emiten las pantallas puede perturbar los ciclos del sueño y el correcto descanso al inhibir la producción de melatonina, que es la molécula que activa el sueño y propicia un buen descanso.

Windows 10 Creators Update tiene un filtro de luz azul para las horas nocturnas, de este modo se reduce la cantidad de luz azul de la pantalla para que evitar que nos cause insomnio. Si se activa esta opción el Modo Nocturno se activará al anochecer y cambiará los colores de la pantalla, haciéndolos más cálidos. La hora en la que se activa y se desactiva esta opción también se pueden ajustar a nuestro gusto.


Netflix a 4K Ultra HD

Windows 10 Creators Update es el único sistema operativo que permite ver Netflix a resolución 4K en un ordenador. Edge también es el único navegador que permite esto.

jueves, 30 de abril de 2015

Toshiba T1100, el primer ordenador portátil "LapTop"

Toshiba T1100
El 29 de abril de 2015 hizo 30 años de su lanzamiento.

Pesaba 4,1 Kg y costaba más de 4.000 $ estadounidenses. Le precedieron los portátiles Epson HX20 y el Osborne 1 (el primero en obtener un relativo éxito comercial), ambos lanzados en 1981.

Medía 30,98 centímetros por 30,48 centímetros y tenía las mismas prestaciones que los ordenadores de escritorio de la época. El monitor era LCD de 23,11 centímetros por 11,9 centímetros monocromo, con una resolución de 640×200 píxeles. La batería era de ácido de plomo y tenía ocho horas de autonomía. Llevaba el procesador Intel 80C88 de 8 MHz, 512 Kb de memoria RAM y sistema operativo MS-DOS (aún no existía Windows).

Presentó una gran innovación, los disquetes de 3,5", cuando los que se usaban en esa época eran 5,25" y se podía hibernar el ordenador.

Toshiba consiguió vender 10.000 aparatos en el primer año, principalmente en Europa, pese a su elevado precio.

Este ordenador portátil abrió el camino a los portátiles actuales.


Epson HX20
Epson HX20 es considerado el primer ordenador portátil. Fue dado a conocer por Epson en 1981.

De tamaño similar a un A4. Llevaba teclado, batería de níquel cadmio recargable, pantalla LCD de 120×32 pixeles que permitía mostrar 4 líneas de 20 caracteres, dos microprocesadores Hitachi 6301 (configurado como Maestro-Esclavo) de 0,614 MHz e impresora matricial del tamaño de una calculadora de bolsillo, 16 Kb de memoria RAM ampliables a 32Kb y llevaba como almacenamiento de datos una unidad de micro-casete. Pesaba aproximadamente 1.6 kg.


Osborne 1

Osborne 1 fue el primer ordenador portátil con éxito comercial.

Lanzado el 3 de abril de 1981 por Osborne Computer Corporation.

Funcionaba con el sistema operativo CP/M, muy popular en la época. Llevaba dos disqueteras de 5,25" que usaban disquetes de 100 Kb, procesador Zilog Z80 a 4 MHz, 60 Kb de memoria RAM, teclado separable en la tapa de la caja, monitor monocromo de 5" (13 cm) que podía mostrar 24 líneas de 52 caracteres, puerto paralelo para las impresoras, puerto serie RS-232 con una velocidad de 300 o 1.200 baudios para conectarlo a un módem.

No tenía batería, se enchufaba directamente a la red.

miércoles, 8 de enero de 2014

ARM, x86, RISC, CISC

CPU ARM x86
El procesador o CPU es el componente principal de los ordenadores y demás dispositivos programables como teléfonos inteligentes (smartphones), tabletas, etc. Su función es interpretar y ejecutar las instrucciones de los programas y procesar los datos.


Los procesadores de los ordenadores (de sobremesa, portátiles, etc.) son muy diferentes de los de otros dispositivos como los smartphones, tabletas, miniordenadores, etc. Los utilizados en los dispositivos portátiles, mal llamados móviles, como teléfonos, tabletas y PDA, etc. son de menor consumo y potencia que los utilizados en ordenadores y portátiles.

Existen principalmente dos tipos de arquitectura interna de procesadores que compiten por el mercado. Por un lado están los de arquitectura ARM y por otro los de arquitectura x86 desarrollada por Intel.

La principal diferencia entre una y otra arquitectura es que los procesadores ARM utilizan un conjunto de instrucciones muy pequeño y elemental por lo que se conocen como RISC (Reduced Instruction Set Computer = Ordenador con Conjunto Reducido de Instrucciones), mientras que la arquitectura de x86 Intel es de tipo CISC (complex instruction set computer = Ordenador con conjunto de instrucciones complejo) y usa un conjunto amplio de instrucciones complejas, y al decir complejas queremos decir que una sola instrucción desencadena la ejecución automática de varias instrucciones más elementales que completan la tarea.

La arquitectura RISC tiene un consumo eléctrico mucho más bajo que la CISC, lo cual hace que sean microprocesadores adecuados para su uso en terminales móviles dada la poca autonomía que ofrecen las baterías actuales. RISC también lleva a procesadores más pequeños y baratos, porque son menos complejos, lo que también ayuda a que resulten útiles para dispositivos móviles pues al ser más pequeños no precisan niveles de miniaturización tan altos como los procesadores CISC para alcanzar un tamaño determinado, lo que conduce a técnicas de fabricación menos complejas y avanzadas y por tanto más baratas.

La arquitectura RISC es posterior a la CISC y tiene su origen en investigaciones llevadas a cabo en la década de los 70 del siglo XX, buscando mejorar el rendimiento de los procesadores. EL principal desarrollador de ambas arquitecturas fue IBM.

CISC surgió en la década de los 50 del siglo XX y buscaba procesar instrucciones bastante completas (de alto nivel) y numerosas, aunque más lentas de ejecutar porque se descomponían en varias más elementales (de bajo nivel). Así se conseguía hacer programas más pequeños y sencillos de desarrollar que además realizaban pocos accesos a memoria, algo muy importante en aquella época porque la memoria era escasa, cara y lenta. El principal representante en la actualidad de la arquitectura CISC es x86 y sus principales desarrolladores y fabricantes son Intel y AMD.

RISC en cambio se basa en la ejecución de instrucciones elementales con un pequeño repertorio de instrucciones, pero genera programas más largos y más complicados de desarrollar (aunque el desarrollo de los compiladores e interpretes en los últimos años ha simplificado el proceso para los programadores). El principal desarrollador, quizá, de procesadores RISC actualmente es ARM que vende licencias para fabricarlos a otras empresas como Alcatel-Lucent, Apple, Cirrus Logic, LG, Nvidia, Sony, Nintendo, Samsung, Qualcomm, Sharp, Texas Instruments, Via, etc.

Un ejemplo muy burdo para explicar la diferencia podría ser el siguiente cálculo: A= B + C + D

En CISC podría ser:
    1-  "Suma B a C y a D y guarda en resultado en A"

En RISC podría ser:
    1- "Toma B"
    2- "Toma C"
    3- "Suma B a C"
    4- "Toma D"
    5- "Suma D a C"
    6- "Guarda C en A"

La relativa simplicidad de los procesadores ARM los hace ideales para aplicaciones de baja potencia, y por eso se han convertido en los procesadores dominantes en el mercado de la electrónica móvil e integrada.

El diseño de ARM empezó en 1983 en la empresa Acorn Computers. El diseño preliminar y los primeros prototipos se terminaron en 1985 y les llamaron ARM1. La primera versión comercial se llamó ARM2 y salió en 1986. A finales de la década de los 80 del siglo XX Apple empezó a trabajar con Acorn en el desarrollo de nuevas versiones del núcleo ARM. Acorn consideró que el echo de que un fabricante de ordenadores, como eran ellos y Apple, y el fabricante de los procesadores fuera el mismo podría retraer a los clientes, de modo que creó una nueva empresa llamada Advanced Risc Machines (ARM) encargada del desarrollo de los procesadores.

La arquitectura x86 la desarrolló Intel a principios de la década de los 70 del siglo XX. En 1986 Intel comercializó el procesador 8086, un procesador de 16 bits en la época en la que dominaban los procesadores de 8 bits. También sacó el procesador 8088 que era como el 8086, de 16 bits, pero con un bus externo de 8 bits que permitía utilizar la circuitería existente en la época. Este procesador fue el escogido por IBM para construir la línea de ordenadores más exitosa de la historia: el IBM PC. Fue tal el éxito de estos ordenadores personales que Intel ha mantenido desde entonces, hasta el año 2001, la compatibilidad hacia atrás en todos sus nuevos procesadores, ampliando y mejorando el conjunto de instrucciones x86 (por el nombre del procesador 8086) pero manteniendo la compatibilidad, de este modo cualquier nuevo procesador podía ejecutar perfectamente cualquier programa desarrollado para uno de sus predecesores.

lunes, 9 de septiembre de 2013

Power Line Communications (PLC) red local a través de los enchufes

Powerline (PLC)
Power Line Communications (PLC) es una tecnología de comunicaciones que nos permite crear redes locales cableadas, usando los cables eléctricos también como cables de red. Es una tecnología que lleva ya muchos años utilizándose y que va experimentando sucesivas mejoras.

PLC utiliza el cableado eléctrico ya existente para utilizarlo también como cableado de red local de alta velocidad, permitiendo, entre otras cosas el acceso a Internet a través del enrutador de ADSL o cable y compartir impresoras, carpetas, ficheros, discos y otros recursos entre ordenadores de la red local.

Funciona de una forma parecida a como lo hace el módem de ADSL o los antiguos módems telefónicos, pero utilizando la red eléctrica en lugar de la telefónica.

Para desplegar la red local se necesitan unos aparatos que por un lado se conectan al enchufe eléctrico y por otro al ordenador, impresora, enrutador, etc. con un cable de red Ethernet estándar. Como mínimo harán falta una pareja de aparatos para conectar el enrutador o conmutador (switch) con un ordenador o dispositivo.

Es una forma fiable y rápida de crear una red local flexible pues los dispositivos se pueden cambiar libremente de lugar, siempre que tengan cerca un enchufe eléctrico para conectar el PLC.

Al usar nuestros cables eléctricos no es necesario invertir en cableado de red específico y tenemos la facilidad, como ye hemos dicho, de cambiar los dispositivos de lugar sin tener que invertir en modificar el cableado.

El uso de PLC en más seguro que el uso de WiFi, pues nuestro cableado eléctrico queda restringido a nuestro domicilio, local o instalación, mientras que el WiFi atraviesa paredes, techos y suelos y puede ser recibido desde fuera de nuestro domicilio, local o instalación. Pero por contra obliga a estar cerca de un enchufe y, por tanto, no es útil para los dispositivos móviles.

Para mayor seguridad la comunicación entre los PLC de la red se cifra. La velocidad máxima teórica es de 500 Mbps e incluso Gigabit.

Una variante de la tecnología PLC la utilizan las compañías eléctricas para obtener de forma remota las lecturas de los contadores y para intercambiar datos entre subestaciones. También estas empresas han estado ensayando durante un tiempo la oferta de conexión a Internet con banda ancha a través de su red eléctrica, aunque finalmente no se ha desarrollado porque puede producir interferencias de radiofrecuencia en la banda de las ondas cortas (las que usan los radioaficionados).

La implementación más popular es conocida como HomePlug y es la que se utiliza a nivel doméstico.
Sus principales estándares son:
Estándar
Fecha de lanzamiento
Velocidad máxima teórica
HomePlug 1.0
Junio 2001
14Mbps
HomePlug 1.0 Turbo
¿?
85Mbps
HomePlug AV
Agosto 2005
200Mbps / 500Mbps
HomePlug AV2
Enero 2012
500+Mbps / Gigabit


Los aparatos HomePlug 1.0 no son compatibles con los HomePlug AV y AV2.

En 1975 ya se lanzó el protocolo X10 para fines domóticos (hogares inteligentes con electrodomésticos que se comunican entre ellos a través de los cables eléctricos).

Aunque se supone que los adaptadores HomePlug de la misma tecnología son compatibles entre si con independencia del fabricante, en la realidad es buena idea adquirirlos todos del mismo modelo y fabricante, se ahorrará muchos quebraderos de cabeza.

El despliegue de una red PLC es más caro que el de una red WiFi, aunque los precios han bajado mucho en los últimos años. De todas formas la red PLC ofrece mayor fiabilidad y velocidad que la red WiFi y puede coexistir con ella perfectamente de modo que según la aplicación se puede usar un tipo de conexión u otro.

Ventajas de PLC
  • Red cableada flexible (los dispositivos se pueden cambiar de ubicación fácilmente) de despliegue rápido y sin obras.
  • Alcance de varias decenas de metros dentro de un mismo cableado.
  • No le afectan los muros ni los obstáculos.
  • Queda, teóricamente, limitado al interior de nuestra instalación.
  • Mayor velocidad teórica que WiF-N
  • Independencia del sistema operativo y dispositivo.

Desventajas de PLC
  • En ocasiones parece que la señal puede salir de nuestra instalación.
  • La velocidad no llega a alcanzar la de las redes Gigabit.
  • Al igual que sucede con las conexiones WiFi el ancho de banda (velocidad de conexión) se divide entre todos los dispositivos conectados.
  • Al utilizar un medio de transmisión diseñado con propósitos distintos de la transmisión de datos y que, además, le resulta  hostil, pueden darse problemas de conectividad o interferencias.
  • Resulta difícil predecir el comportamiento de la instalación antes de desplegarla, pueden darse incluso interferencias con otros aparatos eléctricos.

miércoles, 23 de enero de 2013

Smartphone, tableta, phablet, netbook, portátil...

Actualmente tenemos a nuestro alcance una variedad de dispositivos informáticos cuyas funciones se solapan en ciertos ámbitos, haciendo que no sea fácil distinguir la utilidad o las ventajas de un tipo de dispositivo sobre otro.

Por otro lado el constante aumento de la capacidad informática de los teléfonos (Smartphones) y el correspondiente abaratamiento del resto de sistemas informáticos contribuyen a incrementar la confusión.

En este artículo vamos a tratar de explicar de forma sencilla que son y para qué sirven cada uno de ellos.

Smartphone:
Un Smartphone es un teléfono móvil (portátil) que, a parte de las funciones de telefonía, agenda y gestión de contactos, dispone de potencia informática suficiente para facilitar el acceso a Internet a través de WiFi o de conexiones de "datos móviles" permitiendo navegar por la Web, acceder a la amplia variedad de servicios basados en la nube como navegación, mapas, almacenamiento, redes sociales, etc., consultar el correo electrónico y también descargar e instalar pequeñas aplicaciones conocidas como "apps" que ofrecen desde juegos hasta distintas herramientas de productividad y utilidades. No suelen contar con conectores USB, VGA o HDMI para conectarlos con otros periféricos como monitores, televisores, impresoras, proyectores, unidades de almacenamiento externo, teclados, ratones, mandos de juegos, etc., la mayoría quedan limitados al uso de Bluetooth. Suelen contar con cámara de fotos y cámara para videoconferencia.

Tableta (Tablet):
Una tableta se puede considerar, en general, como un Smartphone sin las funciones de telefonía y con la pantalla grande. Algunos tienen la posibilidad de que se les acople un teclado con lo que se agiliza la entrada de datos. Pueden contar con algún conector como USB o HDMI para conectarlos con otros periféricos como monitores, televisores, impresoras, proyectores, unidades de almacenamiento externo, teclados, ratones, mandos de juegos, etc. Suelen contar con cámara para videoconferencia y algunos también con cámara fotográfica.

En ocasiones se les dota de mayor potencia informática que a los smartphones lo que les capacita para ejecutar "apps" más pesadas.

Phablet:
Es una nueva categoría de dispositivos que aúnan características de los smartphones y las tabletas. Son smartphones dotados de pantallas más grandes y generalmente mayor potencia informática. En la potencia informática y el tamaño de la pantalla se aproximan a las tabletas y en las conexiones y capacidades de telefonía a los smartphones.

Netbook:
Los Netbook son ordenadores portátiles pequeños con las funcionalidades básicas. No disponen de lectores de CD/DVD aunque suelen contar con algún conector como USB o HDMI para conectarlos con otros periféricos como monitores, televisores, impresoras, proyectores, unidades de almacenamiento externo, teclados, ratones, mandos de juegos, etc. Disponen de pantallas más grandes que las de las tabletas y de teclado, además de mayor capacidad de almacenamiento masivo ya que suelen disponer de disco duro. Suelen contar con cámara para videoconferencia y lector de tarjetas de memoria, altavoces y micrófono. Su pequeño tamaño obliga a usar teclados reducidos y teclas más pequeñas y juntas.

Portátil:
Los portátiles, también conocidos como "laptop" o "notebook" son ordenadores con características similares a las de los ordenadores de sobremesa. Cuentan con teclado pantalla de mayor tamaño que los netbook, conectores USB, HDMI o VGA, lector de CD/DVD, lector de tarjetas, cámara para videoconferencia, altavoces, micrófono, salidas y entradas de audio, dispositivo señalador (touchpad) para hacer las funciones del ratón. Su mayor tamaño permite teclados completos y teclas más grandes y separadas.


Tabla resumen (generalización):
 
Característica
Smartphone
Tableta
Phablet
Netbook
Portátil
Tamaño pantalla
3 a 5”
7 a 10”
5 a 6”
10 a 13”
13 a 20”
Almacenamiento
8, 16 o 32 GB
16, 32 o 64 GB
16, 32 o, 64 GB
160 a 500 GB
250 GB a 1 TB
Teclado
No
No / opcional
No
Si
Si
Teléfono
Si
No
Si
No
No
Sistema operativo
iOS, Android, Windows Phone, otros
iOS, Android, Windows 8
Android
Windows, Linux
Windows, Mac OS X, Linux
Lector DVD
No
No
No
No
Si
Lector tarjetas
No
No
No
Si
Si
Cámara videoconferencia
Si
Si
Si
Si
Si
Cámara de fotos
Si
Puede llevar
Si
No
No
Conectividad
Pobre
Media
Pobre
Media
Buena
Usos principales
Teléfono, mensajería, Internet, redes sociales, fotos, PDA, reproductor multimedia, juegos sencillos
Internet, redes sociales, mensajería, PDA, reproductor multimedia, libro electrónico, juegos sencillos
Teléfono, mensajería, Internet, redes sociales, fotos, PDA, reproductor multimedia, libro electrónico, juegos sencillos
Internet, redes sociales, mensajería, PDA, ofimática, reproductor multimedia, libro electrónico, presentaciones,
juegos sencillos
Productividad, aplicaciones de escritorio, ofimática, Internet, redes sociales, reproductor multimedia, editor multimedia, libro electrónico, presentaciones, juegos

jueves, 29 de noviembre de 2012

Televisión 3D

televisión 3DLa televisión 3D para el hogar es una realidad que cada vez está alcance de más personas. Sin embargo existen distintas tecnologías de visualización que hacen que la elección de un modelo u otro resulte complicada.
La visualización 3D no solo se limita a los televisores, también está presente en las pantallas de ordenadores, videoconsolas e, incluso en algunos teléfonos móviles.
Las pantallas 3D son todavía una tecnología en plena evolución, por lo que no hay un sistema normalizado ni unificado, cada fabricante ofrece el suyo propio.
Las imágenes 3D las forma directamente nuestro cerebro a partir de dos imágenes ligeramente distintas que son las que recibe de cada uno de nuestros ojos. Al ocupar cada ojo una posición distinta las imágenes que captan difieren levemente entre ellos y es el cerebro el encargado de unificarlas y mostrar la imagen con profundidad. La visualización 3D consiste en ofrecer imágenes ligeramente diferentes para cada ojo de forma que el cerebro, como hace normalmente, las una formando la imagen en tres dimensiones.
Actualmente existen principalmente tres formas de ver imágenes 3D: con gafas pasivas, con gafas activas y directamente, sin gafas. Veamos en qué consiste cada sistema.
La pantalla siempre muestra las imágenes de forma secuencial (progresiva) una tras otra, primero un fotograma para un ojo, luego el mismo fotograma para el otro ojo y así sucesivamente. Pero la forma en que se reciben las imágenes cambia de un sistema a otro. Actualmente se usan tres métodos:
  • Side-by-Side (una al lado de la otra): cada fotograma se manda comprimido como una imagen que contiene en su mitad izquierda la imagen para el ojo izquierdo y en la derecha la del ojo derecho. El televisor se encarga de separarlas y mostrarlas una tras otra de forma secuencial (progresiva). La principal desventaja de este método es que se pierde la mitad de la información quedando la alta definición en 720p(HD ready) en lugar de los 1080pdel Full HD, pero precisamente por eso se ahorra ancho de banda y es el método usado por las emisoras de televisión 3D.
  • Top-Bottom (arriba y abajo): cada fotograma se manda comprimido como una imagen que contienen en su mitad superior la imagen para un ojo y en su mitad inferior la imagen para el otro ojo. El televisor se encarga de separarlas y mostrarlas de forma progresiva. Aquí hay dos métodos uno, que conserva la totalidad de la calidad de la imagen en alta definición manda imágenes con el doble de altura de forma que tanto la superior como la inferior tienen los 1080p del Full HD, pero requiere mucha mayor potencia de proceso en el televisor para separar las imágenes y también el doble de ancho de banda para emitirlas. La otra forma es, como en caso side-by-side, comprimir las dos imágenes en una sola, entonces presenta los mismos inconvenientes respecto a la resolución que el citado método, pero se ahorra mucho ancho de banda y también se usa por las emisoras de televisión 3D.
  • Progressive: Las imágenes se mandan de forma secuencial, tal como se deben presentar primero el fotograma de un ojo y luego el del otro ojo y así sucesivamente. Este método es el que menos potencia de cálculo precisa en el televisor y es el que conserva la totalidad de la definición de la imagen.

Sea cual sea la forma en que se emiten las imágenes para poder verlas se dispone en la actualidad de tres métodos, dos usando gafas especiales y un tercero sin gafas.

3D con gafas pasivas

Con el sistema 3D pasivo las imágenes se muestran en la pantalla polarizadas, es decir la luz viaja en un única orientación en el plano, por ejemplo unas en horizontal y otras en vertical. Cada cristal de las gafas deja pasar la imagen polarizada en una única orientación de forma que un ojo ve la imagen polarizada en horizontal y el otro la imagen polarizada en vertical. En la pantalla se muestran, de forma consecutiva, dos imágenes para cada fotograma una polarizada para el ojo izquierdo y la otra para el derecho. Para mantener la ilusión de movimiento el ritmo de presentación de imágenes ha de ser como mínimo el doble del normal para que cada ojo perciba el movimiento con fluidez y naturalidad, ya que hay que mostrar dos imágenes de un mismo fotograma.
Al ser unas gafas normales pero con cristales tallados son más baratas, pesan menos, son menos voluminosas y no requieren pilas ni sistemas especiales para su funcionamiento.
Antes de las actuales gafas polarizadas se usaban las gafas con cristales anáglifos que eran de distinto color para cada ojo.
Estas gafas ofrecen imágenes luminosas y definidas, cansan menos y comprar gafas adicionales sale más barato..

3D con gafas activas

Con el sistema 3D activo las gafas se sincronizan con el televisor y el cristal de cada ojo se vuelve transparente cuando la imagen que se muestra corresponde a ese ojo y opaco en caso contrario. La sincronización puede hacerse por varios medios como son infrarrojos y ondas de radio.
Son más caras, pesadas y voluminosas que las pasivas. Además necesitan pilas para funcionar de modo que hay que tener de reserva por si se agotan en el momento más inoporturno, algunos modelos llevan baterías recargables, por lo que hay que asegurarse de la carga para no quedarse sin ellas a mitad ver lo que más nos interese. El tipo de gafas está ligado al televisor y no suelen ser compatibles las de una marca con las de otra, a veces incluso tampoco son compatibles entre distintos modelos de un mismo fabricante.
Con este tipo de gafas es que las imágenes son menos luminosas y el parpadeo cansa más a algunas personas, además comprar gafas adicionales es caro.

3D sin gafas, pantalla autoestereoscópica

En este tipo de visualización las imágenes se ven en tres dimensiones sin necesidad de usar gafas ni ningún otro accesorio. Este tipo de pantallas todavía está muy poco difundido y se usan varios métodos para que cada ojo vea una imagen distinta. Algunas tecnologías empleadas en este tipo de pantallas hace que las imágenes sean menos brillantes y contrastadas. También se limita el ángulo de visión y el número de espectadores. De momento no es una opción que esté al alcance del gran público y aún hay que desarrollarla más.
Algunos fabricantes ofrecen gafas mixtas que se pueden usar a la vez como pasivas y como activas y que son compatibles con varios fabricantes y modelos a la vez.
A la hora de comprar un televisor 3D nos podemos encontrar con distintas siglas cuyo significado muchas veces no queda claro, veamos que son:
3D Ready. Se utiliza en televisores que pueden mostrar imágenes 3D pero que para abaratar costes no incluyen los accesorios necesarios para ver las imágenes en 3D. Pueden ser adecuados para las personas que no están muy seguras del 3D y por tanto no quieren gastar dinero en ello, pero no renuncian a usarlo en el futuro adquiriendo el correspondiente kit. En un equipo Blue-ray hace referencia a que el dispositivo no puede reproducir películas 3D, pero que en el futuro es posible que el fabricante saque una actualización descargable para que si lo haga.
Full 3D: Los equipos con esta denominación llevan todo el equipamiento necesario para ver las imágenes en 3D desde el primer momento, sin necesidad de adquirir kits o actualizaciones de firmware.