jueves, 3 de diciembre de 2009

Que es y para que sirven

DESFRAGMENTADOR:
La desfragmentación es el proceso mediante el cual se acomodan los archivos de un disco de tal manera que cada uno quede en un área contigua y sin espacios sin usar entre ellos. Al irse escribiendo y borrando archivos continuamente en el disco duro, éstos tienden a no quedar en áreas contiguas, así, un archivo puede quedar "partido" en muchos pedazos a lo largo del disco, se dice entonces que el archivo está "fragmentado". Al tener los archivos esparcidos por el disco, se vuelve ineficiente el acceso a ellos.

El problema de almacenamiento no contiguo de archivos se denomina fragmentación, se produce debido al almacenamiento de archivos en dispositivos como disco duro y memoria RAM por el uso del computador.

La fragmentación es un problema que surge debido al ordenamiento interno de los datos en algunos sistema de archivos. Se da muy comúnmente en el sistema operativo Windows aunque también afecta a otras plataformas pero en una escala mucho menor. También se produce fragmentación dentro de la memoria del computador (memoria RAM) cuando se asignan los procesos a los diferentes bloques de memoria. Existen dos tipos de fragmentación: interna y extena.
WINZIP:
WinZip es un compresor de archivos comercial que corre bajo Microsoft Windows, desarrollado por WinZip Computing (antes conocido como Nico Mak Computing). Utiliza el formato PKZIP de PKWARE, y también puede manejar varios formatos de archivo adicionales. Es un producto comercial con una versión de evaluación gratuita.

WinZip comenzó su vida a principios de los años 1990, como un frontal gráfico GUI para PKZIP, con licencia shareware. En 1996, los creadores de WinZip incorporaron código de compresión del proyecto Info-ZIP, haciendo que no fuera necesario el ejecutable PKZIP.

WinZip es una herramienta potente y fácil de usar, que comprime y descomprime archivos rápidamente, permitiendo ahorrar espacio en disco y reduciendo al máximo el tiempo de transmisión de un correo electrónico.

BACKUP
Una copia de seguridad o backup en informática es un archivo digital, un conjunto de archivos o la totalidad de los datos considerados lo suficientemente importantes para ser conservados. También se emplea el termino a veces como un eufemismo para denominar a cualquier archivo pirata. La única diferencia reside en haber comprado anteriormente el contenido del backup o haberlo creado el poseedor.



hipervinculo

karen

costo y caracteristicas de dipositivos perifericos



MOUSE: mini mouse hp inalámbrico laser óptico costo $288
En este caso el dispositivo carece de un cable que lo comunique con la computadora, en su lugar utiliza algún tipo de tecnología inalámbrica. Para ello requiere un receptor de la señal inalámbrica que produce, mediante baterías, el mouse. El receptor normalmente se conecta a la computadora por USB, o por PS/2. Según la tecnología inalámbrica usada pueden distinguirse varias posibilidades:
Radio Frecuencia (RF): Es el tipo más común y económico de este tipo de tecnologías. Funciona enviando una señal a una frecuencia de 2.4Ghz, popular en la telefonía móvil o celular, la misma que los estándares IEEE 802.11b y IEEE 802.11g. Es popular, entre otras cosas, por sus pocos errores de desconexión o interferencias con otros equipos inalámbricos, además de disponer de un alcance suficiente: hasta unos 10 metros.
Infrarrojo (IR): Esta tecnología utiliza una señal de onda infrarroja como medio de trasmisión de datos, popular también entre los controles o mandos remotos de televisiones, equipos de música o en telefonía celular. A diferencia de la anterior, al tener un alcance medio inferior a los 3 metros, y como emisor y receptor deben estar en una misma línea visual de contacto directo ininterrumpido, para que la señal se reciba correctamente, su éxito ha sido menor, llegando incluso a desaparecer del mercado.
Bluetooth (BT): Bluetooth es la tecnología más reciente como transmisión inalámbrica (estándar IEEE 802.15.1), que cuenta con cierto éxito en otros dispositivos. Su alcance es de unos 10 metros o 30 pies (que corresponde a la Clase 2 del estándar Bluetooth).
MONITOR: monitor LCD hp costo $2050
Píxel: Unidad minima representable en un monitor.
Tamaño de punto o (dot pitch): El tamaño de punto es el espacio entre dos fósforos coloreados de un pixel. Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. Los tamaños de punto más pequeños producen imágenes más uniformes. Un monitor de 14 pulgadas suele tener un tamaño de punto de 0,28 mm o menos. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones. En LCD y en CRT de a pertura de rejilla, es la distancia en horizontal, mientras que en los CRT de máscara de sombra, se mide casi en diagonal. Lo mínimo exigible en este momento es que sea de 0,28mm. Para CAD o en general para diseño, lo ideal sería de 0,25mm o menos. 0,21 en máscara de sombra es el equivalente a 0.24 en apertura de rejilla.
Área útil: El tamaño de la pantalla no coincide con el área real que se utiliza para representar los datos.
Resolución máxima: es la resolución máxima o nativa (y única en el caso de los LCD) que es capaz de representar el monitor; está relacionada con el tamaño de la pantalla y el tamaño.
Tamaño de la pantalla: Es la distancia en diagonal de un vértice de la pantalla al opuesto, que puede ser distinto del área visible.
Ancho de banda: Frecuencia máxima que es capaz de soportar el monitor
Hz o frecuencia de refresco vertical: son 2 valores entre los cuales el monitor es capaz de mostrar imágenes estables en la pantalla.
Hz o frecuencia de refresco horizontal : similar al anterior pero en sentido horizontal, para dibujar cada una de las líneas de la pantalla.
Blindaje: Un monitor puede o no estar blindando ante interferencias eléctricas externas y ser más o menos sensible a ellas, por lo que en caso de estar blindando, o semiblindado por la parte trasera llevara cubriendo prácticamente la totalidad del tubo una plancha metalica en contanto con tierra o masa.
Tipo de monitor: en los CRT pueden existir 2 tipos, de apertura de rejilla o de máscara de sombra.
Líneas de tensión: Son unas líneas horizontales, que tienen los monitores de apertura de rejilla para mantener las líneas que permiten mostrar los colores perfectamente alineadas; en 19 pulgadas lo habitual suelen ser 2, aunque también los hay con 3 líneas, algunos monitores pequeños incluso tienen una sola.
Métodos para limpiar monitores de LCD:
Agua destilada y un paño que no suelte pelusas como los de limpiar las gafas, ligeramente humedecido.
Productos específicos para limpiar pantallas de LCD,
Limpiador antiestático.
Hay que tener en cuenta que existen 2 tipos de pantallas: mates y brillantes; en cualquier caso mire en el manual de instrucciones de la pantalla cómo limpiarlo, o en su defecto al fabricante, ya que la limpieza de un monitor con productos no destinados a tal fin pueden dejar manchas en la pantalla de forma permanente
TECLADO: teclado ergonómico Logitech wave costo $549
La disposición del teclado es la distribución de las teclas del teclado de una computadora, una máquina de escribir u otro dispositivo similar.
Existen distintas distribuciones de teclado, creadas para usuarios de idiomas diferentes. El teclado estándar en español corresponde al diseño llamado QWERTY. Una variación de este mismo es utilizado por los usuarios de lengua inglesa. Para algunos idiomas se han desarrollado teclados que pretenden ser más cómodos que el QWERTY, como por ejemplo el Teclado Dvorak.
Las computadoras modernas permiten utilizar las distribuciones de teclado de varios idiomas distintos en un teclado que físicamente corresponde a un solo idioma. En el sistema operativo Windows, por ejemplo, pueden instalarse distribuciones adicionales desde el Panel de Control.
Existen programas como Microsoft Keyboard Layout Creator1 y KbdEdit,2 que hacen muy fácil la tarea de crear nuevas distribuciones, ya para satisfacer las necesidades particulares de un usuario, ya para resolver problemas que afectan a todo un grupo lingüístico. Estas distribuciones pueden ser modificaciones a otras previamente existentes (como el teclado latinoamericano extendido3 o el gaélico4 ), o pueden ser enteramente nuevas (como la distribución para el Alfabeto Fonético Internacional,5 o el panibérico6 ).
A primera vista en un teclado podemos notar una división de teclas, tanto por la diferenciación de sus colores, como por su distribución. Las teclas grisáceas sirven para distinguirse de las demás por ser teclas especiales (borrado, teclas de función, tabulación, tecla del sistema…). Si nos fijamos en su distribución vemos que están agrupadas en cuatro grupos:
Teclas de función: situadas en la primera fila de los teclados. Combinadas con otras teclas, nos proporcionan acceso directo a algunas funciones del programa en ejecución.
Teclas de edición: sirven para mover el cursor por la pantalla.
Teclas alfanuméricas: son las más usadas. Su distribución suele ser la de los teclados QWERTY, por herencia de la distribución de las máquinas de escribir. Reciben este nombre por ser la primera fila de teclas, y su orden es debido a que cuando estaba organizada alfabéticamente la máquina tendía a engancharse, y a base de probar combinaciones llegaron a la conclusión de que así es como menos problemas daban. A pesar de todo esto, se ha comprobado que hay una distribución mucho más cómoda y sencilla, llamada Dvorak, pero en desuso debido sobre todo a la incompatibilidad con la mayoría de los programas que usamos.
Bloque numérico: situado a la derecha del teclado. Comprende los dígitos del sistema decimal y los símbolos de algunas operaciones aritméticas. Añade también la tecla especial Bloq Num, que sirve para cambiar el valor de algunas teclas para pasar de valor numérico a desplazamiento de cursor en la pantalla. El teclado numérico también es similar al de un calculadora cuenta con las 4 operaciones básicas que son + (suma), - (resta), * (multiplicación) y / (división).
CAÑON DE DATOS: cañón video proyector Sony costo $8349
El proyector, infocus o cañón, es un equipo externo que despliega la imagen que se ve en el monitor en tamaño grande, con la ayuda de un foco interno y una pared o cortina blanca refleja la imagen. Es usado para mostrar a un grupo de personas algún archivo o documento que en un monitor seria difícil que todos lo percibieran.

vacunas para eliminar virus informaticos


VACUNAS PARA ELIMINAR VIRUS INFORMATICOS:
CA: Sólo detección: Son vacunas que solo detectan archivos infectados sin embargo no pueden eliminarlos o desinfectarlos.
CA: Detección y desinfección: son vacunas que detectan archivos infectados y que pueden desinfectarlos.
CA: Detección y aborto de la acción: son vacunas que detectan archivos infectados y detienen las acciones que causa el virus.
CA: Detección y eliminación de archivo/objeto: son vacunas que detectan archivos infectados y eliminan el archivo u objeto que tenga infección.
CB: Comparación directa: son vacunas que comparan directamente los archivos para revisar si alguno esta infectado
CB: Comparación por firmas: son vacunas que comparan las firmas de archivos sospechosos para saber si están infectados.
CB: Comparación de signatura de archivo: son vacunas que comparan las signaturas de los atributos guardados en tu equipo.
CB: Por métodos heurísticos: son vacunas que usan métodos heurísticos para comparar archivos.
CC: Invocado por el usuario: son vacunas que se activan instantáneamente con el usuario.
CC: Invocado por la actividad del sistema: son vacunas que se activan instantáneamente por la actividad del sistema Windows xp/vista

sistema operativo modo grafico


SISTEMA OPERATIVO MODO GRAFICO:
Se entiende por modo grafico, toda aquella interfaz que involucre el uso de ventanas y ratón. En un principio las computadoras utilizaban solo modo texto, una vez que la tecnología lo permitió, la compañía Xerox invento el dispositivo de ratón que en conjunto con un sistema de ventanas permitida una integración mas amigable para el usuario.
En gran medida se le atribuye el boom de la computación al desarrollo de entornos gráficos y la facilidad de uso que ellos involucran. En la actualidad, la mayoría de los sistemas operativos involucra la posibilidad de visualización de entornos gráficos.
Muchos usuarios avanzados, generalmente programadores, piensan en seguir usando el modo texto para todas o algunas de sus tareas, ya que, afirman que el trabajo en modo texto suele ser más rápido, por medio de atajos y complejas combinaciones te teclas para realizar operaciones sencillas como imprimir un documento. Sin embargo, cabe destacar que el modo gráfico ha mejorado la usabilidad de los sistemas computacionales.

sistema operativo modo texto


SISTEMA OPERATIVO MODO TEXTO:
En los primeros años de las computadoras, durante la era de los mainframes (grandes ordenadores en tamaño aunque con capacidades de cálculo muy inferiores a los ordenadores actuales), el control de la ejecución de los programas se hacía desde lugares especiales (normalmente ubicados cerca del ordenador en salas con aire acondicionado), donde el administrador manipulaba directa y completamente la máquina.
Cuando se comenzó a ampliar el número de personas que usaban los computadores, se comenzó a usar tarjetas perforadas para hacer la máquina más accesible a los usuarios. Pero aún con ello permanecía la separación temporal entre la programación y la ejecución de un programa: desde que se iniciaba la resolución de un problema hasta el momento en que se recibía la respuesta proporcionada por el ordenador en papel pijama transcurría casi una semana.
Teletipo: se tecleaba la orden en el teclado y se recibía la respuesta impresa en papel. Para mayor rapidez se podían introducir los datos por medio de cintas perforadas (a la derecha, el lector; a la izquierda, el perforador de cintas).
Esta forma de utilizar los ordenadores fue cambiando cuando se conectaron teletipos y luego teclados con un tubo de rayos catódicos (monitores) a las computadoras. A esa combinación se le llamó terminal: cada programador se podía conectar directamente con el computador. Con ello comenzaron a aparecer programas que ofrecían, a través de órdenes, realizar operaciones que se repetían continuamente, tales como "imprimir un archivo", "listar todos los archivos", "mostrar el contenido de un archivo", etc. Debe señalarse que no existían aún normas o estándares relativos a estos aparatos periféricos y que cada terminal tenía sus propias normas de funcionamiento, en general incompatible con otras máquinas.
Esto terminó siendo reemplazado por terminales más inteligentes o conexiones de red que permitían acceso remoto, protegidos mediante contraseñas (passwords).
Tras el uso masivo de interfaces gráficas (GUI), comenzó a extenderse el uso programas que, dentro de un ambiente gráfico, emulaban una terminal en una ventana.
Como herramienta primaria de trabajo, las CLI las usan muchos programadores y administradores de sistemas, especialmente en sistemas operativos basados en Unix; en entornos científicos y de ingeniería, y un subconjunto más pequeño de usuarios domésticos avanzados.
Las CLI son parte integral no variable e idénticamente importante de varias aplicaciones como interfaz alternativa y/o paralela a las GUI y AUG. En la actualidad, las líneas de órdenes permanecen como un importante (y a veces único) medio para interactuar con programas independientemente de la memoria.

martes, 24 de noviembre de 2009

adelantos cientificos

Baterías de larga duración para portátiles
Según un artículo publicado esta semana en Technology Review, el nuevo gestor de energía integrado de Intel podría reducir considerablemente el consumo energético de los portátiles deteniendo funciones que no se están utilizando.

A cualquiera que utilice un portátil en un avión le gustaría que la batería durase todo un vuelo de largo recorrido. Ahora, investigadores de Intel creen poder duplicar la vida de batería de un portátil sin modificar la batería en sí, optimizando el gestor de energía del sistema operativo, el monitor, el ratón, los chips de la placa base y los dispositivos conectados a los puertos USB.

Fabricantes e investigadores han estado investigando distintas formas de hacer que los ordenadores portátiles sean energéticamente más eficaces. Se han programado los sistemas operativos para ejecutar un salvapantallas de ahorro de energía e hibernar todo un sistema si el usuario no lo ha utilizado durante un rato. E incluso el próximo microprocesador de Intel para dispositivos móviles Atom, puede hibernar hasta en seis niveles diferentes, dependiendo del tipo de tareas que tenga que hacer.

Pero el problema de todos estos enfoques es que no están coordinados en todo el dispositivo. El nuevo prototipo de sistema de gestión de energía de Intel es consciente de la energía utilizada por todas las partes del portátil, además de las necesidades energéticas de la actividad de una persona y desactiva las funciones de acuerdo con eso, señala Greg Allison, director de desarrollo de negocios. El proyecto, llamado “advanced platform power management”, se presentó el miércoles en un evento de Intel en Mountain View, California.

El sistema de Intel ahorra energía, por ejemplo, realizando una captura de la pantalla que está leyendo el usuario y guardándola en una memoria intermedia. así, en lugar de actualizar cada cierto tiempo la pantalla, ésta mantiene la misma imagen hasta que la persona pulsa una tecla o mueve el ratón. Igualmente, el ratón y el teclado se mantienen en hibernación hasta ser utilizados.

Mientras tanto, el sistema operativo monitorizará el uso de otras aplicaciones, restringiendo el funcionamiento de las que no están siendo utilizadas activamente; y si hay algún dispositivo conectado a un puerto USB, como una memoria flash, el sistema lo pondría también a hibernar. Paralelamente, explica Allison, los circuitos de monitorización de energía de los chips de Intel harían hibernar las partes del microprocesador que no se estén utilizando. Son necesarios tan solo 50 milisegundos para reactivar la totalidad del sistema, añade, una cantidad de tiempo que resulta imperceptible para el usuario.
El disco duro de mayor almacenamiento
Llega la era del Terabyte

Según un artículo publicado este semana en BBCNews, un disco duro de 4 terabytes de almacenamiento podría llegar a ser una realidad para el 2011 gracias a un descubrimiento en nanotecnología de la empresa japonesa Hitachi.

Con este descubrimiento, la empresa ha logrado reducir el tamaño del cabezal de lectura-escritura de un disco duro para que sea dos mil veces más pequeña que el ancho de un cabello humano. Este diminuto cabezal puede leer densidades mayores de datos almacenados en el disco. Según Hitachi, este avance impulsará la "era del terabyte", en la que se podrán almacenar más de un millón de canciones en un disco de 4Tb.

Los discos duros almacenan los datos magnetizando la superficie del disco con un patrón que representa los datos en forma digital. Los datos se almacenan, así, en el disco de forma digital como diminutas regiones magnetizadas llamadas bits. Una orientación magnética en una dirección del disco podría representar un “1”, mientras que la orientación en dirección opuesta representaría un “0”.

Para almacenar una cantidad cada vez mayor de datos en un disco, las regiones magnetizadas se juntan aún más, lo que requiere cabezales de lectura-escritura cada vez más pequeños. Los discos duros actuales pueden almacenar unos 200 Gb de información cada 6,4cm2, pero Hitachi cree que su nueva tecnología permitirá almacenar hasta 1 terabit de información cada 6,4cm2.

Sin embargo, a medida que disminuye el tamaño de los cabezales, aumenta la resistencia eléctrica, lo que genera un ruido que afecta negativamente a la capacidad del cabezal para leer la información del disco.

La solución de Hitachi se basa en una tecnología que supuso un salto en el almacenamiento de los discos duros hace diez años y llevó a los científicos Albert Fert y Peter Grunberg a obtener el Premio Nóbel de Física la semana pasada. Esta tecnología, por la que débiles cambios magnéticos dan lugar a grandes diferencias de resistencia eléctrica, se conoce como "magnetoresistencia gigante" (GMR).

Este concepto permitió al sector desarrollar herramientas de lectura sensibles, llamadas cabezales GMR, para extraer información de discos duros, iPods y otros dispositivos digitales. En los últimos años, los cabezales GMR han dado lugar a los TMR (de magnetoresistencia túnel), que permiten la lectura de discos más condesados.
Sin embargo, Hitachi ha descubierto el modo de reducir el ruido e impulsar la señal de salida utilizando cabezales GMR, lo que permite incrementar la densidad de información que se puede leer en un disco.

Hitachi prevé que para el 2011 podría sacar al mercado un disco duro para ordenadores de sobremesa de 4Tb de almacenamiento y un portátil con un disco duro de 1Tb. Según la compañía esto significaría que el almacenamiento de los discos duros se podría continuar duplicando cada dos años.
Nueva innovación láser acelera los discos duros
Nueva innovación láser acelera los discos duros (ZD net)

Según un artículo publicado esta semana en ZDNet.com, investigadores holandeses afirman haber descubierto un nuevo modo de utilizar los láseres para multiplicar la velocidad de los discos duros magnéticos por 100.

Un trabajo publicado por Daniel Stanciu, del Instituto de Moléculas y Materiales de la Universidad de Radboud, en Nijmegen, describe un nuevo método que permite utilizar los pulsos ultrarrápidos de la luz polarizada para calentar diversas zonas de un disco duro, además de utilizar esa misma luz para cambiar la polaridad de esas zonas. Según un informa publicado en al revista Science, la polaridad del medio de almacenamiento del disco se invierte al invertir la polaridad de los pulsos láser.

Stanciu no ha realizado ningún comentario al respecto, pero en el resumen aceptado para publicación por la revista Physical Review Letters, escribe, "Hemos demostrado experimentalmente que la magnetización se puede invertir de forma reproducible por medio de un solo pulso láser polarizado circularmente de 40 femtosegundos, sin ningún campo magnético aplicado".

Esta inversión por magnetización ultrarrápida inducida de forma óptica que anteriormente se creía imposible es el resultado de la combinación del calor de un láser de femtosegundos del sistema magnético justo por debajo del punto de Curie con una luz polarizada circularmente actuando de forma simultánea como un campo magnético.

Otros efectos similares se han utilizado previamente en dispositivos de almacenamiento óptico-magnéticos, pero todos ellos utilizaban un campo magnético aplicado por medios convencionales en lugar de un láser.

Según Science, Stanciu espera tener un prototipo listo en unos diez años
Protección de routers ante ataques de hackers
Routers de redes domésticas desprotegidos frente a ataques

Según un artículo publicado el 16 de febrero de 2007 en TechNewsWorld, Symantec y la Universidad de Indiana han advertido un fallo de seguridad que podría permitir el ataque de hackers a través de los routers en caso de que los usuarios mantengan la configuración predeterminada de estos dispositivos.

Por lo general, los fabricantes de routers acompañan sus productos con materiales que informan acerca de la necesidad de cambiar las contraseñas establecidas por defecto. Sin embargo, la mayoría de los consumidores hacen caso omiso de sus advertencias, dejando sus redes domésticas a merced de los hackers que, de ese modo, pueden con sus ataques alterar la configuración del router de banda ancha o punto de acceso wireless.

Según los investigadores, el problema se encuentra en los routers de banda ancha de tipo ‘plug-and-play’, enviados por las compañías con una contraseña de fábrica que la mayoría de los usuarios nunca cambia y cuya información suele estar disponible en Internet. Los hackers, en cambio, sí son conscientes del riesgo que suponen estas claves combinadas con un sitio Web que contenga código malicioso.

Para ello, previamente crean la página Web que contiene el código malicioso. Luego, cuando el usuario visualiza la página, el código ejecutado en el navegador utiliza la técnica conocida como CSRF (Cross Site Request Forgery) y accede al router del usuario haciendo uso de la contraseña de fábrica, explica Zulfikar Ramzan, investigador principal de Symantec, en el blog de respuestas de seguridad de la compañía.

Finalmente, el script malicioso se apodera del router modificando su configuración.
Uno de los cambios más sencillos, pero a la vez devastador, consiste en modificar la configuración del servidor DNS del usuario. Esto permitiría a los hackers determinar el servidor DNS que se va a utilizar, pudiendo incluso hacer que el router utilice un DNS creado por ellos mismos. Este DNS podría contener registros fraudulentos y direccionar el ordenador a una Web falsa con aspecto legítimo que podría ser, por ejemplo, la de un banco. Los usuarios no notarían la diferencia y estarían dando a los criminales acceso a la información de sus cuentas bancarias sin saberlo, señala Ramzan.

Este tipo de ataque podría llegar a ser una amenaza importante, con implicaciones de gran alcance, dado que millones de consumidores y pequeñas empresas utilizan este tipo de routers de banda ancha. Sin embargo, como bien señala Ramzan, afortunadamente el problema es fácil de resolver. Basta con inculcar al usuario final la necesidad de cambiar la contraseña que viene predeterminada de fábrica con el router, añade Rob Ayoub, analista de seguridad de Frost & Sullivan.

El problema está en que la mayoría de los usuarios ni siquiera saben que su router tiene una contraseña y mucho menos cómo cambiarla. Según, Andrew Jaquith, director de programa de investigación en seguridad de Yankee Group, la solución tendría que partir de los fabricantes de routers, por ejemplo, personalizando el proceso de fabricación, de modo que se genere e imprima una contraseña de fábrica única para cada router y se peque en la caja. Ya lo hacen con los números de serie, así que ¿por qué tendría que ser diferente en el caso de las contraseñas?

Según Jaquith mientras los fabricantes no hagan algo por resolver el problema, seguirán existiendo este tipo de ataques.

Características del monitor
El Monitor es otro de los periféricos fundamentales de los PC, ya que sin ellos no podríamos trabajar ni visualizar las operaciones del Sistema Operativo ni los programas.

El monitor, como los demás componentes de los ordenadores, ha avanzado mucho desde los monitores de monocromo de fósforo verde hasta hoy en día los monitores de color de alta resolución y los más modernos los de cristal líquido, los TFT o pantallas planas.

Hablaremos de los monitores comunes que son los más asequibles para la mayoría.

Los monitores tienen mucho en común con las TV. En el caso de los monitores CRT están formados por un tubo de rayos catódico también llamados tubo de vacío (dentro del tubo es casi un vacío perfecto). Los de color se obtienen mediante 3 cañones de electrones. Estos bombardean la placa de fósforo en la parte interior de la pantalla y liberan puntitos de luz a color rojo, verde y azul (RGB) llamados Píxel. El Paso llamado en ingles dot pitch es el espacio entre los dos puntos mas cercanos medidos desde su centro. Cuanto menor sea esa distancia mayor es la nitidez.

La resolución se caracteriza por los píxel representados en horizontal y vertical un ejemplo es la resolución 800X600 o sea 800 píxeles en horizontal y 600 pixeles en vertical. A más resolución más píxeles representados.

La Tasa de refresco es la frecuencia con la que el haz de electrones barre la pantalla. Cuanto mayor sea el valor menos parpadea la pantalla. Una Tasa de refresco, o Frecuencias de 75 Hz equivale a 75 barridos por segundo.

Las dimensiones de los tubos están representadas en pulgadas. Una pulgada equivale a 2,54 centímetros. Las medidas más usuales en los monitores son 14, 15, 17, 20 y 21 pulgadas.

Cada vez se están utilizando más las pantallas llamadas panorámicas, en las que la relación H/V es de 16:9 o 16:10, en vez de la relación normal, que es de 4:3.

PULGADA DE PANTALLA Y RESOLUCIONES MAXIMAS IDONEAS:

Pulgada visible --> Resolución máxima aconsejable.

14'' --> 640 x480 píxeles

15'' --> 800 x600 píxeles

17'' --> 1.200 x 768 píxeles

19'' --> 1.280 x 1.024 píxeles

20'' --> 1.600 x 1.280 píxeles

21'' --> 1.600 x 1.280 píxeles

Los monitores son todos Plug&Play. Esto significa que Windows los reconoce sin problemas y automáticamente, en cuanto lo detecta el Sistema Operativo. Algunos disponen de un disquete de instalación para que Windows asocie el hardware y el software adecuado para el funcionamiento y rendimiento al 100%, pero esto no se trata de un driver, ni es realmente necesario para el correcto funcionamiento del monitor.

Características de la impresora
Si hay algo que considerar, aparte del precio inicial de la compra, es el coste de mantenimiento y operación. Puedes comprar una impresora súper barata para luego darte cuenta que los cartuchos de tinta son de un tamaño demasiado pequeño. Si el cartucho se acaba cada 100 páginas, acabarás gastando mas tinta de impresora en el primer año, que lo que hubieras gastando comprándote una impresora láser de mejor calidad.
Calidad de imagen
Los textos y gráficos simples parecerán más definidos en una impresora láser. Sin embargo, si utilizas un buen papel inkjet de calidad, la mayoría de la gente les costará notar la diferencia. Por otro lado, una buena impresora inkjet de fotos te dará unas impresiones a color que merecerán la pena en conceptos de dinero, calidad y coste. Si vas a tener que imprimir muchas fotos, tu mejor opción será una impresora láser color inkjet.
Duty Cycle
Se entiende por “duty cycle” a la cantidad de papel que la impresora se espera que maneje cada mes. Es un término que se oirá más en impresoras láser. Esto será un factor para ti si la quieres comprar para una oficina grande, o si vas a utilizar la impresora para un uso continuo e intensivo. Te tendrás que preguntar, “¿cuanto voy a imprimir cada mes?” Esto no significa que tu impresora se romperá si está tasada con un “duty cycle” de 40,000 impresiones y haces 40,025 en un mes. De todos modos, si sabes que vas a realizar 80,000 impresiones al mes, no compres una impresora a 50,000.
¿Qué es lo que puede conectar?
La última cosa a considerar es, ¿Qué dispositivos se van a conectar a esta máquina y como? ¿Estará la impresora en una red? ¿La accederán sistemas operativos diferentes? Asegúrate de que los puertos para conectarte sean los adecuados y de tener los “drivers” correspondientes. Analiza y haz una previsión del número de usuarios o grupos que van a estar utilizando la impresora. No es igual que el equipo lo use una sola persona que muchas.
¿Qué es una emulación?
Esto es una función principalmente utilizado por programas antiguos. Imagina que tienes una impresora que emula a una Epson FX80. Eso significa que entiende los comandos usados para comunicar con una Epson FX80. Tu programa puede que necesite una cierta impresora para que funcione apropiadamente. Tu impresora debe ser del tipo correcto o ser un buen emulador para poder hablar el lenguaje. Si tienes algún software especial, aparte de los habituales como Word o Photoshop, asegúrate de mirar los requerimientos del programa de la impresora.
Características de teclado
Además de teletipos y máquinas de escribir eléctricas como la IBM Selectric, los primeros teclados solían ser un terminal de computadora que se comunicaba por puerto serial con la computadora. Además de las normas de teletipo, se designó un estándar de comunicación serie, segun el tiempo de uso basado en el juego de caracteres ANSI, que hoy sigue presente en las comunicaciones por módem y con impresora (las primeras computadoras carecían de monitor, por lo que solían comunicarse, o bien por luces en su panel de control, o bien enviando la respuesta a un dispositivo de impresión). Se usaba para ellos las secuencias de escape, que se generaban o bien por teclas dedicadas, o bien por combinaciones de teclas, siendo una de las más usadas la tecla Control.
La llegada de la computadora doméstica trae una inmensa variedad de teclados y de tecnologías y calidades (desde los muy reputados por duraderos del Dragon 32 a la fragilidad de las membranas de los equipos Sinclair), aunque la mayoría de equipos incorporan la placa madre bajo el teclado, y es la CPU o un circuito auxiliar (como el chip de sonido General Instrument AY-3-8910 en los MSX) el encargado de leerlo. Son casos contados los que recurren o soportan comunicación serial (curiosamente es la tecnología utilizada en el Sinclair Spectrum 128 para el keypad numérico). Sólo los MSX establecerán una norma sobre el teclado, y los diferentes clones del Apple II y el TRS-80 seguirán el diseño del clonado.
Uno de los teclados más modernos, fue diseñado por un ama de casa llamada Diamea Stuart Medrid Aflory, de Rusia. Ella empezó a dibujar muchos tipos de teclados en un cuaderno de
dibujo que tenía. Un día cuando unos inspectores inestigaban su casa en contraron estos dibujos y los mandaron a USA. Este fue el teclado ajustable de Apple.
Características del ratón
Su funcionamiento principal depende de la tecnología que utilice para capturar el movimiento al ser desplazado sobre una superficie plana o alfombrilla especial para ratón, y transmitir esta información para mover una flecha o puntero sobre el monitor de la computadora. Dependiendo de las tecnologías empleadas en el sensor del movimiento o por su mecanismo y del método de comunicación entre éste y la computadora, existen multitud de tipos o familias.
El objetivo principal o más habitual es seleccionar distintas opciones que pueden aparecer en la pantalla, con uno o dos clic, pulsaciones, en algún botón o botones. Para su manejo el usuario debe acostumbrarse tanto a desplazar el puntero como a pulsar con uno o dos clic para la mayoría de las tareas.
Características de proyector de datos
El proyector, infocus o cañón, es un equipo externo que despliega la imagen que se ve en el monitor en tamaño grande, con la ayuda de un foco interno y una pared o cortina blanca refleja la imagen. Es usado para mostrar a un grupo de personas algún archivo o documento que en un monitor seria difícil que todos lo percibieran.

miércoles, 11 de noviembre de 2009

Los virus



Un virus informático es un malware que tiene por objeto alterar el normal funcionamiento de la computadora, sin el permiso o el conocimiento del usuario. Los virus, habitualmente, reemplazan archivos ejecutables por otros infectados con el código de este. Los virus pueden destruir, de manera intencionada, los datos almacenados en un ordenador, aunque también existen otros más "benignos", que solo se caracterizan por ser molestos.
Los virus informáticos tienen, básicamente, la función de propagarse a través de un software, no se replican a sí mismos por que no tienen esa facultad como el gusano informático, son muy nocivos y algunos contienen además una carga dañina (payload) con distintos objetivos, desde una simple broma hasta realizar daños importantes en los sistemas, o bloquear las redes informáticas generando tráfico inútil.
El funcionamiento de un virus informático es conceptualmente simple. Se ejecuta un programa que está infectado, en la mayoría de las ocasiones, por desconocimiento del usuario. El código del virus queda residente (alojado) en la memoria RAM de la computadora, aun cuando el programa que lo contenía haya terminado de ejecutarse. El virus toma entonces el control de los servicios básicos del sistema operativo, infectando, de manera posterior, archivos ejecutables que sean llamados para su ejecución. Finalmente se añade el código del virus al del programa infectado y se graba en disco, con lo cual el proceso de replicado se completa.

Tipos de virus:
Virus de boot
Time bomb
Lombrice, worm o gusano
Troyano o caballos de troya
Hijackers
Keylogger
Zombie
Virus de macro

Descripción de los virus
Dado que una característica de los virus es el consumo de recursos, los virus ocasionan problemas tales como: pérdida de productividad, cortes en los sistemas de información o daños a nivel de datos.
Una de las características es la posibilidad que tienen de diseminarse por medio de replicas y copias. Las redes en la actualidad ayudan a dicha propagación cuando éstas no tienen la seguridad adecuada.
Otros daños que los virus producen a los sistemas informáticos son la pérdida de información, horas de parada productiva, tiempo de reinstalación, etc.
Hay que tener en cuenta que cada virus plantea una situación diferente.

Daños provocados por los virus
Los virus informáticos afectan en mayor o menor medida a casi todos los sistemas más conocidos y usados en la actualidad.
Las mayores incidencias se dan en el sistema operativo Windows debido, entre otras causas, a:
Su gran popularidad, como sistema operativo, entre los ordenadores personales, PC. Se estima que, en el 2007, un 90% de ellos usa Windows[cita requerida]. Esta popularidad basada en la facilidad de uso sin conocimiento previo alguno, facilita la vulnerabilidad del sistema para el desarrollo de los virus, y así atacar sus puntos débiles, que por lo general son abundantes.
Falta de seguridad en esta plataforma (situación a la que Microsoft está dando en los últimos años mayor prioridad e importancia que en el pasado). Al ser un sistema muy permisivo con la instalación de programas ajenos a éste, sin requerir ninguna autentificación por parte del usuario o pedirle algún permiso especial para ello (en los Windows basados en NT se ha mejorado, en parte, este problema).
Software como Internet Explorer y Outlook Express, desarrollados por Microsoft e incluidos de forma predeterminada en las últimas versiones de Windows, son conocidos por ser vulnerables a los virus ya que éstos aprovechan la ventaja de que dichos programas están fuertemente integrados en el sistema operativo dando acceso completo, y prácticamente sin restricciones, a los archivos del sistema.
La escasa formación de un número importante de usuarios de este sistema, lo que provoca que no se tomen medidas preventivas por parte de estos, ya que este sistema está dirigido de manera mayoritaria a los usuarios no expertos en Informática. Esta situación es aprovechada constantemente por los programadores de virus.
Los virus más dañinos
Virus de boot
Troyano o caballos de troya
Zombie
Virus de macro

Uso de las tics



Las tecnologías de la información y la comunicación (TICs) son un conjunto de técnicas, desarrollos y dispositivos avanzados que integran funcionalidades de almacenamiento, procesamiento y transmisión de datos.Entendemos por tics al conjunto de productos derivados de las nuevas herramientas (software y hadware), soportes de la información y canales de comunicación relacionados con el almacenamiento, procesamiento y transmision digitalizados de la información.

Sin embargo en sociología y política, TICs hacen referencia a los dispositivos electrónicos utilizados con fines concretos de comunicación, por ejemplo:

organización y gestión empresarial
toma de decisiones
Por ello, para las ciencias sociales y para los analistas de tendencias, las TICs no se refieren a la implementación tecnológica concreta, sino a la de aquellos otros valores intangibles que son el estudio propio de dichas disciplinas.

martes, 10 de noviembre de 2009

bien venida

bienvenida al blog para compartir informacion.