EL ORDENADOR.

*Los coponentes de un ordenador* *(computadora)

Que es el monitor?...........

El monitor es un periférico de salida en el que se hace visible al usuario la información que se encuentra dentro de la computadora. Los más comunes suelen ser los que tienen tubos de rayos catódicos (CRT), aunque en la actualidad está aumentando lentamente la utilización de los que se basan en las tecnologías.

Es la pantalla en la que se ve la información suministrada por el ordenador. En el caso más habitual se trata de un aparato basado en un tubo de rayos catódicos (CRT) como el de los televisores, mientras que en los portátiles y los monitores nuevos, es una pantalla plana de cristal líquido (LCD).La información se representa mediante píxeles.

Monitor Táctil.........

El monitor táctil ha sido un elemento electrónico muy común en la pasada década, y se siguen utilizando con frecuencia hoy en día. Este tipo de monitor es bastante sencillo de usar y este es uno de los motivos de su creciente popularidad. Hay tres sistemas básicos para reconocer cuando un usuario toca una pantalla: resistiva, capacitiva y el sistema de onda acústica de superficie.

Sistema resistivo

Este sistema consiste en un panel de cristal normal que está cubierto con un conductor y una capa con una resistencia metálica. Una corriente eléctrica circula entre ambas capas, mientras la pantalla del monitor táctil está operativa. Cuando una persona toca el monitor táctil, las dos capas hacen contacto en ese punto exacto. Una vez que se conocen las coordenadas en la pantalla, un controlador especial traduce ese “toque” en algo que el sistema puede entender.

Sistema capacitivo

En este método, una capa que almacena cargas eléctricas es emplazada en el panel de cristal del monitor. Cuando un usuario toca la pantalla táctil con el dedo, un poco de esa carga es transferida al usuario, por lo que la carga en la capa disminuye. Esta disminución se mide en unos circuitos localizados en cada una de las esquinas de la pantalla. El ordenador calcula donde se ha realizado el contacto para después enviar la información al controlador de software del monitor táctil en cuestión.


Sistema de onda acústica de superficie (SAW)

Este sistema tiene integrado un traductor de señal que puede averiguar en cualquier instante, si una onda ha sido alterada por un tocamiento, y localizarlo de forma acorde. La parte que compone este sistema de ondas, no contiene capas metálicas en la pantalla permitiendo un buen rendimiento y una claridad de imagen perfecta. Esto hace la onda acústica de superficie, el mejor sistema para desplegar gráficos bien detallados en la pantalla táctil.


Monitor Monocromático........

Monocromo

monocromático

Se llama monocromático (Monochromatic) o, símplemente, monocromo, a lo que tiene un único color en sus diversas intensidades.

Por extensión, se llama monocroma o monocromática a una luz en la que predomina casi exclusivamente una única longitud de onda.

En informática, este término se aplica a un monitor que muestra las imágenes en un solo color: negro sobre blanco (de acuerdo con el modelo de las pantallas monocromas de los equipos Apple Macintosh) o ámbar o verde sobre negro (común en IBM y en otros monitores monocromos). El término se aplica también a los monitores que sólo muestran distintos niveles de gris.

Se considera que los monitores monocromos de alta calidad son generalmente más nítidos y más legibles que los monitores de color con una resolución equivalente.


Historia de los monitores

El monitor es el principal periférico de salida de una computadora. Estos se conectan a través de una tarjeta gráfica conocida con el nombre de adaptador o tarjeta de vídeo.

La imagen que podemos observar en los monitores está formada por una matriz de puntos de luz. Cada punto de luz reflejado en la pantalla es denominado como un píxel.

Clasificación según estándares de monitores

Según los estándares de monitores se pueden clasificar en varias categorías. Todos han ido evolucionando con el objetivo de ofrecer mayores prestaciones, definiciones y mejorar la calidad de las imágenes.

Monitores MDA:

Los monitores MDA por sus siglas en inglés “Monochrome Display Adapter” surgieron en el año 1981. Junto con la tarjeta CGA de IBM. Los MDA conocidos popularmente por los monitores monocromáticos solo ofrecían textos, no incorporaban modos gráficos.

Este tipo de monitores se caracterizaban por tener un único color principalmente verde. El mismo creaba irritación en los ojos de sus usuarios.

Características:

  • Sin modo gráfico.

  • Resolución 720_350 píxeles.

  • Soporte de texto monocromático.

  • No soporta gráfico ni colores.

  • La tarjeta gráfica cuenta con una memoria de vídeo de 4 KB.

  • Soporta subrayado, negrita, cursiva, normal, invisibilidad para textos.

Monitor CGA:

Los monitores CGA por sus siglas en inglés “Color Graphics Adapter” o “Adaptador de Gráficos en Color” en español. Este tipo de monitores fueron comercializados a partir del año 1981, cuando se desarrollo la primera tarjeta gráfica conjuntamente con un estándar de IBM.

A pesar del lanzamiento de este nuevo monitor los compradores de PC seguían optando por los monitores MDA, ambos fueron lanzados al mercado en el mismo año existiendo competencia entre ellos. CGA fue el primero en contener sistema gráfico a color.

Características:

  • Resoluciones 160_200, 320×200, 640×200 píxeles.

  • Soporte de gráfico a color.

  • Diseñado principalmente para juegos de computadoras.

  • La tarjeta gráfica contenía 16 KB de memoria de vídeo.

Monitor EGA:

Por sus siglas en inglés “Enhanced Graphics Adapter”, es un estándar desarrollado IBM para la visualización de gráficos, creado en 1984. Este nuevo monitor incorporaba una mayor amplitud de colores y resolución.

EGA incorporaba mejoras con respecto al anterior CGA. Años después también sería sustituido por un monitor de mayores características.

Características:

  • Resolución de 640_350 píxeles.

  • Soporte para 16 colores.

  • La tarjeta gráfica EGA estándar traían 64 KB de memoria de vídeo.

Monitor VGA:

Los monitores VGA por sus siglas en inglés “Video Graphics Array”, fue lanzado en 1987 por IBM. A partir del lanzamiento de los monitores VGA, los monitores anteriores empezaban a quedar obsoletos. El VGA incorporaba modo 256 con altas resoluciones.

Por el desarrollo alcanzado hasta la fecha, incluidas en las tarjetas gráficas, los monitores anteriores no son compatibles a los VGA, estos incorporan señales analógicas.

Características:

  • Soporte de 720×400 píxeles en modo texto.

  • Soporte de 640×480 píxeles en modo gráfico con 16 colores.

  • Soporte de 320×200 píxeles en modo gráfico con 256 colores.

  • Las tarjetas gráficas VGA estándares incorporaban 256 KB de memoria de vídeo.

Monitor SVGA:

SVGA denominado por sus siglas en inglés “Super Video Graphics Array”, también conocidos por “Súper VGA”. Estos tipos de monitores y estándares fueron desarrollados para eliminar incompatibilidades y crear nuevas mejoras de su antecesor VGA.

SVGA fue lanzado en 1989, diseñado para brindar mayores resoluciones que el VGA. Este estándar cuenta con varias versiones, los cuales soportan diferentes resoluciones.

Características:

  • Resolución de 800×600, 1024_768 píxeles y superiores.

  • Para este nuevo monitor se desarrollaron diferentes modelos de tarjetas gráficas como: ATI, GeForce, NVIDIA, entre otros.

Clasificación según tecnología de monitores

En cuanto al tipo de tecnología los monitores se pueden clasificar en varios aspectos. Estas evoluciones de la tecnología han sido llevadas a cabo en parte por el ahorro de energía, tamaño y por brindar un nuevo producto en el mercado.

Monitores CRT:

Está basado en un Tubo de Rayos Catódicos, en inglés “Cathode Ray Tube”. Es el más conocido, fue desarrollado en 1987 por Karl Ferdinand Braun.

Utilizado principalmente en televisores, ordenadores, entre otros. Para lograr la calidad que hoy cuentan, estos pasaron por diferentes modificaciones y que en la actualidad también se realizan.

Funcionamiento:

Dibuja una imagen barriendo una señal eléctrica horizontalmente a lo largo de la pantalla, una línea por vez. La amplitud de dicha señal en el tiempo representa el brillo instantáneo en ese punto de la pantalla.

Una amplitud nula, indica que el punto de la pantalla que se marca en ese instante no tendrá representando un píxel negro. Una amplitud máxima determina que ese punto tendrá el máximo brillo.

Ventajas:

  • Excelente calidad de imagen (definición, contraste, luminosidad).

  • Económico.

  • Tecnología robusta.

  • Resolución de alta calidad.

Desventajas:

  • Presenta parpadeo por el refrescado de imagen.

  • Consumo de energía.

  • Generación de calor.

  • Generación de radiaciones eléctricas y magnéticas.

  • Alto peso y tamaño.

Pantallas LCD:

A este tipo de tecnología se le conoce por el nombre de pantalla o display LCD, sus siglas en inglés significan “Liquid Crystal Display” o “Pantalla de Cristal Líquido” en español. Este dispositivo fue inventado por Jack Janning.

Estas pantallas son incluidas en los ordenadores portátiles, cámaras fotográficas, entre otros.

Funcionamiento:

El funcionamiento de estas pantallas se fundamenta en sustancias que comparten las propiedades de sólidos y líquidos a la vez.

Cuando un rayo de luz atraviesa una partícula de estas sustancias tiene necesariamente que seguir el espacio vacío que hay entre sus moléculas como lo haría atravesar un cristal sólido pero a cada una de estas partículas se le puede aplicar una corriente eléctrica que cambie su polarización dejando pasar la luz o no.

Una pantalla LCD esta formada por 2 filtros polarizados colocados perpendicularmente de manera que al aplicar una corriente eléctrica deja pasar o no la luz. Para conseguir el color es necesario aplicar tres filtros más para cada uno de los colores básicos rojo, verde y azul.

Para la reproducción de varias tonalidades de color se deben aplicar diferentes niveles de brillo intermedios entre luz y no luz lo cual se consigue con variaciones en el voltaje que se aplica a los filtros.

Ventajas:

  • Poco peso y tamaño.

  • Buena calidad de colores.

  • No contiene parpadeo.

  • Poco consume de energía.

  • Poca generación de calor.

  • No genera radiaciones eléctricas y magnéticas.

Desventajas:

  • Alto costo.

  • Angulo limitado de visibilidad.

  • Brillo limitado.

  • Bajo tiempo de respuesta de píxeles.

  • Contiene mercurio.

Pantallas Plasma:

La pantalla de plasma fue desarrollada en la Universidad de Illinois por Donald L. Bitzer y H. Gene Slottow.

Originalmente los paneles eran monocromáticos. En 1995 Larry Weber logró crear la pantalla de plasma de color. Este tipo de pantalla entre sus principales ventajas se encuentran una la mayor resolución y ángulo de visibilidad.


Funcionamiento:

El principio de funcionamiento de una pantalla de plasma consiste en iluminar pequeñas luces fluorescentes de colores para conformar una imagen. Las pantallas de plasma funcionan como las lámparas fluorescentes, en que cada píxel es semejante a un pequeño foco coloreado.

Cada uno de los píxeles que integran la pantalla está formado por una pequeña celda estanca que contiene un gas inerte (generalmente neón o xenón). Al aplicar una diferencia de potencial entre los electrodos de la celda, dicho gas pasa al estado de plasma.

El gas así cargado emite radiación ultravioleta (UV) que golpea y excita el material fosforescente que recubre el interior de la celda. Cuando el material fosforescente regresa a su estado energético natural, emite luz visible.

Ventajas:

  • Excelente brillo.

  • Alta resolución.

  • Amplio ángulo de visión.

  • No contiene mercurio.

  • Tamaño de pantalla elevado.

Desventajas:

  • Vida útil corta.

  • Coste de fabricación elevado, superior a los LCD.

  • Consumo de electricidad elevado.

  • Poca pureza del color.

  • Consumo energético y emisión de calor elevada.

¿Qué es la resolución de pantalla?

Se denomina al número de píxeles (o máxima resolución de imagen) que puede ser mostrada en la pantalla. Viene dada por el producto de las columnas (”X”), el cual se coloca al principio y el número de filas (”Y”) con el que se obtiene una razón. Por ejemplo podemos encontrar:

Los monitores han evolucionado conjuntamente con las tarjetas de vídeos. La necesidad de mostrar resoluciones mayores, con alta calidad de colores, ha llevado día a día a su desarrollo.


Que es un CPU..........

CPU, abreviatura de Central Processing Unit (unidad de proceso central), se pronuncia como letras separadas. La CPU es el cerebro del ordenador. A veces es referido simplemente como el procesador o procesador central, la CPU es donde se producen la mayoría de los cálculos. En términos de potencia del ordenador, la CPU es el elemento más importante de un sistema informático.

En ordenadores grandes, las CPUs requieren uno o más tableros de circuito impresos. En los ordenadores personales y estaciones de trabajo pequeñas, la CPU está contenida en un solo chip llamadado microprocesador.

Dos componentes típicos de una CPU son

  1. La unidad de lógica/aritimética (ALU), que realiza operaciones aritméticas y lógicas.

  2. La unidad de control (CU), que extrae instrucciones de la memoria, las descifra y ejecuta, llamando a la ALU cuando es necesario.

Historia del CPU......

Antes del advenimiento de las máquinas parecidas a los CPU de hoy, computadores como el ENIAC tenían que ser físicamente recableados para poder realizar tareas diferentes. Estas máquinas eran a menudo referidas como "computadores de programa fijo", puesto que tenían que ser reconfiguradas físicamente para correr un programa diferente. Puesto que el término "CPU" es generalmente definido como un dispositivo de ejecución de software (programa de computadora), los primeros dispositivos que podían ser llamados correctamente como CPU vinieron con el advenimiento de la computadora con programa almacenado.

La idea de una computadora con programa almacenado ya estaba presente durante el diseño del ENIAC, pero fue omitida inicialmente para que la máquina pudiera ser terminada más pronto. El 30 de junio de 1945, antes de que el ENIAC incluso fuera terminado, el matemático John von Neumann distribuyó el trabajo titulado "Primer Borrador de un Reporte sobre el EDVAC". Este trabajo, cuya autoría principal hoy se les reconoce a John Presper Eckert y John William Mauchly,[1] esbozó el diseño de una computadora con programa almacenado que finalmente sería terminado en agosto de 1949 . El EDVAC fue diseñado para efectuar un número determinado de instrucciones (u operaciones) de varios tipos. Estas instrucciones podían combinarse para crear programas útiles para ser ejecutados por el EDVAC. Significativamente, los programas escritos para el EDVAC fueron almacenados en memoria de la computadora de alta velocidad en lugar de ser especificados por el cableado físico de la computadora. Esto superó una severa limitación del ENIAC, que era la gran cantidad de tiempo y esfuerzo que tomaba reconfigurar el computador para realizar una nueva tarea. Con el diseño de Eckert-Mauchly, el programa, o el software, que el EDVAC corría, podía ser reemplazado simplemente cambiando el contenido de la memoria del computador.

Siendo dispositivos digitales todos los CPU tratan con estados discretos, y por lo tanto requieren una cierta clase de elementos de conmutación para diferenciar y cambiar estos estados. Antes de la aceptación comercial del transistor, los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados comúnmente como elementos de conmutación.

Unidades internas del CPU....

Procesador: En el interior de un ordenador habita una densa amalgama de componentes electrónicos que son los responsable de su correcto funcionamiento; componentes que conforman los circuitos que dan vida al ordenador. Entre ellos destaca una zona fundamental, denominada UNIDAD CENTRAL DE PROCESO (Central Processing Unit) Es el cerebro del PC; es un chip que se encarga de procesar las instrucciones y los datos con los que trabaja el computador. El procesador es el dispositivo más importante de un PC y el que más influye en su velocidad.

1.2. Memoria RAM: La memoria RAM (Random Acces Memory) o memoria principal son unos chips en los que el procesador almacena de forma temporal los datos y los programas con los que trabaja. La cantidad de memoria RAM influye bastante en la velocidad de un PC, entre más memoria RAM tenga, más rápido trabaja los programas y más programas puede tener abiertos al mismo tiempo

1.3. Disco duro: Es el dispositivo de almacenamiento permanente interno en el que se guardan los programas y todos los archivos que usted crea con esos programas cuando trabaja en el computador. Entre más capacidad tenga un disco dura, más información y programas puede almacenar en el PC. La capacidad del disco duro se mide en gigabytes (GB). Un GB equivale a 1.024 MB aproximadamente.

1.4. Unidad de CD-ROM: Esta unidad sirve para leer los discos compactos (CD-ROM) en los que vienen casi todos los programas y para escuchar CD de música en el PC. La velocidad de una unidad de CD ROM depende dos factores: la tasa de transferencia de datos (lo más importante y el único dato que le mencionarán) y el tiempo de acceso.

1.5. Unidad de CD RW: Es la que permite en un disco compacto, como el CD ROM o el CD de música, escribir y guardar información; tiene las ventajas tradicionales de esos discos, como durabilidad y una gran capacidad de almacenamiento de datos (650 MB). La principal diferencia es que un CD R, permite grabar información sólo una vez (lo que graba no se puede borrar después) mientras que un CD RW le permite escribir y borrar información cuando quiera (como un disquete o el disco duro)

1.6. Módem: Es un aparato que permite a los PC intercambiar datos por las líneas telefónicas. Es el dispositivo que se usa para navegar por Internet. También sirve para enviar y recibir faxes desde el PC (por ello algunos lo llaman fax-módem). La forma corriente de conectarse con Internet es a través del teléfono, por lo tanto se necesitará de uno.

1.7. Caché secundario: El caché secundario o de segundo nivel (L2) es un chip de memoria de alta velocidad (mucho más rápida que la memoria RAM) Este chip mejora el desempeño debido a que el computador puede colocar y tomar datos e instrucciones del caché secundario, en lugar de usar la más lenta memoria RAM

1.8. Tarjeta madre: Es una tarjeta interna que aloja los principales componentes del computador, como el procesador, la memoria RAM, las ranuras de expansión, caché secundario y el BIOS. En esa tarjeta también están integrados los controladores que manejan dispositivos como el disco dura, el teclado y el ratón. En los PC de bajo costo a veces la tarjeta madre incluye un chip de vídeo (que reemplaza la tarjeta de vídeo ) y un chip de sonido (que reemplaza la tarjeta de sonido)

1.9. Ranuras de expansión : Están ubicadas en la tarjeta madre y permiten conectar tarjetas de expansión que dotan al PC de ciertas capacidades. En esa ranuras se inserta, por ejemplo, la tarjeta de sonido (que permite al PC reproducir sonido) el módem interno (que hace posible navegar por internet) la tarjeta de vídeo (que permite mostrar imágenes en la pantalla). Una tarjeta madre moderna deberá incluir tres tipos de ranuras de expansión: ISA, PCI y AGP.

Ranuras ISA, son bastante antiguas y cada vez se utilizan menos debido a que los dispositivos conectados en ella se comunican por un bus muy lento (un bus es una avenida por la cual viajan los datos en el computador; un PC tiene varios buses). Las ranuras ISA se emplean para dispositivos que no requieren una gran capacidad de transferencia de datos, como el módem interno.

Ranuras PCI, estas aparecieron en los PC a comienzos de los 90 y se espera que reemplacen por completo a las ISA, la mayoría de las tarjetas de expansión se fabrican para ranuras PCI, gracias a que éstas usan un bus local (llamado PCI) con una buena capacidad de transferencia de datos: 133 megabytes por segundo (MPPS) Otra ventaja es que el bus local ofrece una vía de comunicación más directa con el procesador. En las ranuras PCI se conectan dispositivos como la tarjeta de video y la tarjeta de sonido.

1.10. Puertos USB: Desde hace tres años, los PC, traen un puerto llamado USB (Universal Serial Bus) que facilita la conexión de periféricos. Un periférico es cualquier dispositivo externo que conecte al computador, como el monitor, el teclado, el ratón, una impresora, un escáner, etc. Los puertos USB, que paulatinamente desplazarán a los puertos serial y paralelo, tienen dos ventajas: velocidad y facilidad de uso (todos estos son puertos externos; están en la parte trasera del PC)

En teoría, un puerto USB permiten transferir datos a 12 megabits por segundo (Mbps) o sea diez veces más rápido que un puerto serial. Esa velocidad no es imprescindible para un dispositivo como el ratón (aunque hay ratones USB) pero si es una opción para conectar aparatos como una unidad ZIP o una cámara de vídeo para Internet.

compre modelos para USB (en los puertos USB únicamente se pueden conectar periféricos específicamente diseñados para ese tipo de conector). Todavía no hay muchos periféricos con conector USB, pero ya se consigue uno que otro, y no tiene por qué costar más que el modelo para puerto paralelo o serial (en los Estados Unidos su costo es igual)

Tarjeta gráfica o de video: Es una tarjeta que le permite al PC mostrar imágenes en el monitor; se la conoce con muchos nombres, como tarjeta gráfica, tarjeta de video, adaptador de video y controlador de video. Esta tarjeta convierte los datos con los que trabaja el computador en las señales que forman las imágenes en el monitor. En los PC económicos, es común que la tarjeta de video sea reemplazada por un chip de video integrado en la tarjeta madre, ese esquema reduce el precio del PC y la calidad es aceptable.

Tarjeta de sonido : Es la que permite al computador manejar sonido (también se conoce como tarjeta de audio). Esta tarjeta hace posible reproducir sonido por medio de los parlantes o grabar sonidos provenientes del exterior mediante el micrófono (es una tarjeta interna, pero tiene puertos externos en los que se conectan los parlantes y el micrófono). En los PC de bajo costo, a veces la tarjeta de sonido es reemplazada por un chip de sonido integrado en la tarjeta madre; eso reduce el precio del computador, pero la calidad es aceptable.

1.13. Unidad de DVD ROM: Es un periférico opcional que permite leer disco DVD ROM, además de CD ROM, CD de música y otros formados de CD. El DVD es un nuevo tipo de disco compacto que ofrece una capacidad de almacenamiento de datos muy superior a la de un CD ROM; mientras que un CD ROM o cualquier otro tipo de CD convencional puede guardar 650 MB de datos, a un DVD le cabe entre 4,7 y 17 GB o sea, entre 7 y 265 veces más. Debido a ello, las unidades de CD ROM serán desplazadas paulatinamente por las unidades de DVDROM eso ya ocurre en segmentos altos en los Estados Unidos.

1.14. Unidad de disquete: Esta unidad lee y escribe en los disquetes, unos discos que sirven para transportar datos de un lado a otro. Los disquetes tienen una capacidad de almacenamiento de datos muy baja: 1.4 megabytes (MB). Sirven para guardar y leer información, pero a diferencia del disco duro que está fijo dentro del PC, los disquetes se pueden introducir y sacar de la unidad.

Teclado. Hay básicamente dos tipos de teclados: corrientes y ergonómicos. Los primeros son los más usados y los que vienen con los equipos de marca son de buena calidad. Para los clones se consigue genéricos a precios reducidos (unos 10 dólares) pero por dos o tres dólares más, se puede adquirir uno de marca (Acer o Genius) de mejor clase.

1.16. Impresora: Es el periférico más importante, diferente a los componentes estándar, de un computador. Hay básicamente dos tipos de impresoras: personales y para grupos de trabajo. Las segundas son aquellas que se conectan a redes y usualmente son modelos láser aunque hay algunas de inyección de tinta para grupos pequeños.

  1. Escáner: Son unidades que permiten copiar documentos y archivarlos digitalmente, son una especie de fotocopiadora pero en vez de imprimir se almacena en un archivo. Con el auge del documento electrónico y la caída vertical de sus precios, los escáner se han vuelto casi tan popular como las impresoras. Usualmente son producidos por las mismas empresas que fabrican éstas y los hay para el hogar, para oficina y para usos profesionales. Los escáneres se han vuelto casi tan comunes como las impresoras.

Cpu fan cooler

Es un disipador enfocado para tarjetas de bajo rendimiento pero que se busca tener su mejor rendimiento posible. construido enteramente de cobre puro para tarjetas de mediano y bajo rendimiento, siendo su principal objetivo el alcanzar bajas temperaturas con la menor generaciòn de ruido que sea posible.

Teclado.......


Un teclado es un
periférico que consiste en un sistema de teclas, como las de una máquina de escribir, que permite introducir datos a un ordenador o dispositivo digital.

Cuando se presiona un caracter, envía una entrada cifrada al ordenador, que entonces muestra el caracter en la pantalla. El término teclado numérico se refiere al conjunto de teclas con números que hay en el lado derecho de algunos teclados (no a los números en la fila superior, sobre las letras). Los teclados numéricos también se refieren a los números (y a las letras correspondientes) en los teléfonos móviles.

Las teclas en los teclados de ordenador se clasifican normalmente como sigue:

  • Teclas alfanuméricas: letras y números.

  • Teclas de puntuación: coma, punto, punto y coma, etc.

  • Teclas especiales: teclas de funciones, teclas de control, teclas de flecha, tecla de mayúsculas, etc.

Historia del teclado.......

La disposición de las teclas se remonta a las primeras máquinas de escribir. Aquellas máquinas eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su posición por la frecuencia con la que cada letra aparecía en un texto.

los primeros teclados solían ser un terminal de computadora que se comunicaba por puerto serial con la computadora. Además de las normas de teletipo, se designó un estándar de comunicación serie, basado en el juego de caracteres ANSI, que hoy sigue presente en las comunicaciones por modem y con impresora (las primeras computadoras carecían de monitor, por lo que solían comunicarse, bien por luces en su panel de control, bien enviando la respuesta a un dispositivo de impresión). Se usaba para ellos las secuencias de escape, que se generaban bien por teclas dedicadas, bien por combinaciones de teclas, siendo una de las más usadas la tecla Control.

Algunas lenguas incluyen caracteres adicionales al teclado inglés, como los caracteres acentuados. Teclear los caracteres acentuados resulta más sencillo usando las teclas inertes. Cuando se utiliza una de estas teclas, si se presiona la tecla correspondiente al acento deseado nada ocurre en la pantalla, por lo que, a continuación se debe presionar la tecla del carácter a acentuar.

Hubo y hay muchos teclados diferentes, dependiendo del idioma, fabricante… IBM ha soportado tres tipos de teclado: el XT, el AT y el MF-II.

El primero (1981) de éstos tenía 83 teclas, usaban es Scan Code set1, unidireccionales y no eran muy ergonómicos, ahora está obsoleto.

Más tarde (1984) apareció el teclado PC/AT con 84 teclas (una más al lado de SHIFT IZQ), ya es bidireccional, usa el Scan Code set 2 y al igual que el anterior cuenta con un conector DIN de 5 pines.

En 1987 IBM desarrolló el MF-II (Multifunción II o teclado extendido) a partir del AT. Sus características son que usa el mismo interfaz que el AT, añade muchas teclas más, se ponen leds y soporta el Scan Code set 3, aunque usa por defecto el 2. De este tipo hay dos versiones, la americana con 101 teclas y la europea con 102.

Los teclados PS/2 son básicamente iguales a los MF-II. Las únicas diferencias son el conector mini-DIN de 6 pines (más pequeño que el AT) y más comandos, pero la comunicación es la misma, usan el protocolo AT. Incluso los ratones PS/2 usan el mismo protocolo.

Hoy en dia existen también los teclados en pantalla, también llamados teclados virtuales, que son (como su mismo nombre indica) teclados representados en la pantalla, que se utilizan con el raton o con un dispositivo especial (podria ser un joystick). Estos teclados lo utilizan personas con discapacidades que les impiden utilizar adecuadamente un teclado fisico.

Actualmente la denominación AT ó PS/2 sólo se refiere al conector porque hay una gran diversidad de ellos.


Historia del Mouse ( raton ).....


El nombre con el que fue registrado el ratón fue “X-Y Position Indicator for a Display System” y posee la
patente número 3.541.541. La presentación oficial del ratón se realizó el 9 de diciembre 1968, año de revoluciones, en el Civic Auditorium de San Francisco con una expectación impresionante y un público de más de 2.000 personas.


En las primeras pruebas del ratón probaron con una pelota grande y pesada y aparatos con ejes centrales. Contaban con un panel bastante ligero que se sostenía al lado de la pantalla y con un control movible para manejar las cosas. Pero pronto comprobaron que en rapidez y precisión, aquello que comenzaron a llamar ratón, se llevaba la palma. Así, el primer modelo desarrollado por Engelbart y su compañero de faenas Bill English, fue construido de forma artesanal con materiales tan simples como la madera o una moneda, pero su funcionamento es prácticamente idéntico al de los ratones actuales. Este primer ejemplar es sin duda una pieza histórica en informática, y reside en la casa de California de su inventor, y no en ningún museo especializado como podría pensarse.

En 1984 el ratón de Engelbart (con un solo botón) pasó a ser incorporado de serie en las Macintosh de Apple, pero no sería hasta los 90 cuando penetraría de forma extendida en los hogares como una parte o elemento más del ordenador. Así, este se ha convertido en el segundo periférico más importante en un ordenador (el primero es el teclado, obviamente).

Fuente de poder y su historia.....

La fuente de poder es el componente más ignorado de una computadora y el más difícil de seleccionar. Es la parte que se conecta a la corriente distribuyendo la electricidad a los demás componentes de la computadora; sin fuente de poder, la computadora no funciona, mientras que una de baja calidad puede quemar los componentes o “tronar” en una nube de humo azul.

En una fuente de baja calidad la corriente es variable, y estas variaciones van dañando poco a poco los componentes, hasta hacer que truenen; una fuente de poder buena protege a los componentes y alarga su vida.

La corriente se mide en watts, que significan el poder total empleado (como en un lámpara de 80 watts). Ahora imaginen una manguera por la que corre agua, el ancho de la manguera serían los voltios que soporta una instalación eléctrica, y la fuerza del agua serían los amperes; si multiplicas los voltios por los amperes obtendrás la cantidad de watts que estás consumiendo.

CLASIFICACIÓN

Las fuentes de poder las clasifican según la cantidad de watts que soportan pero es una cifra mentirosa ya que no hay un estándar de medición y algunos fabricantes distorsionan y manipulan las cifras con tal de hacer más atractivo un producto que en realidad es muy inferior.

Aquí están algunas indicaciones para escoger una buena fuente de poder

1.-WATTS

Generalmente entre más watts tenga una fuente de poder es mejor. Para una computadora normal se recomienda un mínimo de 300 watts; si se tiene un procesador doble o varios discos duros se recomienda de 400 a 500 watts; si la computadora es muy exótica hay fuentes de poder hasta de 1000 watts en el mercado.

Por la falta de estándares en como medir los watts en una fuente de poder hay fabricantes que la miden de tal manera que marcan más capacidad de la que realmente tienen, o sea, no son reales.

Los watts de la fuente de poder se reparten a los componentes de la computadora usando cables de 12, 5 y 3.3 voltios. El más importante en las computadoras modernas es el de 12v, porque es el que va al procesador. (En computadoras “viejas” el de 5v era el del procesador). Los demás van a los discos rígidos, motherboard, tarjeta de sonido y algunas tarjetas de video que requieren corriente extra.

2.-EFICIENCIA

La eficiencia determina cuanto poder es desperdiciado. Entre más se calienta la fuente de poder, ésta desperdicia más energía, por eso tiene ventiladores. Una fuente de poder buena tiene un 80% de eficiencia, una regular un 65%. Abajo de eso es mala calidad.

Una computadora normal consume aproximadamente 150w; en una fuente de poder de 300w a 65 por ciento de eficiencia da 195w, suficiente para una computadora normal. Los buenos fabricantes ponen la eficiencia de sus fuentes en las etiquetas, los tramposos no.

3.-RUIDO

Este es un tema subjetivo, lo que es ruidoso para alguien no lo es para otra persona. Para enfriar la fuente de poder se necesitan abanicos que hacen ruido, entre más rápido tenga que funcionar el abanico más ruido hace. Si éste es de mayor calidad, menos se va a calentar y será más silencioso.

4.-CONFIABILIDAD

Consulten en Internet en los sitios especializados y los foros, ya que es la única manera de ver qué tan confiable es algo es preguntarle a alguien que ya lo ha probado.

En suma vale la pena gastar un poco más en una buena fuente de poder ya que va a proteger y alargar la computadora que cuesta varias veces más que la fuente. Intenten conseguir de buena marca ya que vale la pena.
RC.