miércoles, 22 de mayo de 2013


Una visión típica de una arquitectura de computadora como una serie de capas de abstracción: hardware, firmware, ensamblador, kernel  , sistema operativo y aplicaciones.La arquitectura de computadoras es el diseño conceptual y la estructura operacional fundamental de un sistema de computadora. Es decir, es un modelo y una descripción funcional de los requerimientos y las implementaciones de diseño para varias partes de una computadora, con especial interés en la forma en que la unidad central de proceso (UCP) trabaja internamente y accede a las direcciones de memoria.

También suele definirse como la forma de seleccionar e interconectar componentes de hardware para crear computadoras según los requerimientos de funcionalidad, rendimiento y costo.

El ordenador recibe y envía la información a través de los periféricos por medio de los canales. La UCP es la encargada de procesar la información que le llega al ordenador. El intercambio de información se tiene que hacer con los periféricos y la UCP. Todas aquellas unidades de un sistema exceptuando la UCP se denomina periférico, por lo que el ordenador tiene dos partes bien diferenciadas, que son: la UCP (encargada de ejecutar programas y que está compuesta por la memoria principal, la UAL y la UC) y los periféricos (que pueden ser de entrada, salida, entrada-salida y comunicaciones).
http://es.wikipedia.org/wiki/Arquitectura_de_computadoras


Casi todas las CPU tratan con estados discretos y por lo tanto requieren una cierta clase de elementos de conmutación para diferenciar y cambiar estos estados. Antes de la aceptación comercial del transistor, los relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados comúnmente como elementos de conmutación. Aunque éstos tenían distintas ventajas de velocidad sobre los anteriores diseños puramente mecánicos, no eran fiables por varias razones. Por ejemplo, hacer circuitos de lógica secuencial de corriente directa requería hardware adicional para hacer frente al problema del rebote de contacto. Por otro lado, mientras que los tubos de vacío no sufren del rebote de contacto, éstos deben calentarse antes de llegar a estar completamente operacionales y eventualmente fallan y dejan de funcionar por completo. Generalmente, cuando un tubo ha fallado, la CPU tendría que ser diagnosticada para localizar el componente que falla para que pueda ser reemplazado. Por lo tanto, los primeros computadores electrónicos, (basados en tubos de vacío), generalmente eran más rápidos pero menos confiables que los ordenadores electromecánicos, (basados en relés). Los ordenadores de tubo, como el EDVAC, tendieron en tener un promedio de ocho horas entre fallos, mientras que los ordenadores de relés, (anteriores y más lentas), como el Harvard Mark I, fallaban muy raramente. Al final, los CPU basados en tubo llegaron a ser dominantes porque las significativas ventajas de velocidad producidas generalmente pesaban más que los problemas de confiabilidad. La mayor parte de estas tempranas CPU síncronas corrían en frecuencias de reloj bajas comparadas con los modernos diseños microelectrónicos. Eran muy comunes en este tiempo las frecuencias de la señal del reloj con un rango desde 100 kHz hasta 4 MHz, limitado en gran parte por la velocidad de los dispositivos de conmutación con los que fueron construidos.
CPU de transistores y de circuitos integrados discretos
CPU, memoria de núcleo e interfaz de bus externo de un MSI PDP-8/I.La complejidad del diseño de las CPU se incrementó a medida que varias tecnologías facilitaron la construcción de dispositivos electrónicos más pequeños y confiables. La primera de esas mejoras vino con el advenimiento del transistor. Las CPU transistorizadas durante los años 50 y los años 60 no tuvieron que ser construidos con elementos de conmutación abultados, no fiables y frágiles, como los tubos de vacío y los relés eléctricos. Con esta mejora, fueron construidas CPU más complejas y más confiables sobre una o varias tarjetas de circuito impreso que contenían componentes discretos (individuales). Durante este período, ganó popularidad un método de fabricar muchos transistores en un espacio compacto. El circuito integrado (IC) permitió que una gran cantidad de transistores fueran fabricados en una simple oblea basada en semiconductor o "chip". Al principio, solamente circuitos digitales muy básicos, no especializados, como las puertas NOR fueron miniaturizados en IC. Las CPU basadas en estos IC de "bloques de construcción" generalmente son referidos como dispositivos de pequeña escala de integración "small-scale integration" (SSI). Los circuitos integrados SSI, como los usados en el computador guía del Apollo (Apollo Guidance Computer), usualmente contenían transistores que se contaban en números de múltiplos de diez. Construir un CPU completo usando IC SSI requería miles de chips individuales, pero todavía consumía mucho menos espacio y energía que diseños anteriores de transistores discretos. A medida que la tecnología microelectrónica avanzó, en los IC fue colocado un número creciente de transistores,disminuyendo así la cantidad de IC individuales necesarios para una CPU completa. Los circuitos integrados MSI y el LSI (de mediana y gran escala de integración) aumentaron el número de transistores a cientos y luego a miles. En 1964, IBM introdujo su arquitectura de ordenador System/360, que fue usada en una serie de ordenadores que podían ejecutar los mismos programas con velocidades y desempeños diferentes. Esto fue significativo en un tiempo en que la mayoría de los ordenadores electrónicos eran incompatibles entre sí, incluso los hechas por el mismo fabricante. Para facilitar esta mejora, IBM utilizó el concepto de microprograma, a menudo llamado "microcódigo", ampliamente usado aún en las CPU modernas. La arquitectura System/360 era tan popular que dominó el mercado del mainframe durante las siguientes décadas y dejó una herencia que todavía aún perdura en los ordenadores modernos, como el IBM zSeries. En el mismo año de 1964, Digital Equipment Corporation (DEC) introdujo otro ordenador que sería muy influyente, dirigido a los mercados científicos y de investigación, el PDP-8. DEC introduciría más adelante la muy popular línea del PDP-11, que originalmente fue construido con IC SSI pero eventualmente fue implementado con componentes LSI cuando se convirtieron en prácticos. En fuerte contraste con sus precursores hechos con tecnología SSI y MSI, la primera implementación LSI del PDP-11 contenía una CPU integrada únicamente por cuatro circuitos integrados LSI. Los ordenadores basados en transistores tenían varias ventajas frente a sus predecesores. Aparte de facilitar una creciente fiabilidad y un menor consumo de energía, los transistores también permitían al CPU operar a velocidades mucho más altas debido al corto tiempo de conmutación de un transistor en comparación a un tubo o relé. Gracias tanto a esta creciente fiabilidad como al dramático incremento de velocidad de los elementos de conmutación que por este tiempo eran casi exclusivamente transistores, se fueron alcanzando frecuencias de reloj de la CPU de decenas de megahertz. Además, mientras que las CPU de transistores discretos y circuitos integrados se usaban comúnmente, comenzaron a aparecer los nuevos diseños de alto rendimiento como procesadores vectoriales SIMD (Single Instruction Multiple Data) (Simple Instrucción Múltiples Datos). Estos primeros diseños experimentales dieron lugar más adelante a la era de los superordenadores especializados, como los hechos por Cray Inc.
http://es.wikipedia.org/wiki/Unidad_central_de_procesamiento









clases de software 


. Por su tipo de licencia tenemos el software comercial y el software no comercial.

- El software comercial. Al adquirir un SOFTWARE de este tipo no adquirimos propiamente el programa, solo compramos una licencia de uso, esto quiere decir que podemos usar el programa pero no podemos modificarlo ni redistribuirlo. Generalmente la licencia es válida para una sola PC o computadora, sin embargo las empresas que se dedican al DISEÑO DE SOFTWARE pueden ofrecer licencias para instalar el software en más de una PC. En caso contrario deberemos adquirir una licencia de uso por cada computadora a la que queremos instalarle el programa.

- El software no comercial. Existe un tipo de SOFTWARE GRATUITO o que se distribuye de manera gratuita, llamado FREEWARE y que se basa en el uso de licencias de uso público – GNU o GPL – de esta manera quien obtiene un programa de este tipo puede usarlo, redistribuirlo en el estado en que está, modificarlo o incluso redistribuirlo modificado.

- Además podemos encontrar versiones de SOFTWARE DEMO, TRIAL SOFTWARE o SOFTWARE SHAREWARE lo que significa que es software similar a un SOFTWARE ORIGINAL pero con algunas restricciones en su uso – como la inexistencia o inhabilitación de algunas características – o con limitaciones en su tiempo de uso. Es así como las empresas de software dan a conocer a algunos de sus productos y nosotros podemos probarlos y evaluarlos para finalmente comprarlos si nos satisface.

2. Por su tipo de uso:

- SISTEMA OPERATIVO (SO): Es el software que necesita toda computadora para su funcionamiento. Se encarga de controlar el hardware y nos sirve de plataforma para poder ejecutar otros programas
- SOFTWARE DE OFICINA: Conocido también como software de OFIMATICA, son todos los programas como procesadores de texto, hojas de cálculo, bases de datos, correo electrónico y demás.
- SOFTWARE DE SEGURIDAD: Software que elimina VIRUS, ADWARE, SPYWARE y demás programas que infectan nuestra PC – sobre todo si navegamos seguido en INTERNET – unos son freeware y otros son de licencia comercial
- SOFTWARE DE DISEÑO GRAFICO: El nombre lo dice todo, verdad. Presentan características para trabajar con vectores, para trabajar con mapas de bits, etc. Y como podrán recordar, requieren prestaciones mayores de hardware. Muchos de estos programas están diseñados bajo la modalidad WYSIWYG (What You See Is What You Get, en español: “lo que ves es lo que obtienes”)
- SOFTWARE DE DISEÑO WEB: Este tipo de software permite crear sitios y aplicaciones web; también muchos de ellos presentan la característica WYSIWYG.
- SOFTWARE DE DESARROLLO: Es software que permite crear nuevo software.
- SOFTWARE DE AUDIO / VIDEO: Software diseñado para la creación, la edición o, la ejecución de audio o video.

LICENCIA DE SERVIDOR:

Autoriza el software de servidor en un equipo que cumpla las funciones de servidor de red, entraña el derecho de instalar el software de cliente, incluido el producto de servidor en estaciones de trabajo conectadas al servidor, así como derechos limitados de administración de red.

SOFTWARE COMERCIAL

Los programas de cómputo comerciales representan la mayoría de los programas de cómputo adquiridos de los editores, tiendas comerciales de computadores, etc. Cuando se compran programas de computo, realmente se esta adquiriendo una licencia para usarlo. Se adquiere la licencia de una compañía que es titular del derecho de autor. Las condiciones y restricciones del convenio de licencia varían de programa en programa y deben ser leídas cuidadosamente.
En general, las licencias de programas de cómputo comerciales estipulan que:

1. Al programa de computo esta protegido por el derecho de autor.
2. Aunque pueden hacerse copias del programa de computo para archivo, la copia de respaldo no puede ser usada excepto cuando el paquete original falla o es destruido.
3. No se permite hacer modificaciones al programa de computo.
4. No se permite descompilar el código fuente del programa de computo sin permiso del titular del derecho de autor.

5. No se permite desarrollar nuevos trabajos construidos con base en el paquete sin el permiso del titular del derecho de autor.


SOFTWARE DE DOMINIO PÚBLICO

Los programas de computo del dominio publico caen dentro de el, cuando el titular del derecho de autor explícitamente renuncia a todos los derechos sobre el programa de computo.
     
CLASIFICACION DE LOS CONTRATOS

En un intento por clasificar los contratos informáticos, se ha llegado a determinar que existen formas contractuales como seria el caso de la licencia de uso de software; formas contractuales mixtas como los contratos de desarrollo del software y llave en mano, y las formas contractuales tradicionales que vienen siendo innovadas notablemente por las especiales características de los objetos del contrato. Son los casos de la compraventa, el comodato, los contratos de manufactura original y demás atinentes al bien informático. La tipología de contratos informáticos se desarrolla de acuerdo con la diversidad de relaciones contractuales existentes en el sistema elaborativo. La regla general es considerar una triple categoría fundamental:

1. los contratos sobre hardware
2. los contratos sobre software
3. los contratos de mantenimiento y servicio.


CONTRATOS DE HARDWARE

A diferencia de los contratos de software, el contrato de hardware no tiene la variedad de posibilidades que se presentan en el primero. Quienes quieren adquirir un equipo físico se pueden dirigir directamente al mercado, con la seguridad de encontrar múltiples alternativas técnicas y posibilidades económicas variadas. Estos generalmente, son ofrecidos por las casas constructoras, distribuidoras y vendedoras.

CONTRATOS DE SOFTWARE

Existen dos tipos de software, el aplicativo y el de base. Este último generalmente se adquiere en el momento mismo de la adquisición del equipo físico; el aplicativo por lo contrario es aquel hecho a la medida del cliente, de acuerdo a sus necesidades. Para el cliente existen diferentes posibilidades: elaborar su propio software si esta en grado de hacerlo, si no es así, puede optar por mirar lo que ofrecen los productos de software o puede comisionar a una persona externamenteSegún se encuentre en una de estas hipótesis se llevara a cabo una compraventa o licencia de uso, un contrato de asesoría o desarrollo del software y según la forma elegida de contratación se determinara el precio y la forma de pago.

EL CLUF
Casi la totalidad del software informático comercial dispone de una licencia directa o indirecta cedida al usuario por el propietario del derecho de (autorcopyright); es decir, el fabricante del software estipula en un modelo de contrato denominado “contrato de licencia de usuario final” (cluf) según el tipo de producto, pueden existir distintos tipos de CLUF.

La utilización por parte del usuario de software se rige por los términos y condiciones del CLUF, así como por la ley de derecho de autor.
CLUF es el contrato relativo a la utilización, por su parte, del producto bajo licencia, y le concede al usuario un derecho específico para utilizar el software en el equipo.

LICENCIAS QUE INCLUYE EL SOFTWARE

Existen dos licencias que describen los derechos de utilización de los productos de servidor de red: la licencia de servidor y la licencia de acceso al cliente.

LICENCIA DE ACCESO AL CLIENTE:

Para acceder o utilizar efectivamente los servicios del software de servidor desde una estación cliente, deberá adquirirse por separado una licencia de acceso al cliente. Es decir, la licencia de servidor, permite instalar la red, mientras que la licencia de acceso al cliente le permite utilizarla. Es importante diferenciar entre la licencia de acceso al cliente, necesaria para acceder a los productos de servidor de programas, y los contratos de licencia deusuario final (CLUF) para productos del sistema operativo del escritorio de estos.
CONTRATOS DE SERVICIOS

Este equipo de contrato se ejecuta generalmente a partir de la venta de equipos. Se ofrecen servicios de mantenimiento técnico, revisión periódica y preventiva de los equipos, suministro de piezas relativas al funcionamiento de los aparatos y tratándose de contratos referentes a los programas generalmente se ofrecen servicios de capacitación, manejo y adaptación.
son averiguaciones realizadas in internet
http://junio06.galeon.com/













Componentes Hardware


Un sistema computacional consiste en un conjunto de componentes electrónicos y electromecánicos interconectados que almacenan y transforman símbolos en base a las instrucciones especificadas en los componentes software del mismo sistema.

Conceptualmente, es posible distinguir 5 tipos de componentes hardware:


Procesadores
Memoria principal
Dispositivos de entrada
Dispositivos de almacenamiento secundario
Dispositivo de salida


Una computadora debe ser capaz de recibir, a través de sus dispositivos de entrada, ciertos datos e instrucciones para manipular éstos. Una vez que los datos e instrucciones son ingresados, el computador debe ser capaz de almacenarlos internamente en su memoria primaria y luego, procesar los datos en base a las instrucciones suministradas utilizando su(s) procesador(es).

Dado que la memoria principal posee una capacidad limitada y es típicamente volátil (su contenido se pierde cuando el componente no recibe energía), es necesario disponer de alternativas para el almacenamiento de datos e instrucciones; ese es el rol de los dispositivos de almacenamiento secundario.

Finalmente, el producto resultante del procesamiento de los datos es entregado al usuario u otros sistemas a través de los dispositivos de salida.



¿Por qué es importante conocer sobre los componentes hardware de un sistema computacional?
Pese a que la mayor parte de los sistemas computacionales poseen una estructura similar, las características de sus componentes hardware varían y estas variaciones pueden crear problemas a los usuarios:

Un primer problema es la capacidad de la memoria y los dispositivos de almacenamiento secundario: La capacidad de la memoria determina la extensión de almacenamiento y por lo tanto, la complejidad de los programas y la cantidad de datos que puede almacenar.
Un segundo problema es la velocidad del procesador. Pese a que la velocidad de los procesadores se ha incrementado en dos órdenes de magnitud en los últimos 20 años, su velocidad puede no ser la adecuada para cierta necesidad de procesamiento de datos. Si el usuario requiere realizar muchos cálculos, como es el caso del procesamiento científico y gráfico, diferencias en términos de la velocidad del procesador pueden dar origen a diferencias de horas, días, meses y aún años en la producción de los resultados.
Si tiene acceso a más de un sistema computacional, investigue la velocidad del procesador de cada uno de ellos.
Dispongo de acceso directo a una computadora personal, a mi computadora personal y a la que utilizo en el trabajo. La primera es un 486DX4 100 MHz, la segunda es un Pentium MMX 233 MHz y la última es un Pentium MMX 166 MHz

Ejecute en dichos sistemas computacionales programas que realicen la misma tarea (ej: digitalizacion de vídeo, edición de imágenes 2-D o 3-D, clasificación y/o ordenamiento de un conjunto de datos de gran tamaño, reemplazo de una palabra en un archivo de texto de gran tamaño). ¿Es apreciable la diferencia de velocidad?
Definitivamente. Se aprecia enormemente la diferencia entre los pentium con respecto al 486 y en menor medida entre el 166 y el 233.

¿Cuál es la percepción existente en la organización a la que Ud. pertenece en relación al impacto de cambios en la velocidad de los procesadores en las tareas de procesamiento de datos?
El proceso de globalización exige una más rápida respuesta del personal que labora en una empresa para poder lograr un nivel competitivo con los mejores. Por tal razón, la disponibilidad de herramientas adecuadas para la labor que se debe ejecutar es importante e imperativa; por otro lado, una computadora rápida permite culminar trabajos en menor tiempo y liberar congestión dentro de las redes de datos corporativos.


Otro problema es la compatibilidad. La forma en que los datos son almacenados, no es la misma en todos los sistemas. Del mismo modo, distintos procesadores reconocen distintos tipos de instrucciones. En consecuencia, un programa ejecutable en un computador puede no ser ejecutable en otro que posea un procesador diferente.

¿Son todos los sistemas computacionales de su organización idénticos?
A pesar de corresponderse a computadoras de tecnología semejante, no necesariamente son productos elaborados por un mismo fabricante. En general, las computadoras de escritorio son de tecnología semejante, Pentium MMX 166 con 32 MRAM y disco de 2 GB como estándar corporativo; pero también existen computadoras de otro tipo de tecnología como las Machintoch para el procesamiento de imágenes mediante herramientas como los scanner y que se ubican en los centros de usuarios o los AS400 como computadores VM corporativos para el análisis y almacenamiento de datos corporativos de interes para grupos de trabajo especializados.

De no ser así, ¿qué problemas han causado las diferencias entre ellos?
El mayor problema es la integración de las plataformas para poder operar con paquetes de oficina estándar dentro de la corporación.



El procesador.





El procesador es el encargado de realizar los cálculos aritméticos, tomar decisiones lógicas y coordinar gran parte de las acciones realizadas por los restantes componentes del sistema computacional. La primeras dos tareas son realizadas por la unidad aritmético-lógica u operador de datos, mientras que la última es realizada por la unidad de control.
La unidad aritmético-lógica (ALU) contiene circuitos aritméticos y lógicos capaces de sumar, restar, multiplicar, dividir y comparar números. Junto con ello, la ALU contiene un conjunto de componentes denominados registros, que permiten el almacenamiento de datos al interior del procesador en forma temporal.
Para realizar una computación, los números son transferidos desde la memoria principal hacia los registros en la CPU y de allí enviados a los circuitos aritméticos y lógicos, siendo los resultados de la operación realizada enviados también a algún registro para de allí ser transferidos, de ser necesario, a la memoria principal
La unidad de control es la encargada de generar señales hacia los distintos componentes de modo tal de posibilitar la ejecución de las instrucciones. Para ello, la instrucción a ser ejecutada es almacenada en un registro de instrucciones y decodificada por un decodificador de instrucciones el cual posibilita la activación selectiva de aquellas señales de control asociadas a la ejecución de una instrucción específica.
La memoria principal
  La memoria principal es aquel componente del sistema computacional que almacena los programas y datos que están siendo procesados. Ella, en tiempo de ejecución, debe contener el sistema operativo, las instrucciones para manipular los datos y los datos mismos.
Las computadoras utilizan dos tipos de memoria de acceso aleatorio:
Memoria de solo lectura (ROM - Read Only Memory)
Memoria de lectura y escritura (RAM - Random Access Memory)
 En la memoria de tipo ROM residen los programas de arranque de la máquina que le indican al microprocesador que hacer y como evaluar el hardware existente (del que dispone); la ROM contiene el programa en forma permanente que establece las características de la máquina y la interconectividad entre los dispositivos desde el punto de vista del hardware y sus líneas de control; son los programas que se cargen en la computadora, los que determinaran que tipo de uso se le va ha dar al dispositivo desde el punto de vista de trabajo que debe de realizar según su capacidad.

En la RAM residen en forma temporal los programas cargados por el usuario para el desarrollo de trabajos útiles según sus necesidades (las del usuario).
La próxima vez que Ud. encienda un computador tome nota de las acciones que pueda percibir y que afecten algún componente hardware.
¿Podría Ud. establecer qué programas residen en la ROM de su computador?
A pesar de que al momento de arrancar la computadora, los programas residentes en la ROM se ejecutan en forma oculta; solo una de las rutinas es posible visualizar y esta es la rutina de evaluación de la existencia de memoria. Sin embargo, cuando se instala algún dispositivo conflictivo o se desinstala por ejemplo la memoria RAM o el teclado, el programa de la ROM al evaluar el hardware existente detecta la falta de estos y emite un anuncio sonoro o en forma de texto que advierte al usuario sobre la situación anormal encontrada. También es posible ver como la ROM residente en tarjetas y periféricos, emite un mensaje escrito y gráfico en algunos casos indicando al usuario de la existencia y reconocimiento de este hardware (ejemplo las funciones de ahorro de energía o la existencia de tarjetas de vídeo especial)

Las memorias ROM almacenan ciertos programas e información necesaria para el funcionamiento del sistema computacional en forma permanentemente, de ahí el calificativo "solo de lectura". Este tipo de memoria es no volátil, ya que su contenido no desaparece o se borra cuando se desconecta el suministro eléctrico al componente.

Las instrucciones básicas que se necesitan para que un computador inicie su operación están almacenadas en memorias ROM, así como también algunos programas utilitarios y, en algunos casos, software.

Las memorias RAM también puede almacenar ciertos programas vitales para el funcionamiento de la computadora. Sin embargo en las RAM el usuario puede almacenar la información, modificarla o borrarla. La capacidad de la RAM afecta la forma en que se ejecutan los programas y la cantidad de datos que pueden procesarse. Cuanto más fácil de usar sea un programa, tanta más RAM se necesitará generalmente.

LA RAM es una memoria volátil, su contenido se pierde cuando la computadora se desconecta (excepto en algunas que están provistas de baterías específicamente orientadas a mantener el contenido de la RAM).

¿Alguna vez ha estado utilizando un sistema computacional en el momento en que se ha suspendido el suministro de energía eléctrica?
Si.

¿Qué ha ocurrido con los datos en esos casos?
Los trabajos así como los datos que se estaban obteniendo en el momento, se pierden si no se dispone de una unidad de energía de respaldo como los UPS. Solo se pierden los datos que se encuentran en la RAM y que no se han almacenado en un medio de registro permanente como el disco duro.

La memoria principal de un computador está formada por componentes electrónicos biestables, es decir, que pueden adoptar uno de dos estados posibles (on/off, 0/1). Cada uno de estos componentes es capaz de almacenar un dígito binario o bit.

Los bits en la memoria deben ser organizados de modo tal de poder almacenar y/o recuperar datos: caracteres y números. Para ello, los bits son organizados en grupos, constituyendo cada uno de esos grupos una posición de almacenamiento. Un grupo de 8 bits constituye un byte y en él es posible almacenar la representación binaria de un caracter. Típicamente, un grupo de 16 bits se denomina palabra, sin embargo, el término se ha generalizado de modo tal que se utiliza para indicar un grupo de 8*k bits, con k>1. Se habla entonces, por ejemplo, de palabras de 32 o 64 bits.

La capacidad de almacenamiento de un computador es medida en términos del número de bytes en memoria principal. Generalmente, la capacidad es establecida en kilobytes (KB) o megabytes (MB).

1 KB = 1024 bytes = 210 Bytes

1 MB = 1048576 bytes = 220 bytes


Tome el primer libro que se encuentre a su alcance y estime el número de caracteres promedio por página.

¿Cuál es la capacidad de almacenamiento del computador que Ud. está utilizando?
En memoria RAM es capaz de almacenar hasta 32 MB = 33554432 bytes = 225 bytes

¿El equivalente a cuántas páginas del libro seria posible almacenar en la memoria principal de su computador?
Del libro en cuestión, podría almacenar el equivalente de 11184 páginas, a razón de 60 caracteres por línea y 50 líneas por página, lo que equivale a 3000 caracteres por página (3000 bytes por página).

Cada posición de almacenamiento es identificada unívocamente mediante una dirección.

La dirección de una cierta posición de almacenamiento es análoga al número que permite identificar una casilla de correos. El contenido de la posición de almacenamiento asociada a una cierta dirección es análogo al contenido de una casilla de correos particular asociada a un cierto número de casilla.
http://es.wikipedia.org/wiki/Hardware






Historia de la Computación
 Desde el principio del tiempo los hombres siempre han inventado cosas para que la vida fuera más cómoda.

Hace 50.000 años, el hombre primitivo aprendió a hacer fuego para obtener calor. Hace 5.000 años, alguien inventó la rueda para poder mover objetos con más facilidad. Hace unos 4.000 años, los chinos inventaron un objeto para solucionar mejor los problemas de matemáticas: el ábaco.
El ábaco no podía realizar la mayor parte de las tareas que realiza un computador, pero sí hacía algo importante que hacen los computadores: con él se resolvían los problemas de matemáticas más fácilmente.
Ya en el siglo XVII, en 1641, un francés llamado Blaise Pascal hizo un aporte importante para la historia del computador, inventó una máquina de sumar, a la que dio el nombre de Pascalina. Podía sumar y restar largas columnas de números sin cometer ningún error.(cfr. Marquès, P. et al. "Cómo introducir y utilizar el ordenador en la clase". p. 16.)
Unos años más tarde, un alemán llamado Gottfried Leibnitz mejoró la máquina de Pascal: inventó una calculadora. Aparte de sumar y restar, también podía multiplicar, dividir, y hallar la raíz cuadrada de un número. Se accionaba manualmente. (cfr. Tison, C. et al. "Guía para niños sobre ordenadores". p. 3.)
Casi doscientos años más tarde apareció otro invento importante. Era un telar automático, inventado en 1801 por Joseph-Marie Jacquard. El telar utilizaba información codificada para fabricar la tela.
Esta nueva máquina entrelazaba los hilos mientras se pedaleaba. Jacquard hizo unos agujeros en una tarjetas y las juntó para hacer una secuencia. El telar tomaba información de los cartones y la usaba para fabricar los tejidos. (cfr. Idem. pp. 3 - 4)
En 1833, Charles Babbage y Lady Augusta Ada Byron, la Condesa de Lovelace, empezaron a trabajar juntos en un invento al que llamaron calculadora analítica. Querían que funcionase por sí sola, sin que nadie la accionara. Buscaron la manera de dar información a la máquina, que hiciera algo con ésta y que devolviera otra información.
En 1839, Babbage se dedicó por entero a trabajar en pequeñas computadoras. Lovelace ya había completado sus teorías sobre cómo dar instrucciones al computador. Ninguno de los dos llegó a construir esta máquina. Hacían falta miles de pequeñas piezas construidas a la perfección, y en el siglo XIX no había herramientas que fabricasen piezas tan pequeñas y perfectas. La calculadora no se finalizó nunca.
B. El Primer Computador  Cada diez años, el gobierno de Estados Unidos hace un censo. En 1880, el gobierno empezó uno, pero había tanta gente en Estados Unidos, que tardaron 8 años en contarlos a todos y en poner información sobre dónde vivían y a qué se dedicaban. Ocho años era demasiado tiempo, así que el gobierno celebró un concurso para encontrar una manera mejor de contar gente. Herman Hollerith inventó una máquina denominada máquina tabuladora. Esta máquina ganó el concurso, y el gobierno la usó en el censo de 1890.
La máquina de Herman usaba tarjetas perforadas, y cada agujero significaba algo. Un agujero significaba que la persona estaba casada, otro, que no lo estaba. Un agujero significaba que era de sexo masculino, otro, de sexo femenino. La electricidad pasaba a través de los agujeros y encendía los motores, que a su vez activaban los contadores.
En 1890, sólo hicieron falta seis semanas para realizar el primer recuento sencillo. El recuento completo se realizó en sólo dos años y medio.La nueva máquina tabuladora de Herman se hizo famosa. Se vendieron copias a otros países para que realizasen sus censos. Pero Herman no se paró en este invento. Comenzó una empresa llamada International Business Machines. Hoy en día es una de las empresas informáticas más grande del mundo: IBM. (cfr. Idem. pp. 9 - 10.)
A principios del siglo XX, muchas personas de todo el mundo inventaron computadores que funcionaban de maneras similares a la máquina tabuladora. Hacían experimentos para que funcionaran más rápido, y realizaran más tareas aparte de contar.
C. La Primera Generación de Computadores
Alan Turing, en 1937, desarrolló el primer auténtico proyecto de un computador. En 1944, en la Universidad de Harvard, crearon el primer calculador electromecánico, el Mark1. Era lento y poco fiable.
En 1945, John von Neumann concibió la idea de un computador que se manejaba mediante instrucciones almacenadas en una memoria. Este concepto moderno de computador se plasmó, en 1946, en un prototipo llamado ENIAC, en los Estados Unidos, a partir de una iniciativa de las fuerzas armadas de ese país. Medía 30 metros de longitud, una altura de 3 y una profundidad de 1. Utilizaba 18.000 válvulas, conectados a 70.000 resistencias, 10.000 condensadores y 6.000 interruptores. (cfr. Pentiraro, E. Op. cit., p. 2.)
En 1951, la compañía Sperry Univac, comenzó la producción en serie del primer computador electrónico, el UNIVAC I. Sperry introdujo dentro del UNIVAC la información sobre las elecciones presidenciales estadounidenses de 1952. Antes de que se anunciasen los resultados, UNIVAC ya había predicho que Dwight D. Eisenhower ganaría las elecciones.
A partir de ese momento todos los computadores funcionarán según los principios de Von Neumann.
D. La Segunda Generación de Computadores
En 1948, un grupo de personas que trabajaban en el laboratorio Bell dieron el primer paso hacia un computador pequeño y fácil de usar, al crear el transistor. Un transistor controla la cantidad de energía eléctrica que entra y sale por un cable.
Sólo en 1958 se comenzaron a producir en serie los primeros computadores que utilizaban este pequeño bloque de silicio. Este mineral es un material semiconductor que contiene impurezas que alteran su conductividad eléctrica. Así, el computador se vuelve más económico, más rápido y más compacto.
E. La Tercera Generación de Computadores
Entre finales de los años sesenta y principios de los setenta se prepara otro importante cambio: el circuito integrado. Sobre una pieza de silicio monocristalino de reducido tamaño se encajan piezas semiconductoras. (cfr. Ídem, p. 6.) Se reducen los tamaños, aumentando la velocidad de proceso ya que se requiere una menor cantidad de tiempo para abrir y cerrar los circuitos.
F. La Cuarta Generación de Computadores
El circuito integrado se utilizó en los computadores hasta mediados de los setenta. En 1971, una empresa norteamericana llamada Intel desarrolló un proyecto de circuito integrado distinto, cuya característica fundamental era la posibilidad de programarlo como un auténtico computador. De esta forma nace el microprocesador.
A partir de 1975 se produce una verdadera revolución con este dispositivo de un par de centímetros de longitud. Las diferentes empresas construyen computadores basándose en el chip de Intel. Cada vez más instituciones adquieren computadores para optimizar sus procesos.
El chip de silicio es más pequeño que una moneda, pero contiene toda la información que el computador necesita para funcionar. Esto hace que los computadores sean mucho más rápidos y que gasten menos energía.
"Hoy en día, no hace falta ser un científico de computadores para manejar un computador. Algunos computadores son tan pequeños que caben en un bolsillo, y se pueden conectar a un enchufe o ponerles pilas. Los computadores pueden manejar la información de formas que nadie se podía imaginar en los tiempos de Hollerith, razón por la que actualmente son tan populares". (Tison, C. Op. cit., p 12.)  
Pero la historia de los computadores aún no ha terminado. Constantemente se están introduciendo nuevos avances técnicos. Lo que conocemos hoy como computadores, es posible que en el futuro no sea tal y estemos en presencia de tecnologías inimaginables en este momento. Lo mismo que le sucedió a Babbage en el siglo pasado
http://www.sscc.co.cl/informatica/historia.html






perifericos
En informática, se denomina periféricos a los aparatos y/o dispositivos auxiliares e independientes conectados a la unidad central de procesamiento de una computadora.

Se consideran periféricos tanto a las unidades o dispositivos a través de los cuales la computadora se comunica con el mundo exterior, como a los sistemas que almacenan o archivan la información, sirviendo de memoria auxiliar de la memoria principal.[cita requerida]

Se entenderá por periférico al conjunto de dispositivos que, sin pertenecer al núcleo fundamental de la computadora, formado por la CPU y la memoria central, permitan realizar operaciones de entrada/salida (E/S) complementarias al proceso de datos que realiza la CPU. Estas tres unidades básicas en un computador, CPU, memoria central y el subsistema de E/S, están comunicadas entre sí por tres buses o canales de comunicación:

direcciones, para seleccionar la dirección del dato o del periférico al que se quiere acceder,
control, básicamente para seleccionar la operación a realizar sobre el dato (principalmente lectura, escritura o modificación) y
datos, por donde circulan los datos.
A pesar de que el término periférico implica a menudo el concepto de “adicional pero no esencial”, muchos de ellos son elementos fundamentales para un sistema informático. El teclado y el monitor, imprescindibles en cualquier computadora personal de hoy en día (no lo fueron en los primeros computadores), son posiblemente los periféricos más comunes, y es posible que mucha gente no los considere como tal debido a que generalmente se toman como parte necesaria de una computadora. El ratón o mouse es posiblemente el ejemplo más claro de este aspecto. Hace menos de 20 años no todos las computadora personales incluían este dispositivo. El sistema operativo MS-DOS, el más común en esa época, tenía una interfaz de línea de comandos para la que no era necesaria el empleo de un ratón, todo se hacía mediante comandos de texto. Fue con la popularización de Finder, sistema operativo de la Macintosh de Apple y la posterior aparición de Windows cuando el ratón comenzó a ser un elemento imprescindible en cualquier hogar dotado de una computadora personal. Actualmente existen sistemas operativos con interfaz de texto que pueden prescindir del ratón como, por ejemplo, algunos sistemas básicos de UNIX y GNU/Linux.

Índice [ocultar]
1 Tipos de periféricos
1.1 Periféricos de entrada
1.2 Periféricos de salida
1.3 Periféricos de almacenamiento
1.4 Periféricos de comunicación
2 Enlaces externos


Tipos de periféricos [editar]Los periféricos pueden clasificarse en 3 categorías principales:

Periféricos de entrada: captan y digitalizan los datos de ser necesario, introducidos por el usuario o por otro dispositivo y los envían al ordenador para ser procesados.
Periféricos de salida: son dispositivos que muestran o proyectan información hacia el exterior del ordenador. La mayoría son para informar, alertar, comunicar, proyectar o dar al usuario cierta información, de la misma forma se encargan de convertir los impulsos eléctricos en información legible para el usuario. Sin embargo, no todos de este tipo de periféricos es información para el usuario.
Periféricos de entrada/salida (E/S): sirven básicamente para la comunicación de la computadora con el medio externo.
Los periféricos de entrada/salida son los que utiliza el ordenador tanto para mandar como para recibir información. Su función es la de almacenar o guardar, de forma permanente o virtual, todo aquello que hagamos con el ordenador para que pueda ser utilizado por los usuarios u otros sistemas.

Son ejemplos de periférico de entrada/salida o de almacenamiento:

Disco duro
Impresora
Memoria flash
Cintas magnéticas
Memoria portátil
Disquete
Pantalla táctil
Casco virtual
Grabadora y/o lector de CD
Grabadora y/o lector de DVD
Grabadora y/o lector de Blu-ray
Grabadora y/o lector de HD-DVD
Periféricos de almacenamiento: son los dispositivos que almacenan datos e información por bastante tiempo. La memoria de acceso aleatorio no puede ser considerada un periférico de almacenamiento, ya que su memoria es volátil y temporal.
Periféricos de comunicación: son los periféricos que se encargan de comunicarse con otras máquinas o computadoras, ya sea para trabajar en conjunto, o para enviar y recibir información.
Periféricos de entrada [editar]Artículo principal: Periférico de entrada.

Ratón.Son los que permiten introducir datos externos a la computadora para su posterior tratamiento por parte de la CPU. Estos datos pueden provenir de distintas fuentes, siendo la principal un ser humano. Los periféricos de entrada más habituales son:

Teclado
Micrófono
Escáner
Ratón o mouse
Palanca de mando (Joystick)
Gamepad
Escáner de código de barras
Cámara web
Lápiz óptico
Cámara digital
Periféricos de salida [editar]Son los que reciben la información procesada por la CPU y la reproducen, de modo que sea perceptible por el usuario. Algunos ejemplos son:

Visualizador
Monitor
Impresora
Fax
Tarjeta de sonido
Altavoz
Proyector digital
Auriculares
Periféricos de almacenamiento [editar]
Interior de un disco duro.Se encargan de guardar los datos de los que hace uso la CPU, para que ésta pueda hacer uso de ellos una vez que han sido eliminados de la memoria principal, ya que ésta se borra cada vez que se apaga la computadora. Pueden ser internos, como un disco duro, o extraíbles, como un CD. Los más comunes son:

Disco duro
Disquete
Unidad de CD
Unidad de DVD
Unidad de Blu-ray Disc
Memoria flash
Memoria USB
Cinta magnética
Tarjeta perforada
Memoria portátil
Otros dispositivos de almacenamiento:
Zip (Iomega): Caben 100 Mb y utiliza tecnología magnética.
EZFlyer (SyQuest): Caben 230 Mb y tiene una velocidad de lectura muy alta
SuperDisk LS-120: Caben 200 Mb y utilizan tecnología magneto-óptica.
Magneto-ópticos de 3,5: Caben de 128 Mb a 640 Mb
Jaz (Iomega): Similar al dispositivo Zip y con capacidad de 1 GB a 2 GB.
Periféricos de comunicación [editar]Su función es permitir o facilitar la interacción entre dos o más computadoras, o entre una computadora y otro periférico externo a la computadora. Entre ellos se encuentran los siguientes:

Fax-Módem
Tarjeta de red
Concentrador
Conmutador
Enrutador
Tarjeta inalámbrica
Tarjeta Bluetooth
http://es.wikipedia.org/wiki/Perif%C3%A9rico_(inform%C3%A1tica)









No hay comentarios:

Publicar un comentario