Una visión típica de una arquitectura de computadora como
una serie de capas de abstracción: hardware, firmware, ensamblador, kernel , sistema operativo y aplicaciones.La
arquitectura de computadoras es el diseño conceptual y la estructura
operacional fundamental de un sistema de computadora. Es decir, es un modelo y
una descripción funcional de los requerimientos y las implementaciones de
diseño para varias partes de una computadora, con especial interés en la forma
en que la unidad central de proceso (UCP) trabaja internamente y accede a las
direcciones de memoria.
También suele definirse como la forma de seleccionar e
interconectar componentes de hardware para crear computadoras según los
requerimientos de funcionalidad, rendimiento y costo.
El ordenador recibe y envía la información a través de los
periféricos por medio de los canales. La UCP es la encargada de procesar la
información que le llega al ordenador. El intercambio de información se tiene
que hacer con los periféricos y la UCP. Todas aquellas unidades de un sistema
exceptuando la UCP se denomina periférico, por lo que el ordenador tiene dos
partes bien diferenciadas, que son: la UCP (encargada de ejecutar programas y
que está compuesta por la memoria principal, la UAL y la UC) y los periféricos
(que pueden ser de entrada, salida, entrada-salida y comunicaciones).
http://es.wikipedia.org/wiki/Arquitectura_de_computadoras
Casi todas las CPU tratan con estados discretos y por lo
tanto requieren una cierta clase de elementos de conmutación para diferenciar y
cambiar estos estados. Antes de la aceptación comercial del transistor, los
relés eléctricos y los tubos de vacío (válvulas termoiónicas) eran usados
comúnmente como elementos de conmutación. Aunque éstos tenían distintas
ventajas de velocidad sobre los anteriores diseños puramente mecánicos, no eran
fiables por varias razones. Por ejemplo, hacer circuitos de lógica secuencial
de corriente directa requería hardware adicional para hacer frente al problema
del rebote de contacto. Por otro lado, mientras que los tubos de vacío no
sufren del rebote de contacto, éstos deben calentarse antes de llegar a estar
completamente operacionales y eventualmente fallan y dejan de funcionar por
completo. Generalmente, cuando un tubo ha fallado, la CPU tendría que ser
diagnosticada para localizar el componente que falla para que pueda ser
reemplazado. Por lo tanto, los primeros computadores electrónicos, (basados en
tubos de vacío), generalmente eran más rápidos pero menos confiables que los
ordenadores electromecánicos, (basados en relés). Los ordenadores de tubo, como
el EDVAC, tendieron en tener un promedio de ocho horas entre fallos, mientras
que los ordenadores de relés, (anteriores y más lentas), como el Harvard Mark
I, fallaban muy raramente. Al final, los CPU basados en tubo llegaron a ser
dominantes porque las significativas ventajas de velocidad producidas
generalmente pesaban más que los problemas de confiabilidad. La mayor parte de
estas tempranas CPU síncronas corrían en frecuencias de reloj bajas comparadas
con los modernos diseños microelectrónicos. Eran muy comunes en este tiempo las
frecuencias de la señal del reloj con un rango desde 100 kHz hasta 4 MHz,
limitado en gran parte por la velocidad de los dispositivos de conmutación con
los que fueron construidos.
CPU de transistores y de circuitos integrados discretos
CPU, memoria de núcleo e interfaz de bus externo de un MSI PDP-8/I.La
complejidad del diseño de las CPU se incrementó a medida que varias tecnologías
facilitaron la construcción de dispositivos electrónicos más pequeños y
confiables. La primera de esas mejoras vino con el advenimiento del transistor.
Las CPU transistorizadas durante los años 50 y los años 60 no tuvieron que ser
construidos con elementos de conmutación abultados, no fiables y frágiles, como
los tubos de vacío y los relés eléctricos. Con esta mejora, fueron construidas
CPU más complejas y más confiables sobre una o varias tarjetas de circuito
impreso que contenían componentes discretos (individuales). Durante este
período, ganó popularidad un método de fabricar muchos transistores en un
espacio compacto. El circuito integrado (IC) permitió que una gran cantidad de
transistores fueran fabricados en una simple oblea basada en semiconductor o
"chip". Al principio, solamente circuitos digitales muy básicos, no
especializados, como las puertas NOR fueron miniaturizados en IC. Las CPU
basadas en estos IC de "bloques de construcción" generalmente son
referidos como dispositivos de pequeña escala de integración "small-scale
integration" (SSI). Los circuitos integrados SSI, como los usados en el
computador guía del Apollo (Apollo Guidance Computer), usualmente contenían
transistores que se contaban en números de múltiplos de diez. Construir un CPU
completo usando IC SSI requería miles de chips individuales, pero todavía
consumía mucho menos espacio y energía que diseños anteriores de transistores
discretos. A medida que la tecnología microelectrónica avanzó, en los IC fue
colocado un número creciente de transistores,disminuyendo así la cantidad de IC
individuales necesarios para una CPU completa. Los circuitos integrados MSI y
el LSI (de mediana y gran escala de integración) aumentaron el número de
transistores a cientos y luego a miles. En 1964, IBM introdujo su arquitectura
de ordenador System/360, que fue usada en una serie de ordenadores que podían
ejecutar los mismos programas con velocidades y desempeños diferentes. Esto fue
significativo en un tiempo en que la mayoría de los ordenadores electrónicos
eran incompatibles entre sí, incluso los hechas por el mismo fabricante. Para
facilitar esta mejora, IBM utilizó el concepto de microprograma, a menudo
llamado "microcódigo", ampliamente usado aún en las CPU modernas. La
arquitectura System/360 era tan popular que dominó el mercado del mainframe
durante las siguientes décadas y dejó una herencia que todavía aún perdura en
los ordenadores modernos, como el IBM zSeries. En el mismo año de 1964, Digital
Equipment Corporation (DEC) introdujo otro ordenador que sería muy influyente,
dirigido a los mercados científicos y de investigación, el PDP-8. DEC
introduciría más adelante la muy popular línea del PDP-11, que originalmente
fue construido con IC SSI pero eventualmente fue implementado con componentes
LSI cuando se convirtieron en prácticos. En fuerte contraste con sus
precursores hechos con tecnología SSI y MSI, la primera implementación LSI del
PDP-11 contenía una CPU integrada únicamente por cuatro circuitos integrados
LSI. Los ordenadores basados en transistores tenían varias ventajas frente a
sus predecesores. Aparte de facilitar una creciente fiabilidad y un menor
consumo de energía, los transistores también permitían al CPU operar a
velocidades mucho más altas debido al corto tiempo de conmutación de un
transistor en comparación a un tubo o relé. Gracias tanto a esta creciente
fiabilidad como al dramático incremento de velocidad de los elementos de
conmutación que por este tiempo eran casi exclusivamente transistores, se
fueron alcanzando frecuencias de reloj de la CPU de decenas de megahertz.
Además, mientras que las CPU de transistores discretos y circuitos integrados
se usaban comúnmente, comenzaron a aparecer los nuevos diseños de alto
rendimiento como procesadores vectoriales SIMD (Single Instruction Multiple
Data) (Simple Instrucción Múltiples Datos). Estos primeros diseños
experimentales dieron lugar más adelante a la era de los superordenadores
especializados, como los hechos por Cray Inc.
http://es.wikipedia.org/wiki/Unidad_central_de_procesamiento
clases de software
. Por su tipo de licencia tenemos el software comercial y el
software no comercial.
- El software comercial. Al adquirir un SOFTWARE de este
tipo no adquirimos propiamente el programa, solo compramos una licencia de uso,
esto quiere decir que podemos usar el programa pero no podemos modificarlo ni
redistribuirlo. Generalmente la licencia es válida para una sola PC o
computadora, sin embargo las empresas que se dedican al DISEÑO DE SOFTWARE
pueden ofrecer licencias para instalar el software en más de una PC. En caso
contrario deberemos adquirir una licencia de uso por cada computadora a la que
queremos instalarle el programa.
- El software no comercial. Existe un tipo de SOFTWARE
GRATUITO o que se distribuye de manera gratuita, llamado FREEWARE y que se basa
en el uso de licencias de uso público – GNU o GPL – de esta manera quien
obtiene un programa de este tipo puede usarlo, redistribuirlo en el estado en
que está, modificarlo o incluso redistribuirlo modificado.
- Además podemos encontrar versiones de SOFTWARE DEMO, TRIAL
SOFTWARE o SOFTWARE SHAREWARE lo que significa que es software similar a un
SOFTWARE ORIGINAL pero con algunas restricciones en su uso – como la
inexistencia o inhabilitación de algunas características – o con limitaciones
en su tiempo de uso. Es así como las empresas de software dan a conocer a
algunos de sus productos y nosotros podemos probarlos y evaluarlos para
finalmente comprarlos si nos satisface.
2. Por su tipo de uso:
- SISTEMA OPERATIVO (SO): Es el software que necesita toda
computadora para su funcionamiento. Se encarga de controlar el hardware y nos
sirve de plataforma para poder ejecutar otros programas
- SOFTWARE DE OFICINA: Conocido también como software de
OFIMATICA, son todos los programas como procesadores de texto, hojas de
cálculo, bases de datos, correo electrónico y demás.
- SOFTWARE DE SEGURIDAD: Software que elimina VIRUS, ADWARE,
SPYWARE y demás programas que infectan nuestra PC – sobre todo si navegamos
seguido en INTERNET – unos son freeware y otros son de licencia comercial
- SOFTWARE DE DISEÑO GRAFICO: El nombre lo dice todo,
verdad. Presentan características para trabajar con vectores, para trabajar con
mapas de bits, etc. Y como podrán recordar, requieren prestaciones mayores de
hardware. Muchos de estos programas están diseñados bajo la modalidad WYSIWYG
(What You See Is What You Get, en español: “lo que ves es lo que obtienes”)
- SOFTWARE DE DISEÑO WEB: Este tipo de software permite
crear sitios y aplicaciones web; también muchos de ellos presentan la
característica WYSIWYG.
- SOFTWARE DE DESARROLLO: Es software que permite crear
nuevo software.
- SOFTWARE DE AUDIO / VIDEO: Software diseñado para la
creación, la edición o, la ejecución de audio o video.
LICENCIA DE SERVIDOR:
Autoriza el software de servidor en un equipo que cumpla las
funciones de servidor de red, entraña el derecho de instalar el software de
cliente, incluido el producto de servidor en estaciones de trabajo conectadas
al servidor, así como derechos limitados de administración de red.
SOFTWARE COMERCIAL
Los programas de cómputo comerciales representan la mayoría
de los programas de cómputo adquiridos de los editores, tiendas comerciales de
computadores, etc. Cuando se compran programas de computo, realmente se esta
adquiriendo una licencia para usarlo. Se adquiere la licencia de una compañía
que es titular del derecho de autor. Las condiciones y restricciones del
convenio de licencia varían de programa en programa y deben ser leídas
cuidadosamente.
En general, las licencias de programas de cómputo
comerciales estipulan que:
1. Al programa de computo esta protegido por el derecho de
autor.
2. Aunque pueden hacerse copias del programa de computo para
archivo, la copia de respaldo no puede ser usada excepto cuando el paquete
original falla o es destruido.
3. No se permite hacer modificaciones al programa de
computo.
4. No se permite descompilar el código fuente del programa
de computo sin permiso del titular del derecho de autor.
5. No se permite desarrollar nuevos trabajos construidos con
base en el paquete sin el permiso del titular del derecho de autor.
SOFTWARE DE DOMINIO PÚBLICO
Los programas de computo del dominio publico caen dentro de
el, cuando el titular del derecho de autor explícitamente renuncia a todos los
derechos sobre el programa de computo.
CLASIFICACION DE LOS CONTRATOS
En un intento por clasificar los contratos informáticos, se
ha llegado a determinar que existen formas contractuales como seria el caso de
la licencia de uso de software; formas contractuales mixtas como los contratos
de desarrollo del software y llave en mano, y las formas contractuales
tradicionales que vienen siendo innovadas notablemente por las especiales
características de los objetos del contrato. Son los casos de la compraventa,
el comodato, los contratos de manufactura original y demás atinentes al bien
informático. La tipología de contratos informáticos se desarrolla de acuerdo
con la diversidad de relaciones contractuales existentes en el sistema
elaborativo. La regla general es considerar una triple categoría fundamental:
1. los contratos sobre hardware
2. los contratos sobre software
3. los contratos de mantenimiento y servicio.
CONTRATOS DE HARDWARE
A diferencia de los contratos de software, el contrato de
hardware no tiene la variedad de posibilidades que se presentan en el primero.
Quienes quieren adquirir un equipo físico se pueden dirigir directamente al
mercado, con la seguridad de encontrar múltiples alternativas técnicas y
posibilidades económicas variadas. Estos generalmente, son ofrecidos por las
casas constructoras, distribuidoras y vendedoras.
CONTRATOS DE SOFTWARE
Existen dos tipos de software, el aplicativo y el de base.
Este último generalmente se adquiere en el momento mismo de la adquisición del
equipo físico; el aplicativo por lo contrario es aquel hecho a la medida del
cliente, de acuerdo a sus necesidades. Para el cliente existen diferentes
posibilidades: elaborar su propio software si esta en grado de hacerlo, si no
es así, puede optar por mirar lo que ofrecen los productos de software o puede
comisionar a una persona externamenteSegún se encuentre en una de estas
hipótesis se llevara a cabo una compraventa o licencia de uso, un contrato de
asesoría o desarrollo del software y según la forma elegida de contratación se
determinara el precio y la forma de pago.
EL CLUF
Casi la totalidad del software informático comercial dispone
de una licencia directa o indirecta cedida al usuario por el propietario del
derecho de (autorcopyright); es decir, el fabricante del software estipula en
un modelo de contrato denominado “contrato de licencia de usuario final” (cluf)
según el tipo de producto, pueden existir distintos tipos de CLUF.
La utilización por parte del usuario de software se rige por
los términos y condiciones del CLUF, así como por la ley de derecho de autor.
CLUF es el contrato relativo a la utilización, por su parte,
del producto bajo licencia, y le concede al usuario un derecho específico para
utilizar el software en el equipo.
LICENCIAS QUE INCLUYE EL SOFTWARE
Existen dos licencias que describen los derechos de
utilización de los productos de servidor de red: la licencia de servidor y la
licencia de acceso al cliente.
LICENCIA DE ACCESO AL CLIENTE:
Para acceder o utilizar efectivamente los servicios del
software de servidor desde una estación cliente, deberá adquirirse por separado
una licencia de acceso al cliente. Es decir, la licencia de servidor, permite
instalar la red, mientras que la licencia de acceso al cliente le permite
utilizarla. Es importante diferenciar entre la licencia de acceso al cliente,
necesaria para acceder a los productos de servidor de programas, y los
contratos de licencia deusuario final (CLUF) para productos del sistema
operativo del escritorio de estos.
CONTRATOS DE SERVICIOS
Este equipo de contrato se ejecuta generalmente a partir de
la venta de equipos. Se ofrecen servicios de mantenimiento técnico, revisión
periódica y preventiva de los equipos, suministro de piezas relativas al
funcionamiento de los aparatos y tratándose de contratos referentes a los
programas generalmente se ofrecen servicios de capacitación, manejo y
adaptación.
son averiguaciones realizadas in internet
http://junio06.galeon.com/
Componentes Hardware
Un sistema computacional consiste en un conjunto de
componentes electrónicos y electromecánicos interconectados que almacenan y
transforman símbolos en base a las instrucciones especificadas en los
componentes software del mismo sistema.
Conceptualmente, es posible distinguir 5 tipos de
componentes hardware:
Procesadores
Memoria principal
Dispositivos de entrada
Dispositivos de almacenamiento secundario
Dispositivo de salida
Una computadora debe ser capaz de recibir, a través de sus
dispositivos de entrada, ciertos datos e instrucciones para manipular éstos.
Una vez que los datos e instrucciones son ingresados, el computador debe ser
capaz de almacenarlos internamente en su memoria primaria y luego, procesar los
datos en base a las instrucciones suministradas utilizando su(s)
procesador(es).
Dado que la memoria principal posee una capacidad limitada y
es típicamente volátil (su contenido se pierde cuando el componente no recibe
energía), es necesario disponer de alternativas para el almacenamiento de datos
e instrucciones; ese es el rol de los dispositivos de almacenamiento
secundario.
Finalmente, el producto resultante del procesamiento de los
datos es entregado al usuario u otros sistemas a través de los dispositivos de
salida.
¿Por qué es importante conocer sobre los componentes
hardware de un sistema computacional?
Pese a que la mayor parte de los sistemas computacionales
poseen una estructura similar, las características de sus componentes hardware
varían y estas variaciones pueden crear problemas a los usuarios:
Un primer problema es la capacidad de la memoria y los
dispositivos de almacenamiento secundario: La capacidad de la memoria determina
la extensión de almacenamiento y por lo tanto, la complejidad de los programas
y la cantidad de datos que puede almacenar.
Un segundo problema es la velocidad del procesador. Pese a
que la velocidad de los procesadores se ha incrementado en dos órdenes de
magnitud en los últimos 20 años, su velocidad puede no ser la adecuada para
cierta necesidad de procesamiento de datos. Si el usuario requiere realizar
muchos cálculos, como es el caso del procesamiento científico y gráfico,
diferencias en términos de la velocidad del procesador pueden dar origen a
diferencias de horas, días, meses y aún años en la producción de los
resultados.
Si tiene acceso a más de un sistema computacional,
investigue la velocidad del procesador de cada uno de ellos.
Dispongo de acceso directo a una computadora personal, a mi
computadora personal y a la que utilizo en el trabajo. La primera es un 486DX4
100 MHz, la segunda es un Pentium MMX 233 MHz y la última es un Pentium MMX 166
MHz
Ejecute en dichos sistemas computacionales programas que
realicen la misma tarea (ej: digitalizacion de vídeo, edición de imágenes 2-D o
3-D, clasificación y/o ordenamiento de un conjunto de datos de gran tamaño,
reemplazo de una palabra en un archivo de texto de gran tamaño). ¿Es apreciable
la diferencia de velocidad?
Definitivamente. Se aprecia enormemente la diferencia entre
los pentium con respecto al 486 y en menor medida entre el 166 y el 233.
¿Cuál es la percepción existente en la organización a la que
Ud. pertenece en relación al impacto de cambios en la velocidad de los
procesadores en las tareas de procesamiento de datos?
El proceso de globalización exige una más rápida respuesta
del personal que labora en una empresa para poder lograr un nivel competitivo
con los mejores. Por tal razón, la disponibilidad de herramientas adecuadas
para la labor que se debe ejecutar es importante e imperativa; por otro lado,
una computadora rápida permite culminar trabajos en menor tiempo y liberar
congestión dentro de las redes de datos corporativos.
Otro problema es la compatibilidad. La forma en que los
datos son almacenados, no es la misma en todos los sistemas. Del mismo modo,
distintos procesadores reconocen distintos tipos de instrucciones. En
consecuencia, un programa ejecutable en un computador puede no ser ejecutable
en otro que posea un procesador diferente.
¿Son todos los sistemas computacionales de su organización
idénticos?
A pesar de corresponderse a computadoras de tecnología
semejante, no necesariamente son productos elaborados por un mismo fabricante.
En general, las computadoras de escritorio son de tecnología semejante, Pentium
MMX 166 con 32 MRAM y disco de 2 GB como estándar corporativo; pero también
existen computadoras de otro tipo de tecnología como las Machintoch para el
procesamiento de imágenes mediante herramientas como los scanner y que se
ubican en los centros de usuarios o los AS400 como computadores VM corporativos
para el análisis y almacenamiento de datos corporativos de interes para grupos
de trabajo especializados.
De no ser así, ¿qué problemas han causado las diferencias
entre ellos?
El mayor problema es la integración de las plataformas para
poder operar con paquetes de oficina estándar dentro de la corporación.
El procesador.
El procesador es el encargado de realizar los cálculos
aritméticos, tomar decisiones lógicas y coordinar gran parte de las acciones
realizadas por los restantes componentes del sistema computacional. La primeras
dos tareas son realizadas por la unidad aritmético-lógica u operador de datos,
mientras que la última es realizada por la unidad de control.
La unidad aritmético-lógica (ALU) contiene circuitos
aritméticos y lógicos capaces de sumar, restar, multiplicar, dividir y comparar
números. Junto con ello, la ALU contiene un conjunto de componentes denominados
registros, que permiten el almacenamiento de datos al interior del procesador
en forma temporal.
Para realizar una computación, los números son transferidos
desde la memoria principal hacia los registros en la CPU y de allí enviados a
los circuitos aritméticos y lógicos, siendo los resultados de la operación
realizada enviados también a algún registro para de allí ser transferidos, de
ser necesario, a la memoria principal
La unidad de control es la encargada de generar señales
hacia los distintos componentes de modo tal de posibilitar la ejecución de las
instrucciones. Para ello, la instrucción a ser ejecutada es almacenada en un
registro de instrucciones y decodificada por un decodificador de instrucciones
el cual posibilita la activación selectiva de aquellas señales de control
asociadas a la ejecución de una instrucción específica.
La memoria principal
La memoria principal es aquel componente del
sistema computacional que almacena los programas y datos que están siendo
procesados. Ella, en tiempo de ejecución, debe contener el sistema operativo,
las instrucciones para manipular los datos y los datos mismos.
Las computadoras utilizan dos tipos de memoria de acceso
aleatorio:
Memoria de solo lectura (ROM - Read Only Memory)
Memoria de lectura y escritura (RAM - Random Access Memory)
En la memoria de tipo
ROM residen los programas de arranque de la máquina que le indican al
microprocesador que hacer y como evaluar el hardware existente (del que
dispone); la ROM contiene el programa en forma permanente que establece las
características de la máquina y la interconectividad entre los dispositivos
desde el punto de vista del hardware y sus líneas de control; son los programas
que se cargen en la computadora, los que determinaran que tipo de uso se le va
ha dar al dispositivo desde el punto de vista de trabajo que debe de realizar
según su capacidad.
En la RAM residen en forma temporal los programas cargados
por el usuario para el desarrollo de trabajos útiles según sus necesidades (las
del usuario).
La próxima vez que Ud. encienda un computador tome nota de
las acciones que pueda percibir y que afecten algún componente hardware.
¿Podría Ud. establecer qué programas residen en la ROM de su
computador?
A pesar de que al momento de arrancar la computadora, los
programas residentes en la ROM se ejecutan en forma oculta; solo una de las
rutinas es posible visualizar y esta es la rutina de evaluación de la
existencia de memoria. Sin embargo, cuando se instala algún dispositivo
conflictivo o se desinstala por ejemplo la memoria RAM o el teclado, el
programa de la ROM al evaluar el hardware existente detecta la falta de estos y
emite un anuncio sonoro o en forma de texto que advierte al usuario sobre la
situación anormal encontrada. También es posible ver como la ROM residente en
tarjetas y periféricos, emite un mensaje escrito y gráfico en algunos casos
indicando al usuario de la existencia y reconocimiento de este hardware
(ejemplo las funciones de ahorro de energía o la existencia de tarjetas de
vídeo especial)
Las memorias ROM almacenan ciertos programas e información
necesaria para el funcionamiento del sistema computacional en forma
permanentemente, de ahí el calificativo "solo de lectura". Este tipo
de memoria es no volátil, ya que su contenido no desaparece o se borra cuando
se desconecta el suministro eléctrico al componente.
Las instrucciones básicas que se necesitan para que un
computador inicie su operación están almacenadas en memorias ROM, así como
también algunos programas utilitarios y, en algunos casos, software.
Las memorias RAM también puede almacenar ciertos programas
vitales para el funcionamiento de la computadora. Sin embargo en las RAM el
usuario puede almacenar la información, modificarla o borrarla. La capacidad de
la RAM afecta la forma en que se ejecutan los programas y la cantidad de datos
que pueden procesarse. Cuanto más fácil de usar sea un programa, tanta más RAM
se necesitará generalmente.
LA RAM es una memoria volátil, su contenido se pierde cuando
la computadora se desconecta (excepto en algunas que están provistas de
baterías específicamente orientadas a mantener el contenido de la RAM).
¿Alguna vez ha estado utilizando un sistema computacional en
el momento en que se ha suspendido el suministro de energía eléctrica?
Si.
¿Qué ha ocurrido con los datos en esos casos?
Los trabajos así como los datos que se estaban obteniendo en
el momento, se pierden si no se dispone de una unidad de energía de respaldo
como los UPS. Solo se pierden los datos que se encuentran en la RAM y que no se
han almacenado en un medio de registro permanente como el disco duro.
La memoria principal de un computador está formada por
componentes electrónicos biestables, es decir, que pueden adoptar uno de dos
estados posibles (on/off, 0/1). Cada uno de estos componentes es capaz de
almacenar un dígito binario o bit.
Los bits en la memoria deben ser organizados de modo tal de
poder almacenar y/o recuperar datos: caracteres y números. Para ello, los bits
son organizados en grupos, constituyendo cada uno de esos grupos una posición
de almacenamiento. Un grupo de 8 bits constituye un byte y en él es posible
almacenar la representación binaria de un caracter. Típicamente, un grupo de 16
bits se denomina palabra, sin embargo, el término se ha generalizado de modo
tal que se utiliza para indicar un grupo de 8*k bits, con k>1. Se habla
entonces, por ejemplo, de palabras de 32 o 64 bits.
La capacidad de almacenamiento de un computador es medida en
términos del número de bytes en memoria principal. Generalmente, la capacidad
es establecida en kilobytes (KB) o megabytes (MB).
1 KB = 1024
bytes = 210 Bytes
1 MB = 1048576
bytes = 220 bytes
Tome el primer libro que se encuentre a su alcance y estime
el número de caracteres promedio por página.
¿Cuál es la capacidad de almacenamiento del computador que
Ud. está utilizando?
En memoria RAM es capaz de almacenar hasta 32 MB = 33554432
bytes = 225 bytes
¿El equivalente a cuántas páginas del libro seria posible
almacenar en la memoria principal de su computador?
Del libro en cuestión, podría almacenar el equivalente de
11184 páginas, a razón de 60 caracteres por línea y 50 líneas por página, lo
que equivale a 3000 caracteres por página (3000 bytes por página).
Cada posición de almacenamiento es identificada unívocamente
mediante una dirección.
La dirección de una cierta posición de almacenamiento es
análoga al número que permite identificar una casilla de correos. El contenido
de la posición de almacenamiento asociada a una cierta dirección es análogo al
contenido de una casilla de correos particular asociada a un cierto número de
casilla.
http://es.wikipedia.org/wiki/Hardware
Historia de la Computación
Desde el principio
del tiempo los hombres siempre han inventado cosas para que la vida fuera más
cómoda.
Hace 50.000 años, el hombre primitivo aprendió a hacer fuego
para obtener calor. Hace 5.000 años, alguien inventó la rueda para poder mover
objetos con más facilidad. Hace unos 4.000 años, los chinos inventaron un
objeto para solucionar mejor los problemas de matemáticas: el ábaco.
El ábaco no podía realizar la mayor parte de las tareas que
realiza un computador, pero sí hacía algo importante que hacen los
computadores: con él se resolvían los problemas de matemáticas más fácilmente.
Ya en el siglo XVII, en 1641, un francés llamado Blaise
Pascal hizo un aporte importante para la historia del computador, inventó una
máquina de sumar, a la que dio el nombre de Pascalina. Podía sumar y restar
largas columnas de números sin cometer ningún error.(cfr. Marquès, P. et al.
"Cómo introducir y utilizar el ordenador en la clase". p. 16.)
Unos años más tarde, un alemán llamado Gottfried Leibnitz
mejoró la máquina de Pascal: inventó una calculadora. Aparte de sumar y restar,
también podía multiplicar, dividir, y hallar la raíz cuadrada de un número. Se
accionaba manualmente. (cfr. Tison, C. et al. "Guía para niños sobre
ordenadores". p. 3.)
Casi doscientos años más tarde apareció otro invento
importante. Era un telar automático, inventado en 1801 por Joseph-Marie
Jacquard. El telar utilizaba información codificada para fabricar la tela.
Esta nueva máquina entrelazaba los hilos mientras se
pedaleaba. Jacquard hizo unos agujeros en una tarjetas y las juntó para hacer
una secuencia. El telar tomaba información de los cartones y la usaba para
fabricar los tejidos. (cfr. Idem. pp. 3 - 4)
En 1833, Charles Babbage y Lady Augusta Ada Byron, la Condesa
de Lovelace, empezaron a trabajar juntos en un invento al que llamaron
calculadora analítica. Querían que funcionase por sí sola, sin que nadie la
accionara. Buscaron la manera de dar información a la máquina, que hiciera algo
con ésta y que devolviera otra información.
En 1839, Babbage se dedicó por entero a trabajar en pequeñas
computadoras. Lovelace ya había completado sus teorías sobre cómo dar
instrucciones al computador. Ninguno de los dos llegó a construir esta máquina.
Hacían falta miles de pequeñas piezas construidas a la perfección, y en el
siglo XIX no había herramientas que fabricasen piezas tan pequeñas y perfectas.
La calculadora no se finalizó nunca.
B. El Primer Computador
Cada diez años, el gobierno de Estados Unidos hace un censo. En 1880, el
gobierno empezó uno, pero había tanta gente en Estados Unidos, que tardaron 8
años en contarlos a todos y en poner información sobre dónde vivían y a qué se
dedicaban. Ocho años era demasiado tiempo, así que el gobierno celebró un
concurso para encontrar una manera mejor de contar gente. Herman Hollerith
inventó una máquina denominada máquina tabuladora. Esta máquina ganó el
concurso, y el gobierno la usó en el censo de 1890.
La máquina de Herman usaba tarjetas perforadas, y cada
agujero significaba algo. Un agujero significaba que la persona estaba casada,
otro, que no lo estaba. Un agujero significaba que era de sexo masculino, otro,
de sexo femenino. La electricidad pasaba a través de los agujeros y encendía
los motores, que a su vez activaban los contadores.
En 1890, sólo hicieron falta seis semanas para realizar el
primer recuento sencillo. El recuento completo se realizó en sólo dos años y
medio.La nueva máquina tabuladora de Herman se hizo famosa. Se vendieron copias
a otros países para que realizasen sus censos. Pero Herman no se paró en este
invento. Comenzó una empresa llamada International Business Machines. Hoy en
día es una de las empresas informáticas más grande del mundo: IBM. (cfr. Idem.
pp. 9 - 10.)
A principios del siglo XX, muchas personas de todo el mundo
inventaron computadores que funcionaban de maneras similares a la máquina
tabuladora. Hacían experimentos para que funcionaran más rápido, y realizaran
más tareas aparte de contar.
C. La Primera Generación de Computadores
Alan Turing, en 1937, desarrolló el primer auténtico
proyecto de un computador. En 1944, en la Universidad de Harvard, crearon el
primer calculador electromecánico, el Mark1. Era lento y poco fiable.
En 1945, John von Neumann concibió la idea de un computador
que se manejaba mediante instrucciones almacenadas en una memoria. Este
concepto moderno de computador se plasmó, en 1946, en un prototipo llamado
ENIAC, en los Estados Unidos, a partir de una iniciativa de las fuerzas armadas
de ese país. Medía 30 metros de longitud, una altura de 3 y una profundidad de
1. Utilizaba 18.000 válvulas, conectados a 70.000 resistencias, 10.000
condensadores y 6.000 interruptores. (cfr. Pentiraro, E. Op. cit., p. 2.)
En 1951, la compañía Sperry Univac, comenzó la producción en
serie del primer computador electrónico, el UNIVAC I. Sperry introdujo dentro
del UNIVAC la información sobre las elecciones presidenciales estadounidenses
de 1952. Antes de que se anunciasen los resultados, UNIVAC ya había predicho
que Dwight D. Eisenhower ganaría las elecciones.
A partir de ese momento todos los computadores funcionarán
según los principios de Von Neumann.
D. La Segunda Generación de Computadores
En 1948, un grupo de personas que trabajaban en el
laboratorio Bell dieron el primer paso hacia un computador pequeño y fácil de
usar, al crear el transistor. Un transistor controla la cantidad de energía
eléctrica que entra y sale por un cable.
Sólo en 1958 se comenzaron a producir en serie los primeros
computadores que utilizaban este pequeño bloque de silicio. Este mineral es un
material semiconductor que contiene impurezas que alteran su conductividad
eléctrica. Así, el computador se vuelve más económico, más rápido y más
compacto.
E. La Tercera Generación de Computadores
Entre finales de los años sesenta y principios de los
setenta se prepara otro importante cambio: el circuito integrado. Sobre una
pieza de silicio monocristalino de reducido tamaño se encajan piezas
semiconductoras. (cfr. Ídem, p. 6.) Se reducen los tamaños, aumentando la velocidad
de proceso ya que se requiere una menor cantidad de tiempo para abrir y cerrar
los circuitos.
F. La Cuarta Generación de Computadores
El circuito integrado se utilizó en los computadores hasta
mediados de los setenta. En 1971, una empresa norteamericana llamada Intel
desarrolló un proyecto de circuito integrado distinto, cuya característica
fundamental era la posibilidad de programarlo como un auténtico computador. De
esta forma nace el microprocesador.
A partir de 1975 se produce una verdadera revolución con
este dispositivo de un par de centímetros de longitud. Las diferentes empresas
construyen computadores basándose en el chip de Intel. Cada vez más
instituciones adquieren computadores para optimizar sus procesos.
El chip de silicio es más pequeño que una moneda, pero
contiene toda la información que el computador necesita para funcionar. Esto
hace que los computadores sean mucho más rápidos y que gasten menos energía.
"Hoy en día, no hace falta ser un científico de
computadores para manejar un computador. Algunos computadores son tan pequeños
que caben en un bolsillo, y se pueden conectar a un enchufe o ponerles pilas.
Los computadores pueden manejar la información de formas que nadie se podía
imaginar en los tiempos de Hollerith, razón por la que actualmente son tan
populares". (Tison, C. Op. cit., p 12.)
Pero la historia de los computadores aún no ha terminado.
Constantemente se están introduciendo nuevos avances técnicos. Lo que conocemos
hoy como computadores, es posible que en el futuro no sea tal y estemos en
presencia de tecnologías inimaginables en este momento. Lo mismo que le sucedió
a Babbage en el siglo pasado
http://www.sscc.co.cl/informatica/historia.html
perifericos
En informática, se denomina periféricos a los aparatos y/o
dispositivos auxiliares e independientes conectados a la unidad central de
procesamiento de una computadora.
Se consideran periféricos tanto a las unidades o
dispositivos a través de los cuales la computadora se comunica con el mundo
exterior, como a los sistemas que almacenan o archivan la información,
sirviendo de memoria auxiliar de la memoria principal.[cita requerida]
Se entenderá por periférico al conjunto de dispositivos que,
sin pertenecer al núcleo fundamental de la computadora, formado por la CPU y la
memoria central, permitan realizar operaciones de entrada/salida (E/S)
complementarias al proceso de datos que realiza la CPU. Estas tres unidades
básicas en un computador, CPU, memoria central y el subsistema de E/S, están
comunicadas entre sí por tres buses o canales de comunicación:
direcciones, para seleccionar la dirección del dato o del
periférico al que se quiere acceder,
control, básicamente para seleccionar la operación a
realizar sobre el dato (principalmente lectura, escritura o modificación) y
datos, por donde circulan los datos.
A pesar de que el término periférico implica a menudo el
concepto de “adicional pero no esencial”, muchos de ellos son elementos
fundamentales para un sistema informático. El teclado y el monitor,
imprescindibles en cualquier computadora personal de hoy en día (no lo fueron
en los primeros computadores), son posiblemente los periféricos más comunes, y
es posible que mucha gente no los considere como tal debido a que generalmente
se toman como parte necesaria de una computadora. El ratón o mouse es
posiblemente el ejemplo más claro de este aspecto. Hace menos de 20 años no
todos las computadora personales incluían este dispositivo. El sistema operativo
MS-DOS, el más común en esa época, tenía una interfaz de línea de comandos para
la que no era necesaria el empleo de un ratón, todo se hacía mediante comandos
de texto. Fue con la popularización de Finder, sistema operativo de la
Macintosh de Apple y la posterior aparición de Windows cuando el ratón comenzó
a ser un elemento imprescindible en cualquier hogar dotado de una computadora
personal. Actualmente existen sistemas operativos con interfaz de texto que
pueden prescindir del ratón como, por ejemplo, algunos sistemas básicos de UNIX
y GNU/Linux.
Índice [ocultar]
1 Tipos de periféricos
1.1 Periféricos de entrada
1.2 Periféricos de salida
1.3 Periféricos de almacenamiento
1.4 Periféricos de comunicación
2 Enlaces externos
Tipos de periféricos [editar]Los periféricos pueden
clasificarse en 3 categorías principales:
Periféricos de entrada: captan y digitalizan los datos de
ser necesario, introducidos por el usuario o por otro dispositivo y los envían
al ordenador para ser procesados.
Periféricos de salida: son dispositivos que muestran o
proyectan información hacia el exterior del ordenador. La mayoría son para
informar, alertar, comunicar, proyectar o dar al usuario cierta información, de
la misma forma se encargan de convertir los impulsos eléctricos en información
legible para el usuario. Sin embargo, no todos de este tipo de periféricos es
información para el usuario.
Periféricos de entrada/salida (E/S): sirven básicamente para
la comunicación de la computadora con el medio externo.
Los periféricos de entrada/salida son los que utiliza el
ordenador tanto para mandar como para recibir información. Su función es la de
almacenar o guardar, de forma permanente o virtual, todo aquello que hagamos
con el ordenador para que pueda ser utilizado por los usuarios u otros
sistemas.
Son ejemplos de periférico de entrada/salida o de
almacenamiento:
Disco duro
Impresora
Memoria flash
Cintas magnéticas
Memoria portátil
Disquete
Pantalla táctil
Casco virtual
Grabadora y/o lector de CD
Grabadora y/o lector de DVD
Grabadora y/o lector de Blu-ray
Grabadora y/o lector de HD-DVD
Periféricos de almacenamiento: son los dispositivos que
almacenan datos e información por bastante tiempo. La memoria de acceso
aleatorio no puede ser considerada un periférico de almacenamiento, ya que su
memoria es volátil y temporal.
Periféricos de comunicación: son los periféricos que se
encargan de comunicarse con otras máquinas o computadoras, ya sea para trabajar
en conjunto, o para enviar y recibir información.
Periféricos de entrada [editar]Artículo principal:
Periférico de entrada.
Ratón.Son los que permiten introducir datos externos a la
computadora para su posterior tratamiento por parte de la CPU. Estos datos
pueden provenir de distintas fuentes, siendo la principal un ser humano. Los
periféricos de entrada más habituales son:
Teclado
Micrófono
Escáner
Ratón o mouse
Palanca de mando (Joystick)
Gamepad
Escáner de código de barras
Cámara web
Lápiz óptico
Cámara digital
Periféricos de salida [editar]Son los que reciben la
información procesada por la CPU y la reproducen, de modo que sea perceptible
por el usuario. Algunos ejemplos son:
Visualizador
Monitor
Impresora
Fax
Tarjeta de sonido
Altavoz
Proyector digital
Auriculares
Periféricos de almacenamiento [editar]
Interior de un disco duro.Se encargan de guardar los datos
de los que hace uso la CPU, para que ésta pueda hacer uso de ellos una vez que
han sido eliminados de la memoria principal, ya que ésta se borra cada vez que
se apaga la computadora. Pueden ser internos, como un disco duro, o extraíbles,
como un CD. Los más comunes son:
Disco duro
Disquete
Unidad de CD
Unidad de DVD
Unidad de Blu-ray Disc
Memoria flash
Memoria USB
Cinta magnética
Tarjeta perforada
Memoria portátil
Otros dispositivos de almacenamiento:
Zip (Iomega): Caben 100 Mb y utiliza tecnología magnética.
EZFlyer (SyQuest): Caben 230 Mb y tiene una velocidad de
lectura muy alta
SuperDisk LS-120: Caben 200 Mb y utilizan tecnología
magneto-óptica.
Magneto-ópticos de 3,5: Caben de 128 Mb a 640 Mb
Jaz (Iomega): Similar al dispositivo Zip y con capacidad de
1 GB a 2 GB.
Periféricos de comunicación [editar]Su función es permitir o
facilitar la interacción entre dos o más computadoras, o entre una computadora
y otro periférico externo a la computadora. Entre ellos se encuentran los
siguientes:
Fax-Módem
Tarjeta de red
Concentrador
Conmutador
Enrutador
Tarjeta inalámbrica
Tarjeta Bluetooth
http://es.wikipedia.org/wiki/Perif%C3%A9rico_(inform%C3%A1tica)
No hay comentarios:
Publicar un comentario