viernes, 12 de septiembre de 2008

MINICOMPUTADORA, pascalina, PDP-8, DEC PDP1,Telar de Jacquard, UNIVAC 1946, VLSI, Workstation








ENIAC 1947, IBM 360, Leibniz (1646-1716), LSI,macrocomputadora, Maquina analitica de babbage, Maquina de Hollevith (1880), Memoria Flash, microcomputa









Cinta magnetica, Disco duro, Disquet



abaco,CD,CD-R,



Investigar la clasificación de las empresas por su naturaleza jurídica.

INDUSTRIALES

Son aquellas en las cuales la actividad esencial es la producción de productos o bienes, mediante la extracción de materias primas.

SOCIALES

Se constituye la empresa con el propósito de explotar y ganar más dinero, grupo organizado como empresa para beneficio de los integrantes E.A.T, aparentemente son empresas que lo más importante para ellas es el factor social de ayuda y apoyo a la comunidad, en este grupo pertenecen todas las cooperativas sin importar a que actividad se dedican lo más importante es el bienestar de los asociados y su familia.

COMANDITARIA

Es aquella en que existen por una parte los socios capitalistas llamados también comanditarios y por otra parte están los socios gestores que son los que se obligan a administrar el aporte hecho por los socios capitalistas a la caja social. Y sus socios capitalistas desean tener injerencia en su administración.

LIMITADA

Es aquella en todos los socios administran por derecho propio por todos los socios, aunque generalmente se opta por delegar la administración a uno de los socios o a terceros. Los socios son responsables solo hasta el monto de sus aportes o la suma mayor que se indique en los estatutos sociales, esto es que en caso que esta presente problemas económicos los socios no corren el riesgo de perder todos sus bienes, sino que responderán solo con el monto que hayan aportado al capital de la empresa.

SOCIEDAD ANONIMA

Es aquella que esta constituida de un capital social en un fondo común dividido en acciones y la administración esta a cargo de un directorio compuesto por miembros elegidos y renovados en las juntas generales ordinarias de accionistas.
La ley introduce dos formas especiales de sociedades anónimas:

SOCIEDAD ANONIMA ABIERTA

Es aquella que hace oferta pública de sus acciones según la Ley de Mercado de Valores, que tienen 500 o más accionistas o al menos el 10% de su capital suscrito a un mínimo de 100 personas. Estas son fiscalizadas por la Superintendencia de Valores y Seguros y distribuyen dividendos en efectivo equivalentes al menos al 30% de sus utilidades netas en cada periodo, a menos que se acuerde lo contrario en la junta ordinaria de accionistas.

SOCIEDAD ANONIMA CERRADA

Son aquellas que no cumplen con ninguno de los requisitos anteriores. Las sociedades anónimas cerradas tienen la libertad para definir en sus estatutos la forma que estimen conveniente la distribución de sus utilidades.

Investigar que lenguajes o códigos se manejaban en la primera generación de computadoras.

Se programaban en lenguaje de máquina de códigos binarios, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Los ordenadores trabajan internamente con dos niveles de voltaje, por lo que su sistema de numeración natural es el sistema binario (encendido 1, apagado 0).

Investigar el procedimiento de tarjetas perforadas.

El telar de Jacquard opera de la manera siguiente: las tarjetas se perforan estratégicamente y se acomodan en cierta secuencia para indicar un diseño de tejido particular.

Charles Babbage quiso aplicar el concepto de las tarjetas perforadas del telar de Jackard en su motor analítico.

En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas pudieran adaptarse de manera que proporcionaran que el motor de Babbage repitiera ciertas operaciones.

Debido a esta sugerencia algunas personas consideran a Lady Lovelace la primera programadora.

Investigar como funcionan FORTRAN Y COBOL

FORTRAN

Originalmente desarrollado por IBM en la década de 1950 para científicos y aplicaciones de ingeniería, Fortran llegaron a dominar este campo de la programación a comienzos y ha estado en uso continuo durante más de medio siglo computacionalmente intensivas en ámbitos tales como la predicción numérica del tiempo, análisis de elementos finitos, cálculo de fluidos dinámica (CFD), Física Computacional, y química computacional. Es uno de los idiomas más populares en el área de computación de alto rendimiento y programas a rango de referencia y el más rápido del mundo superordenadores están escritos en Fortran.
El primer manual para FORTRAN apareció en octubre de 1956, con la primera FORTRAN compilador emitido en abril de 1957. Se trataba de una optimización de compilador, porque los clientes se muestran reacios a utilizar un alto nivel de lenguaje de programación a menos que su compilador podría generar código cuyo rendimiento es comparable a la de la mano con código de lenguaje ensamblador.
La versión inicial de FORTRAN para el IBM 704 que figuran 32 estados, incluyendo:
• DIMENSIÓN DE EQUIVALENCIA y declaraciones
• Asignación de estados
• SI declaraciones para el control de excepciones (acumulador OVERFLOW, COCIENTE OVERFLOW, y dividir CHECK), y si las declaraciones para manipular el sentido y el sentido cambia las luces
• GOTO, calculada GOTO, ceder, y se les asignará GOTO
• Bucles
• Compaginado I / O: FORMATO, LEA, LEA INPUT TAPE, ESCRIBIR, ESCRIBIR CINTA DE SALIDA, imprimir y PUNCH
• Sin formatear I / O: LEA LAS CINTAS, DRUM LEER, ESCRIBIR cinta, y WRITE DRUM
• Otros I / O: FIN DE ARCHIVOS, rebobinar, y BACKSPACE
• PAUSE, STOP, y continuar
• FRECUENCIA declaración (para proporcionar la optimización de pistas para que el compilador)



COBOL

El lenguaje COBOL (acrónimo de Common Business -Oriented Language, Lenguaje Común Orientado a Negocios) fue creado en el año 1960 con el objetivo de crear un lenguaje de programación universal que pudiera ser usado en cualquier ordenador.
COBOL fue dotado de unas excelentes capacidades de auto documentación, una buena gestión de archivos y una excelente gestión de los tipos de datos para la época, a través de la conocida sentencia PICTURE para la definición de campos estructurados.

Buscar información de LSI y VLSI.

LSI

LSI (grande escala de integración),
A finales de los años 60's y principios de los años 70's surgieron los LSI (gran escala de integración). La tecnología LSI fue haciendo posible más y más circuitos digitales en un circuito integrado. Pero pocos circuitos LSI fueron producidos, los dispositivos de memoria fueron un buen ejemplo.


VLSI


Very Large Scale Integration, integración en escala muy grande.
La integración en escala muy grande de sistemas de circuitos basados en transistores en circuitos integrados comenzó en los años 1980, como parte de las tecnologías de semiconductores y comunicación que se estaban desarrollando.

Los primeros chips semiconductores contenían sólo un transistor cada uno. A medida que la tecnología de fabricación fue avanzando, se agregaron más y más transistores, y en consecuencia más y más funciones fueron integradas en un mismo chip. El microprocesador es un dispositivo VLSI.

La primera generación de computadoras dependía de válvulas de vacío. Luego vinieron los semiconductores discretos, seguidos de circuitos integrados. Los primeros CIs contenían un pequeño número de dispositivos, como diodos, transistores, resistencias y capacitores (aunque no inductores), haciendo posible la fabricación de compuertas lógicas en un solo chip. La cuarta generación (LSI) consistía de sistemas con al menos mil compuertas lógicas. El sucesor natural del LSI fue VLSI (varias decenas de miles de compuertas en un solo chip). Hoy en día, los microprocesadores tienen varios millones de compuertas en el mismo chip.

Hacia principios de 2006 se están comercializando microprocesadores con tecnología de hasta 65 nm, y se espera en un futuro cercano el advenimiento de los 45 nm.

Buscar información de una microcomputadora, minicomputadora y supercomputadora.


Microcomputadora


El Commodore 64 fue uno de los más famosos microordenadores de su época.
Una microcomputadora es una computadora que tiene un microprocesador (unidad central de procesamiento).

Generalmente, el microprocesador tiene los circuitos de almacenamiento (o memoria caché) y entrada/salida en el mismo circuito integrado (o chip). El primer microprocesador comercial fue el Intel 4004, que salió el 15 de noviembre de 1971.
Desde el lanzamiento de la computadora personal de IBM, el IBM PC, el término computadora personal se aplica a las microcomputadora orientados a los consumidores. La primera generación de microcomputadora fue conocida también como computadoras domésticas. Se puede encontrar más información en las secciones correspondientes.
Fue el lanzamiento de la hoja de cálculo VisiCalc lo que hizo que los microcomputadoras dejasen de ser un pasatiempo para los aficionados de la informática para convertirse en una herramienta de trabajo. Sus principales características son:

• Velocidad de procesamiento: Decenas de millones de instrucciones por segundo.
• Usuario a la vez: Uno (Por eso se llaman Personales).
• Tamaño: Pequeña, o portátiles.
• Facilidad de uso: Supuestamente fáciles de usar.
• Clientes usuales: Pequeñas empresas, oficinas, escuelas, individuos.
• Penetración social: Mediana.
• Impacto social: Alto, en los países industrializados.
• Parque instalado: Cientos de millones en el mundo.
• Costo: Pocos cientos de dólares estadounidenses.

Minicomputadora

Actualmente más conocidos como servidores, la conjunción con terminales tontos sin capacidad de cálculo propia.

El declive tuvo lugar debido al menor coste del soporte físico basado en microprocesadores y el deseo de los usuarios finales de depender menos de los inflexibles terminales tontos, con el resultado de que los minicomputadoras y los falsos terminales fueron remplazados por computadoras personales interconectados entre sí y con un servidor.

El cambio fue facilitado no solo por el microprocesador, sino también por el desarrollo de varias versiones de Unix multiplataforma (con microprocesadores Intel incluidos) como Solaris, Linux y FreeBSD. La serie de sistemas operativos Microsoft Windows, a partir de Windows NT, también incluye versiones de servidor que soportan multitareas y otras funciones para servidores.
Como ejemplo de lo explicado, Hewlett-Packard se refiere ahora a su serie de minicomputadoras HP3000 como servidores.

Modelos de minicomputadoras [editar]
• DEC VAX
• Data General Nova
• IBM AS/400 y RS/6000
• Hewlett-Packard HP3000
• Norsk Data Nord-1, Nord-10 y Nord-100
• Prime 50-series

Supercomputadora

Interior de un supercomputador CRAY T3DSupercomputadora o Superordenador es una computadora con capacidades de cálculo muy superiores a las comúnmente disponibles de las máquinas de escritorio de la misma época en que fue construida.

Hoy en día el diseño de Supercomputadoras se sustenta en 4 importantes tecnologías:
La tecnología de registros vectoriales, creada por Cray, considerado el padre de la Supercomputación, quien inventó y patentó diversas tecnologías que condujeron a la creación de máquinas de computación ultra-rápidas. Esta tecnología permite la ejecución de innumerables operaciones aritméticas en paralelo.

El sistema conocido como M.P.P. por las siglas de Massively Parallel Processors o Procesadores Masivamente Paralelos, que consiste en la utilización de cientos y a veces miles de microprocesadores estrechamente coordinados.

La tecnología de computación distribuida: los clusters de computadoras de uso general y relativo bajo costo, interconectados por redes locales de baja latencia y el gran ancho de banda.

Cuasi-Supercómputo: Recientemente, con la popularización de Internet, han surgido proyectos de computación distribuida en los que software especiales aprovechan el tiempo ocioso de miles de ordenadores personales para realizar grandes tareas por un bajo costo. A diferencia de las tres últimas categorías, el software que corre en estas plataformas debe ser capaz de dividir las tareas en bloques de cálculo independientes que no se ensamblaran ni comunicarán por varias horas. En esta categoría destacan BOINC y Folding@home.

Por su alto costo, el uso de superordenadores verdaderos está limitado a organismos gubernamentales, militares y grandes centros de investigación, en donde tienen aplicaciones científicas, como en la simulación de procesos naturales (previsión del tiempo, análisis de cambios climáticos, entre otros procesos), modelaje molecular, simulaciones físicas como túneles de viento, criptoanálisis, etc.
Este tipo de máquinas generalmente tiene su arquitectura proyectada y optimizada enteramente con la aplicación final en mente.

Una supercomputadora es un tipo de computadora muy potente y rápida, diseñada para procesar enormes cantidades de información en poco tiempo y dedicada a una tarea específica.

Investigar la Quinta generación de computadoras

Quinta generación de computadoras

La quinta generación de computadoras fue un proyecto ambicioso lanzado por Japón a finales de los 70. Su objetivo era el desarrollo de una clase de computadoras que utilizarían técnicas de inteligencia artificial al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo).

El proyecto duró diez años, pero no obtuvo los resultados esperados: las computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto nos llevará se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla.

Antecedentes y Diseño del Proyecto a través de las múltiples generaciones desde los años 50, Japón había sido el seguidor en términos del adelanto y construcción de las computadoras de los Modelos de los Estados Unidos y el Reino Unido. Japón decidió romper con esta naturaleza de seguir a los líderes y a mediados de la década de los 70 comenzó a abrirse camino hacia un futuro en la industria de la informática. El centro del desarrollo y proceso de la información de Japón fue el encargado llevar a cabo un plan para desarrollar el proyecto. En 1979 ofrecieron un contrato de tres años para realizar estudios más profundos junto con industria y la academia. Fue durante este período cuando el término "computadora de quinta generación" comenzó a ser utilizado.

Los campos principales para la investigación de este proyecto inicialmente eran:

Tecnologías para el proceso del conocimiento.

Tecnologías para procesar bases de datos y bases de conocimiento masivo.

Sitios de trabajo del alto rendimiento.

Informáticas funcionales distribuidas.

Supercomputadoras para el cálculo científico.

Debido a la conmoción suscitada que causó que los japoneses fueran exitosos en el área de los artículos electrónicos durante la década de los 70, y que prácticamente hicieran lo mismo en el área de la automoción durante los 80, el proyecto de la quinta generación tuvo mucha reputación entre los otros países.

Tal fue su impacto que se crearon proyectos paralelos. En Estados Unidos, la Corporación de Microelectrónica y Tecnologías de la Computación, en Inglaterra fue Alves, y en Europa su reacción fue conocida como el Programa Europeo en Investigación Estratégica de la Tecnología de la Información.

Como uno de los productos finales del Proyecto se desarrollaron 5 Maquinas de Inferencia Paralela (PIM) teniendo como una de sus características principales 256 elementos de Procesamiento Acoplados en red. El proyecto también produjo herramientas que se podían utilizar con estos sistemas tales como el Sistema Paralelo de Gerencia de Bases de Datos Kappa, el Sistema de Razonamiento Legal HELIC-II y el Teorema Autómata de Aprobaciones MGTP.

Modelo de Von Newman

Modelo de Von Newman¡¡¡

Su diseño básico, ahora conocido como una Máquina de Von Neumann, se usó en la EDSAC para la primera computadora que almacenaba el programa, y constituye todavía la base para la mayoría de las computadoras digitales, casi medio siglo después. Este diseño y la máquina IAS, construida en colaboración con Herman Goldstine, ha tenido una influencia tan grande.

La Máquina de Von Neumann tenía cinco partes básicas: la memoria, la unidad aritmética-lógica, la unidad de control del programa y los equipos de entrada y salida.

COMPONENTES:

La Memoria: Constaba de 4096 palabras, cada una con 40 bits (0 o 1).
* Cada palabra podía contener dos instrucciones de 20 bits o un número entero de 39 bits y su signo.

* Las instrucciones tenían 8 bits dedicados a señalar el tipo de la misma y 12 bits para especificar alguna de las 4096 palabras de la memoria.
Unidad de Control: Determina cual es la siguiente instrucción a ejecutar y se la pasa al ALU.

ALU (Aritmética Lógica Unidad): La Unidad Aritmética Lógica, es el �TALLER� donde se ejecutan las instrucciones.
Acumulador: 40 bits que sirven para:
* Recibir datos de entrada.
* Enviar datos a la salida.
* Guardar el resultado de la última operación.

Investigar Protocolo TCP/IP

Protocolo TCP/IP
Es un protocolo DARPA que proporciona transmisión fiable de paquetes de datos sobre redes. El nombre TCP / IP Proviene de dos protocolos importantes de la familia, el Transmission Contorl Protocol (TCP) y el Internet Protocol (IP). Todos juntos llegan a ser más de 100 protocolos diferentes definidos en este conjunto.
El TCP / IP es la base del Internet que sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de área local y área extensa. TCP / IP fue desarrollado y demostrado por primera vez en 1972 por el departamento de defensa de los Estados Unidos, ejecutándolo en el ARPANET una red de área extensa del departamento de defensa.
COMANDOS TCP/IP
TCP/IP incluye dos grupos de comandos utilizados para suministrar servicios de red:
Los comandos remotos BERKELEY
Los comandos DARPA
Los comandos remotos BERKELEY, que fueron desarrollados en la Universidad Berkeley (California), incluyen órdenes para comunicaciones entre sistemas operativos UNIX, como copia remota de archivos, conexión remota, ejecución de shell remoto, etc.
Permiten utilizar recursos con otros hosts, pudiendo tratar distintas redes como si fueran una sola.
En la versión 4 para UNIX Sistema V, se pueden distinguir los siguientes comandos más comunes:
RCP Realiza una copia de archivos al mismo o a otro servidor
RLOGINGL-RLOGINVT Se utiliza para hacer una conexión al mismo o a otro servidor
REXEC-RSH Permite ejecutar comandos del sistema operativo en
COMO FUNCIONA TCP/IP
Una red TCP/IP transfiere datos mediante el ensamblaje de bloques de datos en paquetes, cada paquete comienza con una cabecera que contiene información de control; tal como la dirección del destino, seguido de los datos. Cuando se envía un archivo por la red TCP/IP, su contenido se envía utilizando una serie de paquetes diferentes. El Internet protocolo (IP), un protocolo de la capa de red, permite a las aplicaciones ejecutarse transparentemente sobre redes interconectadas. Cuando se utiliza IP, no es necesario conocer que hardware se utiliza, por tanto ésta corre en una red de área local.
El Transmissión Control Protocol (TCP); un protocolo de la capa de transporte, asegura que los datos sean entregados, que lo que se recibe, sea lo que se pretendía enviar y que los paquetes que sean recibidos en el orden en que fueron enviados. TCP terminará una conexión si ocurre un error que haga la transmisión fiable imposible.
ADMINISTRACION TCP/IP
TCP/IP es una de las redes más comunes utilizadas para conectar computadoras con sistema UNIX. Las utilidades de red TCP/IP forman parte de la versión 4, muchas facilidades de red como un sistema UUCP, el sistema de correo, RFS y NFS, pueden utilizar una red TCP/CP para comunicarse con otras máquinas.
Para que la red TCP/IP esté activa y funcionando será necesario:
• Obtener una dirección Internet.
• Instalar las utilidades Internet en el sistema
• Configurar la red para TCP/IP
• Configurar los guiones de arranque TCP/IP
• Identificar otras máquinas ante el sistema
• Configurar la base de datos del o y ente de STREAMS
• Comenzar a ejecutar TCP/IP.

Definicion de computadora

Definición de computadora

Computadora

Una computadora (del latín computare -calcular-), también denominada como ordenador o computador, es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, sorprendente rapidez, y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una múltiple variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output". La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento
La característica principal que la distingue de otros dispositivos similares, como una calculadora no programable, es que puede realizar tareas muy diversas cargando distintos programas en la memoria para que el microprocesador los ejecute.

Dispositivo de almacenamiento

CD:

El disco compacto (conocido popularmente como CD, por las siglas en inglés de Compact Disc) es un soporte digital óptico utilizado para almacenar cualquier tipo de información (audio, vídeo, documentos y otros datos). En español o castellano, se puede escribir «cedé» o, como acepta la Real Academia Española, «cederrón» (CD-ROM).

CD-R

Un CD-R es un formato de disco compacto grabable]. Se pueden grabar en varias sesiones, sin embargo la información agregada no puede ser borrada ni sobrescrita, en su lugar se debe usar el espacio libre que dejó la sesión inmediatamente anterior.
Actualmente las grabadoras llegan a grabar CD-R a 52x, unos 7800 KB/s.
Para muchos ordenadores es difícil mantener esta tasa de grabación y por ello la grabadoras tienen sistemas que permiten retomar la grabación ante un corte en la llegada de datos.
La capacidad total de un CD-R suele ser:
650 MB = 681,57 millones de bytes
700 MB = 734 millones de bytes. El más común.
800 MB = 838 millones de bytes.
900 MB = 943 millones de bytes.
Estas capacidades son válidas para discos de datos. Los formatos VCD, SVCD o el CD-Audio usan otro formato, el CD-XA que utiliza partes del CD que en los CD de datos se utilizan para corrección de errores. Así se obtiene un 13,5% más de capacidad a cambio de una mayor sensibilidad a arañazos y otras agresiones.

DVD

El DVD (también conocido como "Digital Versatile Disc" o "Disco Versátil Digital", debido a su popular uso en películas algunos lo llaman Disco de Video Digital) es un formato de almacenamiento óptico que puede ser usado para guardar datos, incluyendo películas con alta calidad de vídeo y audio. Se asemeja a los discos compactos en cuanto a sus dimensiones físicas (diámetro de 12 u 8 centímetros), pero están codificados en un formato distinto y a una densidad mucho mayor. A diferencia de los CD, todos los DVD deben guardar los datos utilizando un sistema de archivos denominado UDF (Universal Disk Format), el cual es una extensión del estándar ISO 9660, usado para CD de datos. El DVD Forum (un consorcio formado por todas las organizaciones que han participado en la elaboración del formato) se encarga de mantener al día sus especificaciones técnicas.

CD-RW

Un disco compacto reescribible (conocido popularmente como CD-RW, "Compact Disc-Re Writable") es un soporte digital óptico utilizado para almacenar cualquier tipo de información. Este tipo de CD sirve para tanto grabar como para después borrar esa información. Fue desarrollado conjuntamente en 1980 por las empresas Sony y Philips, y comenzó a comercializarse en 1982. Hoy en día tecnologías como el DVD pueden desplazar o minimizar esta forma de almacenamiento, aunque su uso sigue vigente.

En el disco CD-RW la capa que contiene la información está formada por una aleación cristalina de plata, indio, antimonio y telurio que presenta una interesante cualidad: si se calienta hasta cierta temperatura, cuando se enfría deviene cristalino, pero si al calentarse se alcanza una temperatura aún más elevada, cuando se enfría queda con estructura amorfa. La superficie cristalina permite que la luz se refleje bien en la zona reflectante mientras que las zonas con estructura amorfa absorben la luz. Por ello el CD-RW utiliza tres tipos de luz:
-Láser de escritura: Se usa para escribir. Calienta pequeñas zonas de la superficie para que el material se torne amorfo.
-Láser de borrado: Se usa para borrar. Tiene una intensidad menor que el de escritura con lo que se consigue el estado cristalino.
-Láser de lectura: Se usa para leer. Tiene menor intensidad que el de borrado. Se refleja en zonas cristalinas y se dispersa en las amorfas.

Disquete
Un disco flexible o disquete (en lengua inglesa diskette) es un soporte de almacenamiento de datos formado por una pieza circular de material magnético, fina y flexible (de ahí su denominación) encerrada en una carcasa de plástico cuadrada o rectangular. Los disquetes se leen y se escriben mediante un dispositivo llamado disquetera (o FDD, del inglés Floppy Disk Drive). Es un disco más pequeño que el CD, tanto en tamaño externo como en capacidad, que está encerrado en una funda de pasta que lo protege (como se ha dicho anteriormente).


Disco duro

El disco duro es un dispositivo de almacenamiento no volátil, es decir conserva la información que le ha sido almacenada de forma correcta aun con la perdida de energía, emplea un sistema de grabación magnética digital, es donde en la mayoría de los casos se encuentra almacenado el sistema operativo de la computadora. En este tipo de disco se encuentra dentro de la carcasa una serie de platos metálicos apilados girando a gran velocidad. Sobre estos platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares a la hora de comunicar un disco duro con la computadora. Existen distintos tipos de interfaces las mas comunes son: Integrated Drive Electronics (IDE, también llamado ATA) , SCSI generalmente usado en servidores, SATA, este último estandarizado en el año 2004 y FC exclusivo para servidores.
Tal y como sale de fábrica, el disco duro no puede ser utilizado por un sistema operativo. Antes tenemos que definir en él un formato de bajo nivel, una o más particiones y luego hemos de darles un formato que pueda ser entendido por nuestro sistema.

También existe otro tipo de discos denominados de estado sólido que utilizan cierto tipo de memorias construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya se puede encontrar en el mercado unidades mucho más económicas de baja capacidad (hasta 64 GB) para el uso en computadoras personales (sobre todo portátiles). Así, el caché de pista es una memoria de estado sólido, tipo memoria RAM, dentro de un disco duro de estado sólido.

Cinta magnética

La cinta magnética es un tipo de soporte de almacenamiento de información que se graba en pistas sobre una banda de un material magnético, generalmente óxido de hierro o algún cromato. El tipo de información que se puede almacenar en las cintas magnéticas es variado, como vídeo, audio y datos.

Hay diferentes tipos de cintas, tanto en sus medidas físicas, como en su constitución química, así como diferentes formatos de grabación, especializados en el tipo de información que se quiere grabar.

Los dispositivos informáticos de almacenamiento masivo de datos de cinta magnética son utilizados principalmente para respaldo de archivos y para el proceso de información de tipo secuencial, como en la elaboración de nóminas de las grandes organizaciones públicas y privadas. Al almacén donde se guardan estos dispositivos se lo denomina cintoteca.

Su uso también se ha extendido para el almacenamiento analógico de música (como el casete de audio) y para vídeo, como las cintas de VHS (véase cinta de video).

La cinta magnética de audio dependiendo del equipo que la reproduce / graba recibe distintos nombres:
Se llama cinta de bobina abierta si es de magnetofóno.
Casete cuando es de formato compacto utilizada en pletina o walkman.
Cartucho cuando es utilizada por las cartucheras.

Memoria flash

La memoria flash es una forma desarrollada de la memoria EEPROM que permite que múltiples posiciones de memoria sean escritas o borradas en una misma operación de programación mediante impulsos eléctricos, frente a las anteriores que sólo permite escribir o borrar una única celda cada vez. Por ello, flash permite funcionar a velocidades muy superiores cuando los sistemas emplean lectura y escritura en diferentes puntos de esta memoria al mismo tiempo.

Las memorias flash son de carácter no volátil, esto es, la información que almacena no se pierde en cuanto se desconecta de la corriente, una característica muy valorada para la multitud de usos en los que se emplea este tipo de memoria.

Los principales usos de este tipo de memorias son pequeños dispositivos basados en el uso de baterías como teléfonos móviles, PDA, pequeños electrodomésticos, cámaras de fotos digitales, reproductores portátiles de audio, etc.

Las capacidades de almacenamiento de estas tarjetas que integran memorias flash comenzaron en 128 MB (128 MiB) pero actualmente se pueden encontrar en el mercado tarjetas de hasta 32 GB (32 GiB) por parte de la empresa Panasonic en formato SD.

La velocidad de transferencia de estas tarjetas, al igual que la capacidad de las mismas, se ha ido incrementando progresivamente. La nueva generación de tarjetas permitirá velocidades de hasta 30 MB/s.

El costo de estas memorias es muy bajo respecto a otro tipo de memorias similares como EEPROM y ofrece rendimientos y características muy superiores. Económicamente hablando, el precio en el mercado ronda los 20 € para dispositivos con 4 GB de almacenamiento, aunque, evidentemente, se pueden encontrar dispositivos exclusivamente de almacenamiento de unas pocas MBs por precios realmente bajos, y de hasta 4000 € para la gama más alta y de mayores prestaciones. No obstante, el coste por MB en los discos duros son muy inferiores a los que ofrece la memoria flash y, además los discos duros tienen una capacidad muy superior a la de las memorias flash.
Ofrecen, además, características como gran resistencia a los golpes, bajo consumo y es muy silencioso, ya que no contiene ni actuadores mecánicos ni partes móviles. Su pequeño tamaño también es un factor determinante a la hora de escoger para un dispositivo portátil, así como su ligereza y versatilidad para todos los usos hacia los que está orientado.

Sin embargo, todos los tipos de memoria flash sólo permiten un número limitado de escrituras y borrados, generalmente entre 10.000 y un millón, dependiendo de la celda, de la precisión del proceso de fabricación y del voltaje necesario para su borrado.

Este tipo de memoria está fabricado con puertas lógicas NOR y NAND para almacenar los 0’s ó 1’s correspondientes. Actualmente (08-08-2005) hay una gran división entre los fabricantes de un tipo u otro, especialmente a la hora de elegir un sistema de archivos para estas memorias. Sin embargo se comienzan a desarrollar memorias basadas en ORNAND.

Los sistemas de archivos para estas memorias están en pleno desarrollo aunque ya en funcionamiento como por ejemplo JFFS originalmente para NOR, evolucionado a JFFS2 para soportar además NAND o YAFFS, ya en su segunda versión, para NAND. Sin embargo, en la práctica se emplea un sistema de archivos FAT por compatibilidad, sobre todo en las tarjetas de memoria extraíble.
Otra característica de reciente aparición (30-9-2004) ha sido la resistencia térmica de algunos encapsulados de tarjetas de memoria orientadas a las cámaras digitales de gama alta. Esto permite funcionar en condiciones extremas de temperatura como desiertos o glaciares ya que el rango de temperaturas soportado abarca desde los -25 ºC hasta los 85 ºC.

Las aplicaciones más habituales son:
El llavero USB que, además del almacenamiento, suelen incluir otros servicios como radio FM, grabación de voz y, sobre todo como reproductores portátiles de MP3 y otros formatos de audio.

Las PC Card

Las tarjetas de memoria flash que son el sustituto del carrete en la fotografía digital, ya que en las mismas se almacenan las fotos.
Existen varios estándares de encapsulados promocionados y fabricados por la mayoría de las multinacionales dedicadas a la producción de hardware.

BUS

El Bus XT y el Bus ISA (AT)

El primero al salir al mercado comercial junto con el primer PC de IBM, fue el bus XT al 1980, funcionaba a la misma velocidad que los microprocesadores de la época, los 8086 y 8088, a 4.77 MHz; y su amplitud de banda era de 8 bits. De aquí que con el 8088 se compenetraran perfectamente, pero con el 8086 (ancho de banda de 16 bits) ya no había tanta compenetración y surgió el concepto y el hecho de los "cuellos de botella".

El significado del acrónimo que nos indica su nombre es: Industrial Standard Arquitecture, que traducido sería, Arquitectura Industrial Estandarizada.

Con la introducción del AT, apareció el nuevo bus de datos de 16 bits (ISA), y compatible con su antecesor. También se amplió el bus de direcciones hasta 24 bits, la velocidad de señales de frecuencia también se aumentó: de 4.77 MHz a 8.33 MHz. De nuevo nos encontramos con un atasco de información entre la memoria y la CPU.

A las tarjetas de expansión incluso, se le asignaron una señal en estado de espera (wait state), el cual daba más tiempo a las tarjetas lentas para enviar toda la información a la memoria.



MCA (Bus Micro Channel)

En sí no es ningún tipo de bus, más bien es un sistema de canalización, en el que los datos no son enviadas hacia al receptor con una simple instrucción de direccionamiento si no que es éste, el receptor, quién tiene que recogerlos. Para que esta tarea se lleve a cabo, se ha de informar al receptor previamente con la dirección dónde están los datos a recibir, y se le deja un camino (bus) libre para él, para que transporte los datos libremente.

Surgió cuándo IBM trabajaba para crear una nueva tecnología de bus, la sacó con sus ordenadores que incorporaban el PS/2, el MCA (Micro Channel Arquitecture) permitía un ratio (transferencia de datos) máximo de 20 Mb/s, por la nueva dirección de 32 bits, y el aumento de velocidad a 10 MHz.

IBM incluyó un circuito de control especial a cargo del bus, que le permitía operar independientemente de la velocidad del bus y del tipo de microprocesador.

Dentro este tipo de bus, la CPU no es nada más que otro dispositivo dónde pueden ir y venir los datos. La circuitería de control, denominada CAP (punto de decisión central), se enlaza con un proceso denominado controlo de bus para determinar y responder a las prioridades de cada uno de los dispositivos dominantes del bus.

Para permitir la conexión de más dispositivos, el MCA especifica interrupciones sensibles al nivel, que resultan más fiables que el sistema de interrupciones del bus ISA. De esta forma es posible compartir interrupciones.

Esta estructura era completamente incompatible con las tarjetas de expansión del tipo ISA, concretamente la diferencia que tenían una respeto del otro se debía al tamaño de los conectores, más pequeños a las del tipo MCA que las del tipo ISA.


EISA (Extended ISA)

Este bus es, tal y como nos indica su nombre (Enhanced Industrial Standard Arquitecture), una extensión del primitivo bus ISA o AT. Tal y como hacía el MCA, su bus de direcciones era de 32 bits basándose en la idea de controlar un bus desde el microprocesador. Mantuvo la compatibilidad con las tarjetas de expansión de su antecesor ISA, motivo por el cual tuvo que adoptar la velocidad de éste (8.33 MHz).

Una de las ventajas que presentaba fue la de que era un sistema abierto, cantidad de compañías contribuyeron a su desarrollo: AST, Compaq, Epson, Hewlett Packard, Olivetti, Tandy, Wyse, y Zenith.

Fue el primer bus a poder operar con sistemas de multiproceso (integrar al sistema varios buses dentro del sistema, cada uno con su procesador).

Al igual que al MCA, incorporó un chip, el ISP Sistema Periférico Integrado, encargado de controlar el tráfico de datos señalando prioridades para cada posible punto de colisión o de bloqueo mediante reglas de control de la especificación EISA.

Ni MCA ni EISA sustituyeron a su predecesor ISA, a pesar de sus ventajas, estos representaban encarecer el coste del PC (a menudo más del 50%), y no ofrecían ninguna mejora evidente en el rendimiento del sistema, y si se notaba alguna mejora, tampoco era demasiado necesaria puesto que ningún dispositivo daba el máximo de sí, ni en el bus ISA.

PCI (Peripheral Components Interconnect)

Este modelo que hoy en día rige en los ordenadores convencionales, y es el más extendido de todos, lo inventó Intel y significa: interconexión de los componentes periféricos.

Con la llegada de este nueve bus automatizado en todos sus procesos el usuario ya no se tendrá que preocupar más de controlar las direcciones de las tarjetas o de otorgar interrupciones. Integra control propio de todo el relacionado con él: DMA, interrupciones, direccionamiento de datos.

Es independiente de la CPU, puesto que entre estos dos dispositivos siempre habrá un controlador del bus PCI, y da la posibilidad de poder instalarlo a sistemas no basados en procesadores Intel. Las tarjetas de expansión se pueden acoplar a cualquier sistema, y pueden ser intercambiadas como se quiera, tan solo los controladores de los dispositivos tienen que ser ajustados al sistema anfitrión (host), es decir a la correspondiente CPU.

Su velocidad no depende de la de la CPU sino que está separada de ella por el controlador del bus. Solución al problema del VL-BUS, dónde las tarjetas debían aceptar la máxima frecuencia de la CPU o sinó no podían funcionar.

El conector empleado es estilo Micro Channel de 124 pines (128 en caso de trabajar con 64 bits), aunque sólo se utilizan 47 de las conexiones (49 en el caso de tratarse de un conector bus-master), la diferencia se adeuda a las conexiones de toma de tierra y de alimentación.

PCI es la eliminación de un paso al microprocesador; en vez de disponer de su propio reloj, el bus se adapta al empleado por el microprocesador y su circuitería, por lo tanto los componentes del PCI están sincronizados con el procesador. El actual PCI opera con una frecuencia de 20 a 33.3 MHz.

Las tarjetas ISA no pueden ser instaladas en una ranura PCI convencional, aunque existen equipos con un puente denominado <>. Consta de un chip que se conecta entre los diferentes slots ISA y el controlador del bus PCI, su tarea es la de transportar las señales provenientes del bus PCI capo al bus ISA.

Su gran salida y aceptación fue en gran parte por su velocidad, así el hardware se podía adaptar a la continua evolución y el incremento de velocidad de los procesadores.

SCSI (Small Computer System Interface)

Se origina a principios de los años ochenta cuando el fabricante de discos desarrolló su propio sistema de E/S nominada SASI (Shugart Asociates System Interface) que dado su éxito y su gran aceptación comercial fue aprobada por ANSI al 1986.

SCSI no se conecta directamente a la CPU sino que utiliza de puente uno de los buses anteriormente mencionados. Se podría definir como un subsistema de E/S inteligente, cumplido y bidireccional. Un solo adaptador host SCSI puede controlar hasta 7 dispositivos SCSI conectados con él.

Una de las ventajas del SCSI en frente a otros es que los dispositivos se direccionan lógicamente en vez de físicamente, este sistema es útil por dos razones:

1. Elimina cualquier limitación que el conjunto PC-Bios pueda imponer a las unidades de disco.
2. El direccionamiento lógico elimina la sobrecarga que podría tener el host al maniobrar los aspectos físicos del dispositivo, el controlador SCSI lo controla.
Aunque varios dispositivos (hasta 7), pueden compartir un mismo adaptador SCSI, tan sólo 2 de éstos pueden comunicarse sobre el mismo bus a la vez.

Puede configurarse de tres maneras diferentes que le dan gran versatilidad:

1. Único iniciador/Único objetivo: Es el más común, el iniciador es un adaptador en una ranura de un PC, y el objetivo es el controlador del disco duro. Es una configuración fácil de implementar pero no aprovecha al máximo las posibilidades del bus, excepto cuando se controlan varios discos duros.
2. Único iniciador/Múltiple objetivo: Menos común y raramente implementado, es bastante parecido al anterior excepto que se controlan diferentes tipos de dispositivos de E/S. (CD-ROM y un disco duro)
3. Múltiple iniciador/Múltiple objetivo: Mucho menos utilizado que los anteriores, se aprovechan a fondo las capacidades del bus.


VESA

El bus VESA (Video Electronics Standards Association, la compañía que lo diseñó) es un tipo de bus de datos para ordenadores personales, utilizado sobre todo en equipos diseñados para el procesador Intel 80486. Permite conectar directamente la tarjeta gráfica al procesador.

Este bus es compatible con el bus ISA pero mejora la respuesta gráfica, solucionando el problema de la insuficiencia de flujo de datos de su predecesor. Para ello su estructura consistía en una extensión del ISA de 16 bits. Las tarjetas de expansión de este tipo eran enormes lo que, junto a la aparición del bus PCI, mucho más rápido en velocidad de reloj, y con menor longitud y mayor versatilidad, hizo desaparecer al VESA, aunque sigue existiendo en algunos equipos antiguos.

Ventajas de la programación estructurada

Ventajas de la programación estructurada

Un programa escrito de acuerdo a estos principios no solamente tendrá una estructura, sino también una excelente presentación.
Un programa escrito de esta forma tiende a ser mucho más fácil de comprender que programas escritos en otros estilos.

La facilidad de comprensión del contenido de un programa puede facilitar el chequeo de la codificación y reducir el tiempo de prueba y depuración de programas. Esto último es cierto parcialmente, debido a que la programación estructurada concentra los errores en uno de los factores más generador de fallas en programación: la lógica.

Un programa que es fácil para leer y el cual está compuesto de segmentos bien definidos tiende a ser simple, rápido y menos expuesto a mantenimiento. Estos beneficios derivan en parte del hecho que, aunque el programa tenga una extensión significativa, en documentación tiende siempre a estar al día, esto no suele suceder con los métodos convencionales de programación.
La programación estructurada ofrece estos beneficios, pero no se la debe considerar como una panacea ya que el desarrollo de programas es, principalmente, una tarea de dedicación, esfuerzo y creatividad.

Con la programación estructurada, elaborar programas de computador sigue siendo una labor que demanda esfuerzo, creatividad, habilidad y cuidado. Sin embargo, con este estilo podemos obtener las siguientes ventajas:

1. Los programas son más fáciles de entender, ya que pueden ser leído de forma secuencial, sin necesidad de hacer seguimiento a saltos de línea (GOTO) dentro de los bloques de código para entender la lógica.

2. La estructura del programa es clara puesto que las instrucciones están más ligadas o relacionadas entre sí.

3. Reducción del esfuerzo en las pruebas. El seguimiento de los fallos o errores del programa ("debugging") se facilita debido a la estructura más visible, por lo que los errores se pueden detectar y corregir más fácilmente.

4. Reducción de los costos de mantenimiento de los programas.

5. Programas más sencillos y más rápidos (ya que es más fácil su optimización).

6. Los bloques de código son auto explicativos, lo que facilita a la documentación.

7. Los GOTO se reservan para construir las instrucciones básicas. Aunque no se usan de forma directa, por estar prohibida su utilización, están incluidas implícitamente en las instrucciones de selección e iteración.

8. Un programa escrito de acuerdo a estos principios no solamente tendrá una estructura sino también una excelente presentación.

9. La programación estructurada ofrece estos beneficios, pero no se la debe considerar como una panacea ya que el desarrollo de programas es, principalmente, una tarea de dedicación, esfuerzo y creatividad.