martes, 21 de octubre de 2008

PIC 8259ª

PIC 8259ª

Es un tipo de controlador programable de interrupciones (o PIC) incluido en las antiguas PCs x86.

Actualmente no es incluido como un chip separado, sino que las mismas funcionalidades son realizadas en una parte del puente sur (southbridge) de la placa madre de la computadora.

En otros casos, el PIC 8259A ha sido reemplazado por versiones más modernas como el Advanced Programmable Interrupt Controllers (APIC), que soporta muchas más interrupciones de salida y esquemas de prioridades más flexibles.

OLTP, ERP, CRM, Flujo de trabajo,

OLTP



Es la sigla en inglés de Procesamiento de Transacciones En Línea (OnLine Transaction Processing) es un tipo de sistemas que facilitan y administran aplicaciones transaccionales, usualmente para entrada de datos y recuperación y procesamiento de transacciones (gestor transaccional). Los paquetes de software para OLTP se basan en la arquitectura cliente-servidor ya que suelen ser utilizados por empresas con una red informática distribuida.
El término puede parecer ambiguo, ya que puede entenderse "transacción" en el contexto de las "transacciones computacionales" o de las "transacciones en bases de datos". También podría entenderse en términos de transacciones de negocios o comerciales. OLTP también se ha utilizado para referirse a la transformación en la que el sistema responde de inmediato a las peticiones del usuario. Un Cajero automático de un banco es un ejemplo de una aplicación de procesamiento de transacciones comerciales.
La tecnología OLTP se utiliza en innumerables aplicaciones, como en banca electrónica, procesamiento de pedidos, comercio electrónico, supermercados o industria.





ERP

Los sistemas de planificación de recursos empresariales (ERP) son sistemas de información gerenciales que integran y manejan muchos de los negocios asociados con las operaciones de producción y de los aspectos de distribución de una compañía comprometida en la producción de bienes o servicios.
La Planificación de Recursos Empresariales es un término derivado de la Planificación de Recursos de Manufactura (MRPII) y seguido de la Planificación de Requerimientos de Material (MRP). Los sistemas ERP típicamente manejan la producción, logística, distribución, inventario, envíos, facturas y una contabilidad para la compañía de la Planificación de Recursos Empresariales o el software ERP puede intervenir en el control de muchas actividades de negocios como ventas, entregas, pagos, producción, administración de inventarios, calidad de administración y la administración de recursos humanos.

Los sistemas ERP ocasionalmente son llamados back office (trastienda) ya que indican que el cliente y el público general no están directamente involucrados. Este sistema es, en contraste con el sistema de apertura de datos (front office), que crea una relación administrativa del consumidor o servicio al consumidor (CRM), un sistema que trata directamente con los clientes, o con los sistemas de negocios electrónicos tales como comercio electrónico, gobierno electrónico, telecomunicaciones electrónicas y finanzas electrónicas; así mismo, es un sistema que trata directamente con los proveedores, no estableciendo únicamente una relación administrativa con ellos (SRM).

Los ERP están funcionando ampliamente en todo tipo de empresas modernas. Todos los departamentos funcionales que están involucrados en la operación o producción están integrados en un solo sistema. Además de la manufactura o producción, almacenamiento, logística e información tecnológica, incluyen además la contabilidad, y suelen incluir un recursos humanos, y herramientas de mercadotecnia y administración estratégica.





CRM

CRM (de la sigla del término en inglés "Customer Relationship Management"), posee varios significados:
• La administración basada en la relación con los clientes. CRM, es un modelo de gestión de toda la organización, basada en la orientación al cliente (u orientación al mercado según otros autores), el concepto más cercano es Marketing relacional (según se usa en España), teniendo mucha relación con otros conceptos como: Clienting, Marketing 1x1, Marketing directo de base de datos, etc.
• La administración de la relación con los clientes. CRM, es sinónimo de Servicio al cliente, o de Gestión de clientes. Con este significado CRM se refiere sólo a una parte de la gestión de la empresa.
• Software para la administración de la relación con los clientes'. Sistemas informáticos de apoyo a la gestión de las relaciones con los clientes, a la venta y al marketing. Con este significado CRM se refiere al Data warehouse (Almacén de Datos) con la información de la gestión de ventas, y de los clientes de la empresa.
La administración de la relación con los clientes, CRM, es parte de una estrategia de negocio centrada en el cliente. Una parte fundamental de su idea es, precisamente, la de recopilar la mayor cantidad de información posible sobre los clientes, para poder dar valor a la oferta. La empresa debe trabajar para conocer las necesidades de los mismos y así poder adelantar una oferta y mejorar la calidad en la atención.
Cuando hablamos de mejorar la oferta nos referimos a poder brindarles soluciones a los clientes que se adecuen perfectamente a sus necesidades, y no como rezan muchos opositores a esta disciplinas generarles nuevas necesidades.
Por lo tanto, el nombre CRM hace referencia a una estrategia de negocio basada principalmente en la satisfacción de los clientes, pero también a los sistemas informáticos que dan soporte a esta estrategia.










Flujo de trabajo

El Flujo de trabajo (workflow en inglés) es el estudio de los aspectos operacionales de una actividad de trabajo: cómo se estructuran las tareas, cómo se realizan, cuál es su orden correlativo, cómo se sincronizan, cómo fluye la información que soporta las tareas y cómo se le hace seguimiento al cumplimiento de las tareas. Generalmente los problemas de flujo de trabajo se modelan con redes de Petri.
Si bien el concepto de flujo de trabajo no es específico a la tecnología de la información, una parte esencial del software para trabajo colaborativo (groupware) es justamente el flujo de trabajo.
Una aplicación de Flujos de Trabajo (WorkFlow) automatiza la secuencia de acciones, actividades o tareas utilizadas para la ejecución del proceso, incluyendo el seguimiento del estado de cada una de sus etapas y la aportación de las herramientas necesarias para gestionarlo
Se pueden distinguir tres tipos de actividad:
• Actividades colaborativas: Un conjunto de usuarios trabajan sobre un mismo repositorio de datos para obtener un resultado común. Tiene entidad el trabajo de cada uno de ellos en sí mismo.
• Actividades cooperativas: Un conjunto de usuarios trabajan sobre su propio conjunto particular, estableciendo los mecanismos de cooperación entre ellos. No tiene entidad el trabajo de ninguno de ellos si no es visto desde el punto de vista global del resultado final.

• Actividades de coordinación
• El propósito de los sistemas de workflow, o BPMS - Business Process Management Systems, es acercar personas, procesos y máquinas, con el objeto de reducir tiempo y acelerar la realización de un trabajo. Estos sistemas permiten trabajar en equipo desde diferentes lugares físicos.

• Los sistemas de workflow facilitan la automatización de los flujos de trabajo entre procesos y permiten integrar los procesos de la empresa, rediseñados de acuerdo con ayuda de nuevas estrategias.
• Existen en el mercado varias productos como ser openEDMS, wf.com.mx, cardiff, IBM, etc.

• Existen muchas metodologías que culminan en la implementación de un sistema de este tipo como son Diagrama de Roles, BPMN, IDEF0, Ciclos de trabajo, etc.
Servicio Web Map Service
El servicio Web Map Service (WMS) definido por el OGC (Open Geospatial Consortium) produce mapas de datos espaciales referidos de forma dinámica a partir de información geográfica. Este estándar internacional define un "mapa" como una representación de la información geográfica en forma de un archivo de imagen digital conveniente para la exhibición en una pantalla de ordenador. Un mapa no consiste en los propios datos. Los mapas producidos por WMS se generan normalmente en un formato de imagen como PNG, GIF o JPEG, y ocasionalmente como gráficos vectoriales en formato SVG (Scalable Vector Graphics) o WebCGM (Web Computer Graphics Metafile).
El estándar define tres operaciones:
1. Devolver metadatos del nivel de servicio.
2. Devolver un mapa cuyos parámetros geográficos y dimensionales han sido bien definidos.

3. Devolver información de características particulares mostradas en el mapa (opcionales).
Las operaciones WMS pueden ser invocadas usando un navegador estándar realizando peticiones en la forma de URLs (Uniform Resource Locators). El contenido de tales URLs depende de la operación solicitada. Concretamente, al solicitar un mapa, la URL indica qué información debe ser mostrada en el mapa, qué porción de la tierra debe dibujar, el sistema de coordenadas de referencia, y la anchura y la altura de la imagen de salida. Cuando dos o más mapas se producen con los mismos parámetros geográficos y tamaño de salida, los resultados se pueden solapar para producir un mapa compuesto. El uso de formatos de imagen que soportan fondos transparentes (e.g., GIF o PNG) permite que los mapas subyacentes sean visibles. Además, se puede solicitar mapas individuales de diversos servidores.

El servicio WMS permite así la creación de una red de servidores distribuidos de mapas, a partir de los cuales los clientes pueden construir mapas a medida. Las operaciones WMS también pueden ser invocadas usando clientes avanzados SIG, realizando igualmente peticiones en la forma de URLs. Existe software libre, como las aplicaciones GRASS, uDIG, gvSIG, Kosmo y otros, que permite este acceso avanzado a la información remota, añadiendo la ventaja de poder cruzarla con información local y disponer de una gran variedad de herramientas SIG.

SISTEMAS OPERATIVOS

Unix
Es un sistema operativo portable, multitarea y multiusuario; desarrollado, en
principio, en 1969 por un grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy.

A lo largo de la historia ha surgido una gran multitud de implementaciones comerciales de UNIX. Sin embargo, un conjunto reducido de productos han consolidado
el mercado y prevalecen gracias a un continuo esfuerzo de desarrollo por parte de sus fabricantes. Los más importantes son:
Posee las siguientes características:

- Es un sistrema operativo multiusuario, con capacidad de simular multiprocesamiento y procesamiento no interactivo.
- Está escrito en un lenguaje de alto nivel : C.
- Dispone de un lenguaje de control programable llamado SHELL.
- Ofrece facilidades para la creación de programas y sistemas y el ambiente adecuado para las tareas de diseños de software.

- Emplea manejo dinámico de memoria por intercambio o paginación.
- Tiene capacidad de interconexión de procesos.
- Permite comunicación entre procesos.
- Emplea un sistema jerárquico de archivos, con facilidades de protección de archivos, cuentas y procesos.

- Tiene facilidad para redireccionamiento de Entradas/Salidas.
- Garantiza un alto grado de portabilidad.
Solaris 10, un sistema operativo derivado de la rama BSD

• Solaris de Sun Microsystems. Uno de los sistemas operativos Unix más difundido en el entorno empresarial y conocido por su gran estabilidad. Parte del código fuente de Solaris se ha liberado con licencia de fuentes abiertas (OpenSolaris).

• AIX de IBM. El UNIX "propietario" de IBM ha cumplido 20 años de vida en el 2006 y continúa en pleno desarrollo, con una perceptible herencia del mainframe en campos como la virtualización o la RAS de los servidores, heredada de sus "hermanos mayores".

• HP-UX de Hewlett-Packard. Este sistema operativo también nació ligado a las computadoras departamentales de este fabricante. También es un sistema operativo estable que continua en desarrollo.

• Mac OS X. Curiosamente sus propios usuarios lo desconocen, se trata de un UNIX completo, aprobado por The Open Group. Su diferencia marcada es que posee una interfaz gráfica propietaria llamada Aqua, y es principalmente desarrollada en Objective-C en lugar de C o C++.

Ventajas de UNIX:

- El sistema operativo es optimizado para un hardware específico, lo que ofrece rendimiento y fiabilidad.
- Un único fabricante maneja actualizaciones a nivel de mantenimiento, corrección de errores y gestión de parches, por lo que no hay necesidad de buscar soluciones por todos lados. El vendedor da soporte al sistema operativo las veinticuatro horas del día, y los siete días de la semana (por lo general).

- Para personas que gustan de compañías que dan apoyo cuando ocurren todo tipo de problemas.

- En el lado del Hardware, se tiene el apoyo del equipo de cuenta de ventas, como por ejemplo, del socio de negocios que nos vendió el producto.

Desventajas de UNIX:

- Es difícil persuadir a un vendedor UNIX para que incorpore nuevas características de acuerdo a nuestras necesidades.
- Se debe de pagar al vendedor UNIX por: acuerdos de mantenimiento, licencias de software, hardware, etc.

- La participación en el mercado ha ido decreciendo en sistemas UNIX.
- Dependencia con vendedores únicos.
- Los administradores de UNIX pueden ser muy caros

• Unix (registrado oficialmente como UNIX es un sistema operativo portable, multitarea y multiusuario; desarrollado, en principio, en 1969 por un grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran Ken Thompson, Dennis Ritchie y Douglas McIlroy

Existen sistemas operativos basados en el núcleo Linux, y el conjunto de aplicaciones GNU (tambien denomindo GNU/Linux), entra las mas utilizadas encontramos:
• Red Hat Enterprise Linux. Cuyo fabricante Red Hat es conocido por su amplia gama de soluciones y aportes al desarrollo de software libre. Apoya el proyecto Fedora del cual se beneficia y de ella se derivan distribuciones compatibles como Oracle Enterprise Linux y CentOS.
• SUSE Linux de Novell. Originalmente liberado por la compañía alemana SuSE. Es popular por sus herramientas de administración centralizada. De manera análoga a Fedora con RedHat, Apoya el proyecto openSUSE.
• Debian GNU/Linux. Con una de las comunidades mas grandes y antiguas del movimiento de software libre, es base para distribuciones más comerciales como Xandros, Mepis, Linspire y Ubuntu.

También son populares los sistemas operativos descendientes del 4.4BSD:
• FreeBSD. Quizá el sistema operativo mas popular de la familia, de propósito multiple. Con una implementacion SMP muy elaborada, es el sistema operativo utilizado por los servidores de Yahoo. Y base de muchos sistemas operativos entre ellos Mac OS X de Apple.
• OpenBSD. Ampliamente reconocida por su seguridad proactiva y auditoría permanente del codigo fuente. Es utilizada en ambientes donde la seguridad prima sobre todo, es usual encontrarlo instalado en servidores que actúan como Firewall, VPN o Proxy.
• NetBSD . Se le conoce por su portabilidad, a Octubre de 2008: 53 arquitecturas soportadas. La NASA lo ha utilizado para la investigacion en redes TCP/IP satelitales, al igual que para reciclar computadoras viejas con software moderno.

Las siguientes implementaciones de UNIX tienen importancia desde el punto de vista histórico, no obstante, actualmente están en desuso:
• Tru64 UNIX actualmente de Hewlett-Packard (antes de Compaq y originalmente de Digital Equipment Corporation).
• UnixWare y SCO OpenServer anteriormente de Santa Cruz Operation y ahora de SCO Group.
• UX/4800 de NEC.
• IRIX de Silicon Graphics Inc..

FAMILIAS

Como se puede deducir de esta breve reseña histórica, existen varias familias del sistema operativo UNIX que han evolucionado de manera independiente a lo largo de los años. Cada familia se distingue no tanto por sus diferencias técnicas como por sus diferencias en propiedad intelectual. Se observa que todas las familias se han visto contaminadas, directa o indirectamente, por otras familias.

Las familias UNIX más significativas son:

• AT&T: la familia que tuvo su origen en el UNIX de AT&T. Considerada la familia UNIX "pura" y original. Sus sistemas operativos más significativos son UNIX System III y UNIX System V.

• BSD: familia originada por el licenciamiento de UNIX a Berkely. BSD se reescribió para no incorporar propiedad intelectual originaria de AT&T en la versión

4. La primera implementación de los protocolos TCP/IP que dieron origen a Internet son la pila (stack) TCP/IP BSD.

• AIX: esta familia surge por el licenciamiento de UNIX System III a IBM.
• Xenix: familia derivada de la adquisición de los derechos originales de AT&T primero por parte de Microsoft y de esta los vendió a SCO.

• GNU: En 1983, Richard Stallman anunció el Proyecto GNU, un ambicioso esfuerzo para crear un sistema similar a Unix, que pudiese ser distribuido libremente. El software desarrollado por este proyecto -por ejemplo, GNU Emacs y GCC - también han sido parte fundamental de otros sistemas UNIX.

• Linux: En 1991, cuando Linus Torvalds empezó a proponer el núcleo Linux y a reunir colaboradores, las herramientas GNU eran la elección perfecta. Al combinarse ambos elementos, conformaron la base del sistema operativo (basado en POSIX) que hoy conocemos como Linux. Las distribuciones basadas en el núcleo, el software GNU y otros agregados entre las que podemos mencionar a Red Hat Linux y Debian GNU/Linux se han hecho populares tanto entre los aficionados a la computación como en el mundo empresarial. Obsérvese que Linux tiene un origen independiente, por lo que se considera un 'clónico' de UNIX y no un UNIX en el sentido histórico.
Las interrelaciones entre estas familias son las siguientes, aproximadamente en orden cronológico:

• La familia BSD surge del licenciamiento del UNIX original de AT&T.
• Xenix también surge por licenciamiento del UNIX original de AT&T, aunque aún no era propiedad de SCO.
• AIX surge por licenciamiento de UNIX System III, pero también incorpora propiedad intelectual de BSD.
• La familia original AT&T incorpora ilegalmente propiedad intelectual de BSD en UNIX System III r3.
• La familia AIX vuelve a incorporar propiedad intelectual de la familia AT&T, esta vez procedente de UNIX System V.
• Linux incorpora propiedad intelectual de BSD, gracias a que éste también se libera con una licencia de código abierto denominada Open-source BSD.
• Según SCO Group, Linux incorpora propiedad intelectual procedente de AIX, gracias a la colaboración de IBM en la versión 2.4, mas aún no está demostrado, hay un proceso judicial al respecto: Disputas de SCO sobre Linux.





MacOS,


Macintosh Operative System (Sistema Operativo de Macintosh), es el nombre del primer sistema operativo de Apple para los ordenadores Macintosh. El Mac OS original fue el primer sistema operativo con una interfaz gráfica de usuario en tener éxito. El equipo de Macintosh incluía a Bill Atkinson, Jef Raskin y Andy Hertzfeld.

Hay una gran variedad de puntos de vista sobre cómo fue desarrollado Macintosh y dónde se originaron las ideas subyacentes. Mientras la conexión entre el proyecto Macintosh y el proyecto Alto en Xerox PARC ha sido establecido en los documentos históricos, las contribuciones iniciales del Sketchpad de Ivan Sutherland y el On-Line System de Doug Engelbart no son menos significantes. Véase Historia de la interfaz gráfica de usuario y Apple vs Microsoft.

Apple quitó importancia de forma deliberada a la existencia del sistema operativo en los primeros años de Macintosh para ayudar a hacer que la máquina pareciera más agradable al usuario y a distanciarla de otros sistemas como MS-DOS, que eran un desafío técnico. Apple quería que Macintosh fuera visto como un sistema que trabajara nada más con encenderlo.


CLONES

Varios fabricantes de computadores a través de los años han hecho clones de Macintosh capaces de ejecutar Mac OS, en particular Power Computing, UMAX y Motorola. Estas máquinas ejecutaron varias versiones del Mac OS clásico. Steve Jobs terminó con el programa de licencias para clones después de su regreso a Apple en 1997.

En 2008, una compañía manufacturera en Miami llamada Psystar Corporation, anunció un computador clónico que se vende a $399 suministrada con un sistema modificado que puede ejecutar Mac OS X v10.5. Amenazada con batallas legales, Psystar originalmente llamó al sistema OpenMac, y desde entonces lo cambió a Open Computer.

Ventajas

Mac OS X te ofrece un sistema robusto y a la vez muy amigable, existen muchísimos programas a tu disposición, como microsoft office para mac (versión 2008), msn messenger, skype, entre infinidad de programas uqe puedes temer perder al hacer el cambio.

Además el sistema es altamente enfocado a la multimedia, y con iLife puedes organizar tus fotos, hacer excelentes páginas web y DVDs, con solo unos clicks.
Ademas que Mac OS X 10.5 Leopard es UNIX certificado

Desventajas.....

Quizás los problemas mas grandes vienen en los momentos de adeptación, y olvidar lo horrible que es Windows para empezar a disfrutar del sistema operativo.
Una desventaja es uqe está ligado al hardware, por loq ue solo se ejecuta en máquinas fabricadas por Apple, y no en PCs comunes, lo que trae estabilidad, pero a su vez impide probarlo facilmente en un PC.

En general, todo lo que quieras está en Mac, salvo contados programas que a veces son de un público bastante concreto como Autocad, sin embargo puedes ejecutar Windows dentro de Mac OS X, (sí, los dos al tiempo), gracias a la virtualización.

Como es de imaginar también existen programas que son solo para Mac OS X, y la verdad son impresionantes.

Otra desventaja quizás, es que, a diferencia de Linux, Mac OS X es un sistema cerrado, es decir, software propietario, y Linux es software Libre.

FECHA DE CREACION

26 de Octubre el lanzamiento oficial del Mac OS X 10.5 “Leopard“. La evolución del sistema operativo de Apple continúa y aprovechamos a conocer su historia, desde su nacimiento en 1984 con el Sistema 1 y su respectiva evolución.






MS-DOS


MS-DOS son las siglas de MicroSoft Disk Operating System, Sistema operativo de disco de Microsoft. Es un sistema operativo comercializado por Microsoft perteneciente a la familia DOS. Fue un sistema operativo para el IBM PC que alcanzó gran difusión.La versión de MS-DOS que se escribió para el Intel 8088 no soportaba instrucciones duales, ya que no estaban incorporadas en el procesador. Es decir, no existía en el procesador una división de instrucciones privilegiadas para el sistema operativo e instrucciones ordinarias para los programas comunes. Esta limitación provoca, por ejemplo, que los programas puedan manipular cualquier recurso, que varios programas manipulen un recurso pudiendo generar inconsistencia, hasta el punto de que un programa puede llegar a borrar el propio el sistema operativo.

• PC DOS 1.0 - Liberado en 1981 como complemento al IBM-PC. Primera versión de DOS. Soporta 16 Kb de memoria RAM, disquetes de 5,25 pulgadas de una sola cara de 160 Kb. 22 ordres. Permite archivos con extensión .com y .exe. Incorpora el intérprete de comandos COMMAND.COM.

• PC DOS 1.1 - Corregidos muchos errores, soporta disquetes de doble densidad 1.25 - Primera versión liberada con el nombre MS-DOS.

• MS-DOS 2.0 - Complemento del IBM XT liberado en 1983. Más del doble de nuevos comandos, soporte de disco duro (muy pequeño, alrededor de 5 MB).

• PC DOS 2.1 - Complemento del IBM PCjr. Añadidas algunas mejoras.

• MS-DOS 2.11 - Añadido soporte para otros idiomas (aparte del inglés).

• MS-DOS 2.25 - Versión con un mejor soporte para juegos de caracteres de los idiomas japonés y coreano.

• MS-DOS 3.0 - Diseñado para soportar el nuevo hardware del IBM AT. Añadidas unas pocas características de LAN.

• MS-DOS 3.1 - Añadidas más características y soporte LAN.

• MS-DOS 3.2 - Añadida capacidad para disquetes de 3,5 pulgadas y 720 KB.

• PC DOS 3.3 - Añadido soporte para el ordenador PS/2 de IBM y los nuevos disquetes de 3,5 pulgadas de alta capacidad (1,44 MB). Nuevas páginas de código de caracteres internacionales añadidas, con soporte para 17 países.

• MS-DOS 3.3 - Capacidad para crear particiones de disco superiores a 32 MB. Soporte de 4 puertos serie (antes sólo 2). Incorporación de la orden "Files" para poder abrir hasta 255 archivos simultáneamente.

• MS-DOS 4.0 - Generado con el código fuente de IBM, no con el de Microsoft.
• PC DOS 4.0 - Agregado DOS Shell, algunas mejoras y arreglos.
• MS-DOS 4.01 - Versión para corregir algún error.
• MS-DOS 5.0 - Implementado en 1991, incluyendo más características de administración de memoria y herramientas para soporte de macros, mejora del intérprete de órdenes o shell.

• MS-DOS 6.0 - Liberado en 1993, incluye soporte para Microsoft Windows, utilidades como Defrag (desfragmentación del disco), DoubleSpace (compresión de archivos), MSBackup (copias de seguridad), MSAV (qMicrosoft Anti-Virus), MemMaker, etc.

• MS-DOS 6.2 - Versión para corregir errores.
• MS-DOS 6.21 - Eliminado el soporte de compresión de disco DoubleSpace.
• PC DOS 6.3 - Liberado en abril de 1994.
• MS-DOS 6.22 - Última versión distribuida por separado. Incluido DriveSpace para sustituir a DoubleSpace.
• PC DOS 7.0 - Añade Stacker para reemplazar a DoubleSpace.
• MS-DOS 7.0 - Distribuido junto con Windows 95. Incluye soporte para nombres de archivo largos (hasta ahora habían tenido la restricción del 8+3).
• MS-DOS 7.1 - Integrado en Windows 95 OSR2 y posteriormente en Windows 98 y 98 SE. Soporta sistemas de archivos FAT32.
• MS-DOS 8.0 - Incluido en Windows Me. Es la última versión de MS-DOS.
• PC DOS 2000 - Versión que soluciona el problema del año 2000.








Sistema operativo os/2



Éste es un sistema operativo del que casi todo el mundo ha oído hablar, pero casi nadie ha probado. Son muchos también los que lo halagan sin haber tenido nunca una experiencia previa con él. Quizás estos halagos se deben a un cierto despecho con el sistema operativo que aún siendo el estándar de hecho, no ha respondido a las expectativas suscitadas. Por supuesto, todo el mundo sabe que me refiero a Windows'95.

Los objetivos principales de los diseñadores de OS/2 fueron crear un sistema operativo ideal para la automatizacion de oficinas, proporcionar manejadores graficos independientes de los disposistivos, lograr que las aplicaciones tuvieran acceso directo a perifericos con gran ancho de banda, ofrece capacidad multitarea, proporcionar un ambiente adaptado para cada programa y para sudescendientes, y ofrecer un ambiente protegido para garantizar la estabilidad del sistema.

Historia

OS/2 fue desarrollado originalmente entre IBM y Microsoft como un sucesor multiproceso del DOS para CPUs 286 y mejor, pero la versión 1.x nunca fue aceptada excepto para algunas aplicaciones especificas. Con la versión 2.0, Microsoft dejó la sociedad OS/2, e IBM promovió el OS/2 como un sistema operativo de 32-bit que requería un CPU 386 o mejor. Esta configuración básica no ha cambiado en el OS/2 2.1 o 3.0. La versión que siguió de OS/2 "Merlin" (probablemente llamada 4,0 cuando fuese liberada), no se probará con CPUs 386, y a estas alturas está desconocido si trabajará en un sistema 386 en lo absoluto.

El OS/2 Warp 3.0 es multiproceso, 32-bit, mono-usuario para 386SX y CPU mejores con 4MB o más de RAM. Esta simula al DOS en varias maneras (tal como los órdenes de línea de comandos, y la presencia de un archivo CONFIG.SYS), pero se parece al Mac en otras maneras (ej., la representación de iconos representando archivos) y tiene una similitud con otros operativos en otras maneras (ej., menús que aparecen al pulsar un botón en el tablero (desktop) mismo, estas se usan en X Windows bajo UNIX). Warp incluye una Interface Gráfica para el Usuario (GUI) conocido como el Manejador de Presentación (PM), y un Manejador del escritorio del cual se ejecutan los programas y manipulan los archivos conocido como el WorkPlace Shell (WPS). El PM se asemeja al Windows pero no es igual. El WPS es similar a Windows 95 y el Buscador de Mac, pero generalmente es más flexible y más orientado a objetos que ambos. Una versión de Windows del WPS esta disponible.

OS/2 Warp 3,0 entra a varias versiones con varios niveles de gestión de redes. La primera versión tiene gestión de redes solo por medios Telefónicos(Dial-Up). Otras dos versiones, "Warp Connect" y "Warp Serve", incluye capacidades cliente /servidor, respectivamente. La próxima versión de OS/2 cuyo nombre código es "Merlin", incluirá manejo de red cliente en el paquete básico. Al usarse con Windows para trabajo en grupos 3.1, (WFW), la capacidad de red esta inhabilitada bajo OS/2, pero se puede utilizar esta en WFW, si se ejecuta desde DOS nativo.
Las versión mínima de OS/2 también viene en dos versiones cada una, una que incluye una versión recopilada de Windows (También llamada Win-OS/2), requiere que el usuario tenga Windows 3.1 para ejecutar programas Windows desde OS/2 (También referenciada como la versión para Windows, este termino no es oficial). La versión win-OS/2 algunas veces ejecuta programas Windows con leve mejora de velocidad que en la versión para Windows, y es mas fácil de instalar si el usuario no tiene instalado Windows 3.1; pero la versión para Windows es mas barata.

Warp puede ejecutar en modo texto a OS/2 GUI, y programas DOS. Windows es un programas DOS que Warp puede ejecutar, y es de esta forma que OS/2 provee soporte para Windows; ejecutando Windows sobre modo DOS. Este método de soporte Windows no cambió en Merlin. Nótese que Windows 95 no proveerá soporte de programas Windows para OS/2.


Mucho usuarios nuevos de OS/2, podrán conseguir la versión original "Para Windows", de Warp. La versión "Para Windows", es un poco más barata y usa menos espacio en disco que la versión completa. Alguno que se actualice de la versión 2.1 OS/2 completa debe comprar la versión completa de actualización Warp, que incluye la detección de la versión vieja 2.1 y no se instalará si no la detecta. Alguno que este armando una computadora nueva y que aún no tenga Windows u OS/2 2.X, pero que desee ejecutar programas Windows, debe comprar la versión completa del OS/2 que no es actualización la cual es más cara, pero es más conveniente que comprar la versión "Para Windows", y una copia separada de Windows.

CREACION

OS/2 fue originalmente diseñado por Microsoft con la ayuda de IBM. Desde este punto de vista estas compañías OS/2 iba a reemplazar a MS-DOS. Esto nunca sucedió OS/2 se entregó tarde en incompleto. Aunque tenía unas ventajas obvias sobre MS-DOS, como el uso real de memoria, la ejecución en modo protegido y el soporte de multiprogramación en forma elegante, los usuarios no se interesaron en él.
Un mes de Abril, pero de 1987, su sistema operativo conjunto para su línea de computadores personales, el OS/2.
El Work Place Shell (el shell de trabajo gráfico, de ahora en adelante WPS) fue muy mejorado, resultando un shell totalmente orientado a objetos, con acceso directo a los ficheros, carpetas dentro de carpetas, ficheros sombra (conocidos como alias en los sistemas UNIX) y un escritorio de verdad. A su lado, el shell de Windows 3.0 quedaba a la altura del betún.

el kernel emite un proceso de inicialización, que posteriormente llama a un programa padre (appserver) que se encargara de iniciar diferentes procesos (servers) y sub procesos (clientes).

Durante este llamado (calls) el sistema se encarga de autodetectar hardware y software instalado, generando un registro del mismo. De esta forma cada ves que el usuario instale un nuevo hardware en su maquina o cambie el disco rígido a otra computadora, el sistema autodetectara los cambios e instalara el driver necesario para que funcionen los periféricos correctamente






Linux



LINUX hace su aparicion a principios de la decada de los noventa, era el año 1991 y por aquel entonces un estudiante de informatica de la Universidad de Helsinki, llamado Linus Torvalds empezo, -como una aficion y sin poderse imaginar a lo que llegaria este proyecto, a programar las primeras lineas de código de este sistema operativo llamado LINUX.
Este comienzo estuvo inspirado en MINIX, un pequeño sistema Unix desarrollado por Andy Tanenbaum. Las primeras discusiones sobre Linux fueron en el grupo de noticias comp.os.minix, en estas discusiones se hablaba sobre todo del desarrollo de un pequeño sistema Unix para usuarios de Minix que querian mas.
Linus nunca anuncio la version 0.01 de Linux (agosto 1991), esta version no era ni siquiera ejecutable, solamente incluia los principios del nucleo del sistema, estaba escrita en lenguaje ensamblador y asumia que uno tenia acceso a un sistema Minix para su compilacion.
El 5 de octubre de 1991, Linus anuncio la primera version "Oficial" de Linux, -version 0.02. Con esta version Linus pudo ejecutar Bash (GNU Bourne Again Shell) y gcc (El compilador GNU de C) pero no mucho mas funcionaba. En este estado de desarrollo ni se pensaba en los terminos soporte, documentación, distribucion .Despues de la version 0.03, Linus salto en la numeracion hasta la 0.10, mas y mas programadores a lo largo y ancho de internet empezaron a trabajar en el proyecto y despues de sucesivas revisiones, Linus incremento el numero de version hasta la 0.95 (Marzo 1992). Mas de un año despues (diciembre 1993) el nucleo del sistema estaba en la version 0.99 y la version 1.0 no llego hasta el 14 de marzo de 1994. Desde entonces no se ha parado de desarrollar, la version actual del nucleo es la 2.2 y sigue avanzando dia a dia con la meta de perfeccionar y mejorar el sistema.
Caracteristicas de Linux
Aqui teneis una lista bastante completa con las caracteristicas de LINUX
[Fuente: Infosheet-Como. Autor: Ivan Casado] :
• Multitarea: La palabra multitarea describe la habilidad de ejecutar varios programas al mismo tiempo.
LINUX utiliza la llamada multitarea preeventiva, la cual asegura que todos los programas que se estan utilizando en un momento dado seran ejecutados, siendo el sistema operativo el encargado de ceder tiempo de microprocesador a cada programa.
• Multiusuario: Muchos usuarios usando la misma maquina al mismo tiempo.
• Multiplataforma: Las plataformas en las que en un principio se puede utilizar Linux son 386-, 486-. Pentium, Pentium Pro, Pentium II,Amiga y Atari, tambien existen versiones para su utilizacion en otras plataformas, como Alpha, ARM,MIPS, PowerPC y SPARC.
• Multiprocesador: Soporte para sistemas con mas de un procesador esta disponible para Intel y SPARC.
• Funciona en modo protegido 386.
• Protección de la memoria entre procesos, de manera que uno de ellos no pueda colgar el sistema.
• Carga de ejecutables por demanda: Linux sólo lee del disco aquellas partes de un programa que están siendo usadas actualmente.
• Política de copia en escritura para la compartición de páginas entre ejecutables: esto significa que varios procesos pueden usar la misma zona de memoria para ejecutarse. Cuando alguno intenta escribir en esa memoria, la página (4Kb de memoria) se copia a otro lugar. Esta política de copia en escritura tiene dos beneficios: aumenta la velocidad y reduce el uso de memoria.
• Memoria virtual usando paginación (sin intercambio de procesos completos) a disco: A una partición o un archivo en el sistema de archivos, o ambos, con la posibilidad de añadir más áreas de intercambio sobre la marcha Un total de 16 zonas de intercambio de 128Mb de tamaño máximo pueden ser usadas en un momento dado con un límite teórico de 2Gb para intercambio. Este limite se puede aumentar facilmente con el cambio de unas cuantas lineas en el código fuente.
• La memoria se gestiona como un recurso unificado para los programas de usuario y para el caché de disco, de tal forma que toda la memoria libre puede ser usada para caché y ésta puede a su vez ser reducida cuando se ejecuten grandes programas.
• Librerías compartidas de carga dinámica (DLL's) y librerías estáticas.
• Se realizan volcados de estado (core dumps) para posibilitar los qanálisis post-mortem, permitiendo el uso de depuradores sobre los programas no sólo en ejecución sino también tras abortar éstos por cualquier motivo.
• Compatible con POSIX, System V y BSD a nivel fuente.
• Emulación de iBCS2, casi completamente compatible con SCO, SVR3 y SVR4 a nivel binario.
• Todo el código fuente está disponible, incluyendo el núcleo completo y todos los drivers, las herramientas de desarrollo y todos los programas de usuario; además todo ello se puede distribuir libremente. Hay algunos programas comerciales que están siendo ofrecidos para Linux actualmente sin código fuente, pero todo lo que ha sido gratuito sigue siendo gratuito.
• Control de tareas POSIX.
• Pseudo-terminales (pty's).
• Emulación de 387 en el núcleo, de tal forma que los programas no tengan que hacer su propia emulación matemática. Cualquier máquina que ejecute Linux parecerá dotada de coprocesador matemático. Por supuesto, si el ordenador ya tiene una FPU (unidad de coma flotante), esta será usada en lugar de la emulación, pudiendo incluso compilar tu propio kernel sin la emulación matemática y conseguir un pequeño ahorro de memoria.
• Soporte para muchos teclados nacionales o adaptados y es bastante fácil añadir nuevos dinámicamente.
• Consolas virtuales múltiples: varias sesiones de login a través de la consola entre las que se puede cambiar con las combinaciones adecuadas de teclas (totalmente independiente del hardware de video). Se crean dinámicamente y puedes tener hasta 64.
• Soporte para varios sistemas de archivo comunes, incluyendo minix-1, Xenix y todos los sistemas de archivo típicos de System V, y tiene un avanzado sistema de archivos propio con una capacidad de hasta 4 Tb y nombres de archivos de hasta 255 caracteres de longitud.
• Acceso transparente a particiones MS-DOS (o a particiones OS/2 FAT) mediante un sistema de archivos especial: no es necesario ningún comando especial para usar la partición MS-DOS, esta parece un sistema de archivos normal de Unix (excepto por algunas restricciones en los nombres de archivo, permisos, y esas cosas). Las particiones comprimidas de MS-DOS 6 no son accesibles en este momento, y no se espera que lo sean en el futuro. El soporte para VFAT (WNT, Windows 95) ha sido añadido al núcleo de desarrollo y estará en la próxima versión estable.
• Un sistema de archivos especial llamado UMSDOS que permite que Linux sea instalado en un sistema de archivos DOS.
• Soporte en sólo lectura de HPFS-2 del OS/2 2.1
• Sistema de archivos de CD-ROM que lee todos los formatos estándar de CD-ROM.
• TCP/IP, incluyendo ftp, telnet, NFS, etc.
• Appletalk.
• Software cliente y servidor Netware.
• Lan Manager / Windows Native (SMB), software cliente y servidor.
• Diversos protocolos de red incluidos en el kernel: TCP, IPv4, IPv6, AX.25, X.25, IPX, DDP, Netrom, etc.








Windows NT


(Nueva Tecnología) es una familia de sistemas operativos producidos por Microsoft, de la cual la primera versión fue publicada en julio de 1993. Al principio fue diseñado para ser un poderoso sistema operativo multiusuario, basado en lenguaje de alto nivel, independiente del procesador, con rasgos comparables con Unix. Su intención fue la de complementar las versiones de consumidor de las Windows que estaban basadas en el MS-DOS. NT era la primera versión totalmente en 32 bits de Windows, mientras que sus colegas orientados al consumidor, Windows 3.1x y Windows 9x, eran de 16-bit/32-bit híbridos. Windows 2000, Windows XP, Windows Server 2003, Windows Vista, Windows Server 2008, y Windows Home Server están basados sobre el sistema de Windows NT, aunque ellos no esten marcados como Windows NT.
Previamente a la aparición del famoso Windows 95 la empresa Microsoft concibió una nueva línea de sistemas operativos orientados a estaciones de trabajo y servidores de red. Un sistema operativo con interfaz gráfica propia, estable y con características similares a los sistemas de red UNIX. Las versiones publicadas de este sistema son: 3.1, 3.5, 3.51 y 4.0. Además, Windows NT se distribuía en dos versiones, dependiendo de la utilidad que se le fuera a dar: Workstation para ser utilizado como estación de trabajo y Server para ser utilizado como servidor.
Windows 98
Es un sistema operativo gráfico publicado el 25 de junio de 1998 por Microsoft y el sucesor de Windows 95. Como su predecesor, es un producto monolítico híbrido de 16 y 32 bits.
La primera edición de Windows 98 fue designada por los números de versión internos 4.10.1998, o 4.10.1998A si había sido actualizado con el CD de seguridad de Microsoft. Windows 98 Segunda Edición está designado por los números de versión internos 4.10.2222A ó 4.10.2222B si había sido actualizado con el CD de seguridad de Microsoft. El sucesor de Windows 98 es Windows Me.
Windows 98 Segunda Edición (SE) es una actualización de Windows 98, publicada el 5 de mayo de 1999 Que fue publicada por un Juicio antimonopolio que perdió Microsoft por hacer que Internet Explorer sea parte de Windows 98. Incluye correcciones para muchos problemas menores, un soporte USB mejorado, y el reemplazo de Internet Explorer 4.0 con el considerablemente más rápido Internet Explorer 5. También se incluyó la Conexión Compartida a Internet, que permitía a múltiples ordenadores en una LAN compartir una única conexión a Internet por medio de NAT. Otras características en la actualización incluyen Microsoft NetMeeting 3.0 y soporte integrado de unidades DVD-ROM. La actualización ha sido un producto exitoso.[cita requerida] No obstante, no se trata de una actualización gratuita para los compradores de Windows 98 (primera edición), lo que es un problema notable dado que algunos programas necesitan Windows 98SE.
Ventajas: Si eres novato, aprendes muchas cosas.
Desventajas: A poco que sepas de Windows ... no sirve apenas
Ventajas: Muy detallado
Desventajas: Me lo dejaron , porque es un poco caro
Ventajas: sencillo de leer y claro
Desventajas: para el que conoce windows es completamente inútil
Ventajas: me ayudo bastante
Desventajas: algunos ejemplos
Ventajas: Buenas explicaciones
Ventajas: Informacion y asesoramiento excelente
Desventajas: Nada a la vista.
Ventajas: es facil de entender
Desventajas: a la hora de solucionar problemas
Windows 95
Es un sistema operativo con interfaz gráfica de usuario híbrido de entre 16 y 32 bits. Fue publicado el 24 de agosto de 1995 por la empresa de software Microsoft con notable éxito de ventas. Durante su desarrollo se conoció como Windows 4 o por el nombre Chicago.
Sustituyó a MS-DOS como sistema operativo y a Windows 3.x como entorno gráfico. Se encuadra dentro de la familia de sistemas operativos de Microsoft denominada Windows 9x. En la versión OSR2 (OEM Service Release 2) incorporó el sistema de archivos FAT32, además del primer atisbo del entonces novedoso USB.
Sus sucesores directos fueron Windows 98 y Windows ME. Con la unificación de las línea profesional y la doméstica con Windows XP, esta familia de sistemas Windows actualmente continúa su desarrollo con Windows Vista.
Existen versiones tanto en disquetes como en CD-ROM. La versión en 13 disquetes utilizaba un formato no estándar conocido como DMF que les permitía almacenar una capacidad mayor a la normal de 1.44 MB. La versión en CD-ROM ofrecía una selección de accesorios y complementos multimedia mucho mayor, además de algunos controladores de dispositivos, juegos y versiones de demostración de algunos programas.
Durante la instalación se crea un disquete de rescate, con MS-DOS 7.0. Ésta versión de MS-DOS estaba restringida, ya que inhabilitaba ciertas partes que con anteriores versiones estaban disponibles a través de la BIOS del PC, como el acceso al puerto serie, en la que una llamada es simplemente devuelta sin modificación alguna, apuntando a una instrucción RET (lenguaje ensamblador), mientras que con versiones anteriores, aún apuntaban a la rutina existente en la propia BIOS.

Como funciona la BIOS

BIOS

La BIOS sólo se encarga de gestionar los sistemas I/O, pero es bastante más que eso, podríamos decir que es el sistema operativo del hardware del ordenador. Sin la BIOS no hay ordenador, sin ella no podría ponerse en marcha. Controla el proceso de arranque del sistema operativo y está presente para realizar las funciones y accesos al más bajo nivel.

Físicamente es un chip de memoria en el que se almacena un código que el ordenador utiliza al conectarse la corriente. El código marca los pasos para que el hardware se inicie y compruebe los componentes.

El chip que almacena el código de la BIOS se encuentra en nuestra placa base, puede estar soldado a ella o puede estar en un zócalo por lo que se puede sustituir. Hay tres tipos de BIOS y su diferencia está en el método que se utiliza para grabarla:

1. ROM ---> Sólo se puede grabar en el momento que se fabrica el chip. La información que contiene no se puede alterar.
2. EPROM ---> Estos chips se pueden grabar con luz ultravioleta. En la parte superior del chip se puede apreciar una especie de ventanilla transparente, que suele estar tapada con una pegatina. Estas BIOS se encuentra principalmente en 286 y 386.
3. Flash BIOS ---> Son los más utilizados en la actualidad. Estos chips se pueden grabar mediante impulsos eléctricos por lo que el propietario del ordenador la puede actualizar con un programa.

Otro componente que está ligado directamente a la BIOS es la CMOS: Complementary Metal Oxide Semiconductor. Es una pequeña porción de RAM, que almacena los valores y ajustes de la BIOS: la hora, la fecha y los parámetros de los dispositivos de nuestro ordenador. La CMOS, al ser memoria RAM, tiene que estar continuamente enganchada a la corriente eléctrica para no perder la información. Cuando nosotros apagamos el ordenador entra en funcionamiento una pila de litio situada en la placa base. Esta pila no es recargable y tiene una vida aproximada de cinco o seis años.
Entre otros, la BIOS contiene el programa de configuración: los menús y pantallas que aparecen cuando accedemos a los parámetros del sistema, es decir , al pulsar una secuencia de teclas cuando la máquina arranca. El interface que utilizan estos programas actualmente es mucho más amigable que hace unos años. Ahora te hacen sugerencias, te dicen dónde hay que pulsar, detectan automáticamente los componentes... Anteriormente para instalar cualquier dispositivos necesitaríamos ser muy experto para utilizar menos de 30 intentos!!!
El sistema Básico de entrada/salida Basic Input-Output System (BIOS) es un código de interfaz que localiza y carga el sistema operativo en la R.A.M.; es un software muy básico instalado en la placa base que permite que ésta cumpla su cometido. Proporciona la comunicación de bajo nivel, el funcionamiento y configuración del hardware del sistema que, como mínimo, maneja el teclado y proporciona salida básica (emitiendo pitidos normalizados por el altavoz de la computadora si se producen fallos) durante el arranque. El BIOS usualmente está escrito en lenguaje ensamblador. El primer término BIOS apareció en el sistema operativo CP/M, y describe la parte de CP/M que se ejecutaba durante el arranque y que iba unida directamente al hardware (las máquinas de CP/M usualmente tenían un simple cargador arrancable en la ROM, y nada más). La mayoría de las versiones de MS-DOS tienen un archivo llamado "IBMBIO.COM" o "IO.SYS" que es análogo al CP/M BIOS.
En los primeros años de la vidasistemas operativos para PC (como el DOS), el BIOS todavía permanecía activo tras el arranque y funcionamiento del sistema operativo. El acceso a dispositivos como la disquetera y el disco duro se hacían a través del BIOS. Sin embargo, los sistemas operativos SO más modernos realizan estas tareas por sí mismos, sin necesidad de llamadas a las rutinas del BIOS.
Al encender la computadora, la BIOS se carga automáticamente en la memoria principal y se ejecuta desde ahí por el procesador (aunque en algunos casos el procesador ejecuta la BIOS leyéndola directamente desde la ROM que la contiene), cuando realiza una rutina de verificación e inicialización de los componentes presentes en la computadora, a través de un proceso denominado POST (Power On Self Test). Al finalizar esta fase busca el código de inicio del sistema operativo (bootstrap) en algunos de los dispositivos de memoria secundaria presentes, lo carga en memoria y transfiere el control de la computadora a éste.
Se puede resumir diciendo que el BIOS es el firmware presente en computadoras IBM PC y compatibles, que contiene las instrucciones más elementales para el funcionamiento de las mismas por incluir rutinas básicas de control de los dispositivos de entrada y salida. Está almacenado en un chip de memoria ROqM o Flash, situado en la placa base de la computadora. Este chip suele denominarse en femenino "la BIOS", pues se refiere a una memoria (femenino) concreta; aunque para referirnos al contenido, lo correcto es hacerlo en masculino "el BIOS", ya que nos estamos refiriendo a un sistema (masculino) de entrada/salida.
El principal defecto de este componente es que mantiene prácticamente fiel a su estructura que lucía a principios de los 80. Incluso los microprocesadores más modernos de 64 bits de doble núcleo funcionan en modo real de 16 bits cuando encendemos el PC, emulando al procesador Intel 8086 de 1978. En estas circunstancias, la memoria principal que va más allá del primer MB no puede utilizarse durante el arranque de la máquina. Además, las tarjetas de video, de expansión y, en general, los dispositivos que deben permanecer accesibles en este proceso, tienen que incorporar una memoria de lectura de 128 kbytes.
Otra importante desventaja es que siguen programándose en lenguaje ensamblador, más óptimo en ejecución pero más complejo de desarrollar y mantener. Aun así, se ha añadido nuevas funciones a la BIOS que han contribuido de forma decisiva a incrementar su complejidad. Los BIOS anteriores a 1995 no reconocen los discos duros de más de 4 TB de capacidad.
PIC 8259ª
Es un tipo de controlador programable de interrupciones (o PIC) incluido en las antiguas PCs x86.

Actualmente no es incluido como un chip separado, sino que las mismas funcionalidades son realizadas en una parte del puente sur (southbridge) de la placa madre de la computadora.

En otros casos, el PIC 8259A ha sido reemplazado por versiones más modernas como el Advanced Programmable Interrupt Controllers (APIC), que soporta muchas más interrupciones de salida y esquemas de prioridades más flexibles.

viernes, 12 de septiembre de 2008

MINICOMPUTADORA, pascalina, PDP-8, DEC PDP1,Telar de Jacquard, UNIVAC 1946, VLSI, Workstation








ENIAC 1947, IBM 360, Leibniz (1646-1716), LSI,macrocomputadora, Maquina analitica de babbage, Maquina de Hollevith (1880), Memoria Flash, microcomputa









Cinta magnetica, Disco duro, Disquet



abaco,CD,CD-R,



Investigar la clasificación de las empresas por su naturaleza jurídica.

INDUSTRIALES

Son aquellas en las cuales la actividad esencial es la producción de productos o bienes, mediante la extracción de materias primas.

SOCIALES

Se constituye la empresa con el propósito de explotar y ganar más dinero, grupo organizado como empresa para beneficio de los integrantes E.A.T, aparentemente son empresas que lo más importante para ellas es el factor social de ayuda y apoyo a la comunidad, en este grupo pertenecen todas las cooperativas sin importar a que actividad se dedican lo más importante es el bienestar de los asociados y su familia.

COMANDITARIA

Es aquella en que existen por una parte los socios capitalistas llamados también comanditarios y por otra parte están los socios gestores que son los que se obligan a administrar el aporte hecho por los socios capitalistas a la caja social. Y sus socios capitalistas desean tener injerencia en su administración.

LIMITADA

Es aquella en todos los socios administran por derecho propio por todos los socios, aunque generalmente se opta por delegar la administración a uno de los socios o a terceros. Los socios son responsables solo hasta el monto de sus aportes o la suma mayor que se indique en los estatutos sociales, esto es que en caso que esta presente problemas económicos los socios no corren el riesgo de perder todos sus bienes, sino que responderán solo con el monto que hayan aportado al capital de la empresa.

SOCIEDAD ANONIMA

Es aquella que esta constituida de un capital social en un fondo común dividido en acciones y la administración esta a cargo de un directorio compuesto por miembros elegidos y renovados en las juntas generales ordinarias de accionistas.
La ley introduce dos formas especiales de sociedades anónimas:

SOCIEDAD ANONIMA ABIERTA

Es aquella que hace oferta pública de sus acciones según la Ley de Mercado de Valores, que tienen 500 o más accionistas o al menos el 10% de su capital suscrito a un mínimo de 100 personas. Estas son fiscalizadas por la Superintendencia de Valores y Seguros y distribuyen dividendos en efectivo equivalentes al menos al 30% de sus utilidades netas en cada periodo, a menos que se acuerde lo contrario en la junta ordinaria de accionistas.

SOCIEDAD ANONIMA CERRADA

Son aquellas que no cumplen con ninguno de los requisitos anteriores. Las sociedades anónimas cerradas tienen la libertad para definir en sus estatutos la forma que estimen conveniente la distribución de sus utilidades.

Investigar que lenguajes o códigos se manejaban en la primera generación de computadoras.

Se programaban en lenguaje de máquina de códigos binarios, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Los ordenadores trabajan internamente con dos niveles de voltaje, por lo que su sistema de numeración natural es el sistema binario (encendido 1, apagado 0).

Investigar el procedimiento de tarjetas perforadas.

El telar de Jacquard opera de la manera siguiente: las tarjetas se perforan estratégicamente y se acomodan en cierta secuencia para indicar un diseño de tejido particular.

Charles Babbage quiso aplicar el concepto de las tarjetas perforadas del telar de Jackard en su motor analítico.

En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas pudieran adaptarse de manera que proporcionaran que el motor de Babbage repitiera ciertas operaciones.

Debido a esta sugerencia algunas personas consideran a Lady Lovelace la primera programadora.

Investigar como funcionan FORTRAN Y COBOL

FORTRAN

Originalmente desarrollado por IBM en la década de 1950 para científicos y aplicaciones de ingeniería, Fortran llegaron a dominar este campo de la programación a comienzos y ha estado en uso continuo durante más de medio siglo computacionalmente intensivas en ámbitos tales como la predicción numérica del tiempo, análisis de elementos finitos, cálculo de fluidos dinámica (CFD), Física Computacional, y química computacional. Es uno de los idiomas más populares en el área de computación de alto rendimiento y programas a rango de referencia y el más rápido del mundo superordenadores están escritos en Fortran.
El primer manual para FORTRAN apareció en octubre de 1956, con la primera FORTRAN compilador emitido en abril de 1957. Se trataba de una optimización de compilador, porque los clientes se muestran reacios a utilizar un alto nivel de lenguaje de programación a menos que su compilador podría generar código cuyo rendimiento es comparable a la de la mano con código de lenguaje ensamblador.
La versión inicial de FORTRAN para el IBM 704 que figuran 32 estados, incluyendo:
• DIMENSIÓN DE EQUIVALENCIA y declaraciones
• Asignación de estados
• SI declaraciones para el control de excepciones (acumulador OVERFLOW, COCIENTE OVERFLOW, y dividir CHECK), y si las declaraciones para manipular el sentido y el sentido cambia las luces
• GOTO, calculada GOTO, ceder, y se les asignará GOTO
• Bucles
• Compaginado I / O: FORMATO, LEA, LEA INPUT TAPE, ESCRIBIR, ESCRIBIR CINTA DE SALIDA, imprimir y PUNCH
• Sin formatear I / O: LEA LAS CINTAS, DRUM LEER, ESCRIBIR cinta, y WRITE DRUM
• Otros I / O: FIN DE ARCHIVOS, rebobinar, y BACKSPACE
• PAUSE, STOP, y continuar
• FRECUENCIA declaración (para proporcionar la optimización de pistas para que el compilador)



COBOL

El lenguaje COBOL (acrónimo de Common Business -Oriented Language, Lenguaje Común Orientado a Negocios) fue creado en el año 1960 con el objetivo de crear un lenguaje de programación universal que pudiera ser usado en cualquier ordenador.
COBOL fue dotado de unas excelentes capacidades de auto documentación, una buena gestión de archivos y una excelente gestión de los tipos de datos para la época, a través de la conocida sentencia PICTURE para la definición de campos estructurados.

Buscar información de LSI y VLSI.

LSI

LSI (grande escala de integración),
A finales de los años 60's y principios de los años 70's surgieron los LSI (gran escala de integración). La tecnología LSI fue haciendo posible más y más circuitos digitales en un circuito integrado. Pero pocos circuitos LSI fueron producidos, los dispositivos de memoria fueron un buen ejemplo.


VLSI


Very Large Scale Integration, integración en escala muy grande.
La integración en escala muy grande de sistemas de circuitos basados en transistores en circuitos integrados comenzó en los años 1980, como parte de las tecnologías de semiconductores y comunicación que se estaban desarrollando.

Los primeros chips semiconductores contenían sólo un transistor cada uno. A medida que la tecnología de fabricación fue avanzando, se agregaron más y más transistores, y en consecuencia más y más funciones fueron integradas en un mismo chip. El microprocesador es un dispositivo VLSI.

La primera generación de computadoras dependía de válvulas de vacío. Luego vinieron los semiconductores discretos, seguidos de circuitos integrados. Los primeros CIs contenían un pequeño número de dispositivos, como diodos, transistores, resistencias y capacitores (aunque no inductores), haciendo posible la fabricación de compuertas lógicas en un solo chip. La cuarta generación (LSI) consistía de sistemas con al menos mil compuertas lógicas. El sucesor natural del LSI fue VLSI (varias decenas de miles de compuertas en un solo chip). Hoy en día, los microprocesadores tienen varios millones de compuertas en el mismo chip.

Hacia principios de 2006 se están comercializando microprocesadores con tecnología de hasta 65 nm, y se espera en un futuro cercano el advenimiento de los 45 nm.

Buscar información de una microcomputadora, minicomputadora y supercomputadora.


Microcomputadora


El Commodore 64 fue uno de los más famosos microordenadores de su época.
Una microcomputadora es una computadora que tiene un microprocesador (unidad central de procesamiento).

Generalmente, el microprocesador tiene los circuitos de almacenamiento (o memoria caché) y entrada/salida en el mismo circuito integrado (o chip). El primer microprocesador comercial fue el Intel 4004, que salió el 15 de noviembre de 1971.
Desde el lanzamiento de la computadora personal de IBM, el IBM PC, el término computadora personal se aplica a las microcomputadora orientados a los consumidores. La primera generación de microcomputadora fue conocida también como computadoras domésticas. Se puede encontrar más información en las secciones correspondientes.
Fue el lanzamiento de la hoja de cálculo VisiCalc lo que hizo que los microcomputadoras dejasen de ser un pasatiempo para los aficionados de la informática para convertirse en una herramienta de trabajo. Sus principales características son:

• Velocidad de procesamiento: Decenas de millones de instrucciones por segundo.
• Usuario a la vez: Uno (Por eso se llaman Personales).
• Tamaño: Pequeña, o portátiles.
• Facilidad de uso: Supuestamente fáciles de usar.
• Clientes usuales: Pequeñas empresas, oficinas, escuelas, individuos.
• Penetración social: Mediana.
• Impacto social: Alto, en los países industrializados.
• Parque instalado: Cientos de millones en el mundo.
• Costo: Pocos cientos de dólares estadounidenses.

Minicomputadora

Actualmente más conocidos como servidores, la conjunción con terminales tontos sin capacidad de cálculo propia.

El declive tuvo lugar debido al menor coste del soporte físico basado en microprocesadores y el deseo de los usuarios finales de depender menos de los inflexibles terminales tontos, con el resultado de que los minicomputadoras y los falsos terminales fueron remplazados por computadoras personales interconectados entre sí y con un servidor.

El cambio fue facilitado no solo por el microprocesador, sino también por el desarrollo de varias versiones de Unix multiplataforma (con microprocesadores Intel incluidos) como Solaris, Linux y FreeBSD. La serie de sistemas operativos Microsoft Windows, a partir de Windows NT, también incluye versiones de servidor que soportan multitareas y otras funciones para servidores.
Como ejemplo de lo explicado, Hewlett-Packard se refiere ahora a su serie de minicomputadoras HP3000 como servidores.

Modelos de minicomputadoras [editar]
• DEC VAX
• Data General Nova
• IBM AS/400 y RS/6000
• Hewlett-Packard HP3000
• Norsk Data Nord-1, Nord-10 y Nord-100
• Prime 50-series

Supercomputadora

Interior de un supercomputador CRAY T3DSupercomputadora o Superordenador es una computadora con capacidades de cálculo muy superiores a las comúnmente disponibles de las máquinas de escritorio de la misma época en que fue construida.

Hoy en día el diseño de Supercomputadoras se sustenta en 4 importantes tecnologías:
La tecnología de registros vectoriales, creada por Cray, considerado el padre de la Supercomputación, quien inventó y patentó diversas tecnologías que condujeron a la creación de máquinas de computación ultra-rápidas. Esta tecnología permite la ejecución de innumerables operaciones aritméticas en paralelo.

El sistema conocido como M.P.P. por las siglas de Massively Parallel Processors o Procesadores Masivamente Paralelos, que consiste en la utilización de cientos y a veces miles de microprocesadores estrechamente coordinados.

La tecnología de computación distribuida: los clusters de computadoras de uso general y relativo bajo costo, interconectados por redes locales de baja latencia y el gran ancho de banda.

Cuasi-Supercómputo: Recientemente, con la popularización de Internet, han surgido proyectos de computación distribuida en los que software especiales aprovechan el tiempo ocioso de miles de ordenadores personales para realizar grandes tareas por un bajo costo. A diferencia de las tres últimas categorías, el software que corre en estas plataformas debe ser capaz de dividir las tareas en bloques de cálculo independientes que no se ensamblaran ni comunicarán por varias horas. En esta categoría destacan BOINC y Folding@home.

Por su alto costo, el uso de superordenadores verdaderos está limitado a organismos gubernamentales, militares y grandes centros de investigación, en donde tienen aplicaciones científicas, como en la simulación de procesos naturales (previsión del tiempo, análisis de cambios climáticos, entre otros procesos), modelaje molecular, simulaciones físicas como túneles de viento, criptoanálisis, etc.
Este tipo de máquinas generalmente tiene su arquitectura proyectada y optimizada enteramente con la aplicación final en mente.

Una supercomputadora es un tipo de computadora muy potente y rápida, diseñada para procesar enormes cantidades de información en poco tiempo y dedicada a una tarea específica.

Investigar la Quinta generación de computadoras

Quinta generación de computadoras

La quinta generación de computadoras fue un proyecto ambicioso lanzado por Japón a finales de los 70. Su objetivo era el desarrollo de una clase de computadoras que utilizarían técnicas de inteligencia artificial al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo).

El proyecto duró diez años, pero no obtuvo los resultados esperados: las computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto nos llevará se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla.

Antecedentes y Diseño del Proyecto a través de las múltiples generaciones desde los años 50, Japón había sido el seguidor en términos del adelanto y construcción de las computadoras de los Modelos de los Estados Unidos y el Reino Unido. Japón decidió romper con esta naturaleza de seguir a los líderes y a mediados de la década de los 70 comenzó a abrirse camino hacia un futuro en la industria de la informática. El centro del desarrollo y proceso de la información de Japón fue el encargado llevar a cabo un plan para desarrollar el proyecto. En 1979 ofrecieron un contrato de tres años para realizar estudios más profundos junto con industria y la academia. Fue durante este período cuando el término "computadora de quinta generación" comenzó a ser utilizado.

Los campos principales para la investigación de este proyecto inicialmente eran:

Tecnologías para el proceso del conocimiento.

Tecnologías para procesar bases de datos y bases de conocimiento masivo.

Sitios de trabajo del alto rendimiento.

Informáticas funcionales distribuidas.

Supercomputadoras para el cálculo científico.

Debido a la conmoción suscitada que causó que los japoneses fueran exitosos en el área de los artículos electrónicos durante la década de los 70, y que prácticamente hicieran lo mismo en el área de la automoción durante los 80, el proyecto de la quinta generación tuvo mucha reputación entre los otros países.

Tal fue su impacto que se crearon proyectos paralelos. En Estados Unidos, la Corporación de Microelectrónica y Tecnologías de la Computación, en Inglaterra fue Alves, y en Europa su reacción fue conocida como el Programa Europeo en Investigación Estratégica de la Tecnología de la Información.

Como uno de los productos finales del Proyecto se desarrollaron 5 Maquinas de Inferencia Paralela (PIM) teniendo como una de sus características principales 256 elementos de Procesamiento Acoplados en red. El proyecto también produjo herramientas que se podían utilizar con estos sistemas tales como el Sistema Paralelo de Gerencia de Bases de Datos Kappa, el Sistema de Razonamiento Legal HELIC-II y el Teorema Autómata de Aprobaciones MGTP.

Modelo de Von Newman

Modelo de Von Newman¡¡¡

Su diseño básico, ahora conocido como una Máquina de Von Neumann, se usó en la EDSAC para la primera computadora que almacenaba el programa, y constituye todavía la base para la mayoría de las computadoras digitales, casi medio siglo después. Este diseño y la máquina IAS, construida en colaboración con Herman Goldstine, ha tenido una influencia tan grande.

La Máquina de Von Neumann tenía cinco partes básicas: la memoria, la unidad aritmética-lógica, la unidad de control del programa y los equipos de entrada y salida.

COMPONENTES:

La Memoria: Constaba de 4096 palabras, cada una con 40 bits (0 o 1).
* Cada palabra podía contener dos instrucciones de 20 bits o un número entero de 39 bits y su signo.

* Las instrucciones tenían 8 bits dedicados a señalar el tipo de la misma y 12 bits para especificar alguna de las 4096 palabras de la memoria.
Unidad de Control: Determina cual es la siguiente instrucción a ejecutar y se la pasa al ALU.

ALU (Aritmética Lógica Unidad): La Unidad Aritmética Lógica, es el �TALLER� donde se ejecutan las instrucciones.
Acumulador: 40 bits que sirven para:
* Recibir datos de entrada.
* Enviar datos a la salida.
* Guardar el resultado de la última operación.

Investigar Protocolo TCP/IP

Protocolo TCP/IP
Es un protocolo DARPA que proporciona transmisión fiable de paquetes de datos sobre redes. El nombre TCP / IP Proviene de dos protocolos importantes de la familia, el Transmission Contorl Protocol (TCP) y el Internet Protocol (IP). Todos juntos llegan a ser más de 100 protocolos diferentes definidos en este conjunto.
El TCP / IP es la base del Internet que sirve para enlazar computadoras que utilizan diferentes sistemas operativos, incluyendo PC, minicomputadoras y computadoras centrales sobre redes de área local y área extensa. TCP / IP fue desarrollado y demostrado por primera vez en 1972 por el departamento de defensa de los Estados Unidos, ejecutándolo en el ARPANET una red de área extensa del departamento de defensa.
COMANDOS TCP/IP
TCP/IP incluye dos grupos de comandos utilizados para suministrar servicios de red:
Los comandos remotos BERKELEY
Los comandos DARPA
Los comandos remotos BERKELEY, que fueron desarrollados en la Universidad Berkeley (California), incluyen órdenes para comunicaciones entre sistemas operativos UNIX, como copia remota de archivos, conexión remota, ejecución de shell remoto, etc.
Permiten utilizar recursos con otros hosts, pudiendo tratar distintas redes como si fueran una sola.
En la versión 4 para UNIX Sistema V, se pueden distinguir los siguientes comandos más comunes:
RCP Realiza una copia de archivos al mismo o a otro servidor
RLOGINGL-RLOGINVT Se utiliza para hacer una conexión al mismo o a otro servidor
REXEC-RSH Permite ejecutar comandos del sistema operativo en
COMO FUNCIONA TCP/IP
Una red TCP/IP transfiere datos mediante el ensamblaje de bloques de datos en paquetes, cada paquete comienza con una cabecera que contiene información de control; tal como la dirección del destino, seguido de los datos. Cuando se envía un archivo por la red TCP/IP, su contenido se envía utilizando una serie de paquetes diferentes. El Internet protocolo (IP), un protocolo de la capa de red, permite a las aplicaciones ejecutarse transparentemente sobre redes interconectadas. Cuando se utiliza IP, no es necesario conocer que hardware se utiliza, por tanto ésta corre en una red de área local.
El Transmissión Control Protocol (TCP); un protocolo de la capa de transporte, asegura que los datos sean entregados, que lo que se recibe, sea lo que se pretendía enviar y que los paquetes que sean recibidos en el orden en que fueron enviados. TCP terminará una conexión si ocurre un error que haga la transmisión fiable imposible.
ADMINISTRACION TCP/IP
TCP/IP es una de las redes más comunes utilizadas para conectar computadoras con sistema UNIX. Las utilidades de red TCP/IP forman parte de la versión 4, muchas facilidades de red como un sistema UUCP, el sistema de correo, RFS y NFS, pueden utilizar una red TCP/CP para comunicarse con otras máquinas.
Para que la red TCP/IP esté activa y funcionando será necesario:
• Obtener una dirección Internet.
• Instalar las utilidades Internet en el sistema
• Configurar la red para TCP/IP
• Configurar los guiones de arranque TCP/IP
• Identificar otras máquinas ante el sistema
• Configurar la base de datos del o y ente de STREAMS
• Comenzar a ejecutar TCP/IP.

Definicion de computadora

Definición de computadora

Computadora

Una computadora (del latín computare -calcular-), también denominada como ordenador o computador, es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, sorprendente rapidez, y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una múltiple variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output". La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, pudiendo ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento
La característica principal que la distingue de otros dispositivos similares, como una calculadora no programable, es que puede realizar tareas muy diversas cargando distintos programas en la memoria para que el microprocesador los ejecute.

Dispositivo de almacenamiento

CD:

El disco compacto (conocido popularmente como CD, por las siglas en inglés de Compact Disc) es un soporte digital óptico utilizado para almacenar cualquier tipo de información (audio, vídeo, documentos y otros datos). En español o castellano, se puede escribir «cedé» o, como acepta la Real Academia Española, «cederrón» (CD-ROM).

CD-R

Un CD-R es un formato de disco compacto grabable]. Se pueden grabar en varias sesiones, sin embargo la información agregada no puede ser borrada ni sobrescrita, en su lugar se debe usar el espacio libre que dejó la sesión inmediatamente anterior.
Actualmente las grabadoras llegan a grabar CD-R a 52x, unos 7800 KB/s.
Para muchos ordenadores es difícil mantener esta tasa de grabación y por ello la grabadoras tienen sistemas que permiten retomar la grabación ante un corte en la llegada de datos.
La capacidad total de un CD-R suele ser:
650 MB = 681,57 millones de bytes
700 MB = 734 millones de bytes. El más común.
800 MB = 838 millones de bytes.
900 MB = 943 millones de bytes.
Estas capacidades son válidas para discos de datos. Los formatos VCD, SVCD o el CD-Audio usan otro formato, el CD-XA que utiliza partes del CD que en los CD de datos se utilizan para corrección de errores. Así se obtiene un 13,5% más de capacidad a cambio de una mayor sensibilidad a arañazos y otras agresiones.

DVD

El DVD (también conocido como "Digital Versatile Disc" o "Disco Versátil Digital", debido a su popular uso en películas algunos lo llaman Disco de Video Digital) es un formato de almacenamiento óptico que puede ser usado para guardar datos, incluyendo películas con alta calidad de vídeo y audio. Se asemeja a los discos compactos en cuanto a sus dimensiones físicas (diámetro de 12 u 8 centímetros), pero están codificados en un formato distinto y a una densidad mucho mayor. A diferencia de los CD, todos los DVD deben guardar los datos utilizando un sistema de archivos denominado UDF (Universal Disk Format), el cual es una extensión del estándar ISO 9660, usado para CD de datos. El DVD Forum (un consorcio formado por todas las organizaciones que han participado en la elaboración del formato) se encarga de mantener al día sus especificaciones técnicas.

CD-RW

Un disco compacto reescribible (conocido popularmente como CD-RW, "Compact Disc-Re Writable") es un soporte digital óptico utilizado para almacenar cualquier tipo de información. Este tipo de CD sirve para tanto grabar como para después borrar esa información. Fue desarrollado conjuntamente en 1980 por las empresas Sony y Philips, y comenzó a comercializarse en 1982. Hoy en día tecnologías como el DVD pueden desplazar o minimizar esta forma de almacenamiento, aunque su uso sigue vigente.

En el disco CD-RW la capa que contiene la información está formada por una aleación cristalina de plata, indio, antimonio y telurio que presenta una interesante cualidad: si se calienta hasta cierta temperatura, cuando se enfría deviene cristalino, pero si al calentarse se alcanza una temperatura aún más elevada, cuando se enfría queda con estructura amorfa. La superficie cristalina permite que la luz se refleje bien en la zona reflectante mientras que las zonas con estructura amorfa absorben la luz. Por ello el CD-RW utiliza tres tipos de luz:
-Láser de escritura: Se usa para escribir. Calienta pequeñas zonas de la superficie para que el material se torne amorfo.
-Láser de borrado: Se usa para borrar. Tiene una intensidad menor que el de escritura con lo que se consigue el estado cristalino.
-Láser de lectura: Se usa para leer. Tiene menor intensidad que el de borrado. Se refleja en zonas cristalinas y se dispersa en las amorfas.

Disquete
Un disco flexible o disquete (en lengua inglesa diskette) es un soporte de almacenamiento de datos formado por una pieza circular de material magnético, fina y flexible (de ahí su denominación) encerrada en una carcasa de plástico cuadrada o rectangular. Los disquetes se leen y se escriben mediante un dispositivo llamado disquetera (o FDD, del inglés Floppy Disk Drive). Es un disco más pequeño que el CD, tanto en tamaño externo como en capacidad, que está encerrado en una funda de pasta que lo protege (como se ha dicho anteriormente).


Disco duro

El disco duro es un dispositivo de almacenamiento no volátil, es decir conserva la información que le ha sido almacenada de forma correcta aun con la perdida de energía, emplea un sistema de grabación magnética digital, es donde en la mayoría de los casos se encuentra almacenado el sistema operativo de la computadora. En este tipo de disco se encuentra dentro de la carcasa una serie de platos metálicos apilados girando a gran velocidad. Sobre estos platos se sitúan los cabezales encargados de leer o escribir los impulsos magnéticos. Hay distintos estándares a la hora de comunicar un disco duro con la computadora. Existen distintos tipos de interfaces las mas comunes son: Integrated Drive Electronics (IDE, también llamado ATA) , SCSI generalmente usado en servidores, SATA, este último estandarizado en el año 2004 y FC exclusivo para servidores.
Tal y como sale de fábrica, el disco duro no puede ser utilizado por un sistema operativo. Antes tenemos que definir en él un formato de bajo nivel, una o más particiones y luego hemos de darles un formato que pueda ser entendido por nuestro sistema.

También existe otro tipo de discos denominados de estado sólido que utilizan cierto tipo de memorias construidas con semiconductores para almacenar la información. El uso de esta clase de discos generalmente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya se puede encontrar en el mercado unidades mucho más económicas de baja capacidad (hasta 64 GB) para el uso en computadoras personales (sobre todo portátiles). Así, el caché de pista es una memoria de estado sólido, tipo memoria RAM, dentro de un disco duro de estado sólido.

Cinta magnética

La cinta magnética es un tipo de soporte de almacenamiento de información que se graba en pistas sobre una banda de un material magnético, generalmente óxido de hierro o algún cromato. El tipo de información que se puede almacenar en las cintas magnéticas es variado, como vídeo, audio y datos.

Hay diferentes tipos de cintas, tanto en sus medidas físicas, como en su constitución química, así como diferentes formatos de grabación, especializados en el tipo de información que se quiere grabar.

Los dispositivos informáticos de almacenamiento masivo de datos de cinta magnética son utilizados principalmente para respaldo de archivos y para el proceso de información de tipo secuencial, como en la elaboración de nóminas de las grandes organizaciones públicas y privadas. Al almacén donde se guardan estos dispositivos se lo denomina cintoteca.

Su uso también se ha extendido para el almacenamiento analógico de música (como el casete de audio) y para vídeo, como las cintas de VHS (véase cinta de video).

La cinta magnética de audio dependiendo del equipo que la reproduce / graba recibe distintos nombres:
Se llama cinta de bobina abierta si es de magnetofóno.
Casete cuando es de formato compacto utilizada en pletina o walkman.
Cartucho cuando es utilizada por las cartucheras.

Memoria flash

La memoria flash es una forma desarrollada de la memoria EEPROM que permite que múltiples posiciones de memoria sean escritas o borradas en una misma operación de programación mediante impulsos eléctricos, frente a las anteriores que sólo permite escribir o borrar una única celda cada vez. Por ello, flash permite funcionar a velocidades muy superiores cuando los sistemas emplean lectura y escritura en diferentes puntos de esta memoria al mismo tiempo.

Las memorias flash son de carácter no volátil, esto es, la información que almacena no se pierde en cuanto se desconecta de la corriente, una característica muy valorada para la multitud de usos en los que se emplea este tipo de memoria.

Los principales usos de este tipo de memorias son pequeños dispositivos basados en el uso de baterías como teléfonos móviles, PDA, pequeños electrodomésticos, cámaras de fotos digitales, reproductores portátiles de audio, etc.

Las capacidades de almacenamiento de estas tarjetas que integran memorias flash comenzaron en 128 MB (128 MiB) pero actualmente se pueden encontrar en el mercado tarjetas de hasta 32 GB (32 GiB) por parte de la empresa Panasonic en formato SD.

La velocidad de transferencia de estas tarjetas, al igual que la capacidad de las mismas, se ha ido incrementando progresivamente. La nueva generación de tarjetas permitirá velocidades de hasta 30 MB/s.

El costo de estas memorias es muy bajo respecto a otro tipo de memorias similares como EEPROM y ofrece rendimientos y características muy superiores. Económicamente hablando, el precio en el mercado ronda los 20 € para dispositivos con 4 GB de almacenamiento, aunque, evidentemente, se pueden encontrar dispositivos exclusivamente de almacenamiento de unas pocas MBs por precios realmente bajos, y de hasta 4000 € para la gama más alta y de mayores prestaciones. No obstante, el coste por MB en los discos duros son muy inferiores a los que ofrece la memoria flash y, además los discos duros tienen una capacidad muy superior a la de las memorias flash.
Ofrecen, además, características como gran resistencia a los golpes, bajo consumo y es muy silencioso, ya que no contiene ni actuadores mecánicos ni partes móviles. Su pequeño tamaño también es un factor determinante a la hora de escoger para un dispositivo portátil, así como su ligereza y versatilidad para todos los usos hacia los que está orientado.

Sin embargo, todos los tipos de memoria flash sólo permiten un número limitado de escrituras y borrados, generalmente entre 10.000 y un millón, dependiendo de la celda, de la precisión del proceso de fabricación y del voltaje necesario para su borrado.

Este tipo de memoria está fabricado con puertas lógicas NOR y NAND para almacenar los 0’s ó 1’s correspondientes. Actualmente (08-08-2005) hay una gran división entre los fabricantes de un tipo u otro, especialmente a la hora de elegir un sistema de archivos para estas memorias. Sin embargo se comienzan a desarrollar memorias basadas en ORNAND.

Los sistemas de archivos para estas memorias están en pleno desarrollo aunque ya en funcionamiento como por ejemplo JFFS originalmente para NOR, evolucionado a JFFS2 para soportar además NAND o YAFFS, ya en su segunda versión, para NAND. Sin embargo, en la práctica se emplea un sistema de archivos FAT por compatibilidad, sobre todo en las tarjetas de memoria extraíble.
Otra característica de reciente aparición (30-9-2004) ha sido la resistencia térmica de algunos encapsulados de tarjetas de memoria orientadas a las cámaras digitales de gama alta. Esto permite funcionar en condiciones extremas de temperatura como desiertos o glaciares ya que el rango de temperaturas soportado abarca desde los -25 ºC hasta los 85 ºC.

Las aplicaciones más habituales son:
El llavero USB que, además del almacenamiento, suelen incluir otros servicios como radio FM, grabación de voz y, sobre todo como reproductores portátiles de MP3 y otros formatos de audio.

Las PC Card

Las tarjetas de memoria flash que son el sustituto del carrete en la fotografía digital, ya que en las mismas se almacenan las fotos.
Existen varios estándares de encapsulados promocionados y fabricados por la mayoría de las multinacionales dedicadas a la producción de hardware.