Podcasts de historia

IBM presenta System 360 - Historia

IBM presenta System 360 - Historia

International Business Machines (IBM) presentó el sistema 360 Comptuter. La computadora, que era una computadora de segunda generación basada en transistores, fue un gran éxito y se convirtió en la computadora principal de muchas empresas durante muchos años.

En 1911, Charles F. Flint, un organizador fiduciario, supervisó la fusión de la Compañía de máquinas tabuladoras de Herman Hollerith con otras dos: la Computing Scale Company of America y la International Time Recording Company. Las tres compañías se fusionaron en una compañía llamada Computing-Tabulating-Recording Company o C-T-R. C-T-R vendió muchos productos diferentes, incluidas las cortadoras de queso, sin embargo, pronto se concentraron en máquinas de contabilidad de fabricación y comercialización, como: registradores de tiempo, registradores de marcación, tabuladores y balanzas automáticas.

En 1914, un ex ejecutivo de la National Cash Register Company, Thomas J. Watson, Senior se convierte en el gerente general de C-T-R. Según los historiadores de IBM, "Watson implementó una serie de tácticas comerciales efectivas. Predicó una perspectiva positiva y su eslogan favorito," THINK ", se convirtió en un mantra para los empleados de CTR. A los 11 meses de unirse a CTR, Watson se convirtió en su presidente . La compañía se centró en proporcionar soluciones de tabulación a gran escala y personalizadas para empresas, dejando el mercado de productos de oficina pequeña a otros. Durante los primeros cuatro años de Watson, los ingresos se duplicaron con creces a $ 9 millones. También expandió las operaciones de la compañía a Europa , América del Sur, Asia y Australia ".


Contenido

Las primeras computadoras eran mainframes que carecían de cualquier forma de sistema operativo. Cada usuario tenía el uso exclusivo de la máquina durante un período de tiempo programado y llegaba a la computadora con el programa y los datos, a menudo en tarjetas de papel perforadas y cinta magnética o de papel. El programa se cargaría en la máquina y la máquina estaría configurada para funcionar hasta que el programa se completara o fallara. Los programas generalmente se pueden depurar a través de un panel de control utilizando diales, interruptores de palanca y luces del panel.

Se desarrollaron lenguajes simbólicos, ensambladores, [1] [2] [3] y compiladores para que los programadores tradujeran el código simbólico del programa en código de máquina que previamente habría sido codificado a mano. Las máquinas posteriores vinieron con bibliotecas de código de soporte en tarjetas perforadas o cinta magnética, que se vincularían al programa del usuario para ayudar en operaciones como entrada y salida. Esta fue la génesis del sistema operativo moderno, sin embargo, las máquinas todavía ejecutaban un solo trabajo a la vez. En la Universidad de Cambridge en Inglaterra, la cola de trabajos fue en un momento una cuerda de lavado de la que se colgaban cintas con pinzas de ropa de diferentes colores para indicar la prioridad del trabajo. [ cita necesaria ]

A medida que las máquinas se volvieron más poderosas, el tiempo para ejecutar programas disminuyó y el tiempo para entregar el equipo al siguiente usuario se hizo grande en comparación. La contabilidad y el pago del uso de la máquina pasó de consultar el reloj de pared al registro automático por computadora. Las colas de ejecución evolucionaron desde una cola literal de personas en la puerta hasta un montón de medios en una mesa de espera de trabajos, o lotes de tarjetas perforadas apiladas una encima de la otra en el lector, hasta que la máquina misma pudo seleccionar y secuenciar qué unidades de cinta magnética procesaron qué cintas. Cuando los desarrolladores de programas habían tenido acceso originalmente para ejecutar sus propios trabajos en la máquina, fueron reemplazados por operadores de máquinas dedicados que se ocupaban de la máquina y estaban cada vez menos preocupados por implementar las tareas manualmente. Cuando los centros informáticos disponibles comercialmente se enfrentaron a las implicaciones de la pérdida de datos por manipulación o errores operativos, los proveedores de equipos se vieron presionados para mejorar las bibliotecas de tiempo de ejecución para evitar el mal uso de los recursos del sistema. La supervisión automatizada era necesaria no solo para el uso de la CPU, sino también para contar las páginas impresas, las tarjetas perforadas, las tarjetas leídas, el almacenamiento en disco utilizado y para indicar cuándo se requería la intervención del operador para trabajos como el cambio de cintas magnéticas y formularios en papel. Se agregaron características de seguridad a los sistemas operativos para registrar pistas de auditoría de qué programas estaban accediendo a qué archivos y para evitar el acceso a un archivo de nómina de producción por parte de un programa de ingeniería, por ejemplo.

Todas estas características se estaban construyendo hacia el repertorio de un sistema operativo totalmente capaz. Con el tiempo, las bibliotecas en tiempo de ejecución se convirtieron en un programa combinado que se inició antes del primer trabajo del cliente y que podía leer el trabajo del cliente, controlar su ejecución, registrar su uso, reasignar recursos de hardware después de que finalizaba el trabajo e inmediatamente pasar a procesar el siguiente trabajo. Estos programas en segundo plano residentes, capaces de gestionar procesos de varios pasos, a menudo se denominaban monitores o programas de monitorización antes de que se estableciera el término "sistema operativo".

Un programa subyacente que ofrece administración básica de hardware, programación de software y monitoreo de recursos puede parecer un antepasado remoto de los sistemas operativos orientados al usuario de la era de la computación personal. Pero ha habido un cambio en el significado de SO. Así como los primeros automóviles carecían de velocímetros, radios y acondicionadores de aire que luego se convirtieron en estándar, cada vez más características de software opcionales se convirtieron en características estándar en todos los paquetes de sistemas operativos, aunque algunas aplicaciones, como los sistemas de administración de bases de datos y las hojas de cálculo, siguen siendo opcionales y tienen un precio por separado. Esto ha llevado a la percepción de un SO como un sistema de usuario completo con una interfaz gráfica de usuario integrada, utilidades, algunas aplicaciones como editores de texto y administradores de archivos y herramientas de configuración.

El verdadero descendiente de los primeros sistemas operativos es lo que ahora se llama "kernel". En los círculos técnicos y de desarrollo, el antiguo sentido restringido de un sistema operativo persiste debido al continuo desarrollo activo de sistemas operativos integrados para todo tipo de dispositivos con un componente de procesamiento de datos, desde dispositivos portátiles hasta robots industriales y control en tiempo real. sistemas, que no ejecutan aplicaciones de usuario en el front-end. Un sistema operativo integrado en un dispositivo hoy en día no está tan alejado como podría pensarse de su antepasado de la década de 1950.

Las categorías más amplias de sistemas y software de aplicación se analizan en el artículo sobre software de computadora.

El primer sistema operativo utilizado para el trabajo real fue GM-NAA I / O, producido en 1956 por la división de investigación de General Motors [4] para su IBM 704. [5] [ especificar ] La mayoría de los otros sistemas operativos iniciales para mainframes de IBM también fueron producidos por los clientes. [6]

Los primeros sistemas operativos eran muy diversos, y cada proveedor o cliente producía uno o más sistemas operativos específicos para su computadora central en particular. Cada sistema operativo, incluso del mismo proveedor, podría tener modelos radicalmente diferentes de comandos, procedimientos operativos y facilidades tales como ayudas de depuración. Normalmente, cada vez que el fabricante sacaba una nueva máquina, habría un nuevo sistema operativo y la mayoría de las aplicaciones tendrían que ajustarse, recompilarse y probarse de nuevo manualmente.

Sistemas en hardware de IBM Editar

La situación continuó hasta la década de 1960 cuando IBM, que ya era un proveedor líder de hardware, dejó de trabajar en los sistemas existentes y puso todo su esfuerzo en desarrollar la serie de máquinas System / 360, todas las cuales usaban el mismo instrucción y arquitectura de entrada / salida. IBM tenía la intención de desarrollar un único sistema operativo para el nuevo hardware, el OS / 360. Los problemas encontrados en el desarrollo del OS / 360 son legendarios y están descritos por Fred Brooks en El mes mítico del hombre—Un libro que se ha convertido en un clásico de la ingeniería de software. Debido a las diferencias de rendimiento en la gama de hardware y los retrasos en el desarrollo de software, se introdujo una familia completa de sistemas operativos en lugar de un solo OS / 360. [7] [8]

IBM terminó lanzando una serie de medidas provisionales seguidas de dos sistemas operativos de mayor duración:

    para sistemas grandes y de gama media. Esto estaba disponible en tres opciones de generación de sistemas:
      para los primeros usuarios y para aquellos sin los recursos para la multiprogramación. para sistemas de gama media, reemplazado por MFT-II en OS / 360 Release 15/16. Este tuvo un sucesor, OS / VS1, que se suspendió en la década de 1980. para grandes sistemas. Esto era similar en la mayoría de los aspectos a PCP y MFT (la mayoría de los programas se podían migrar entre los tres sin volver a compilarlos), pero tiene una gestión de memoria más sofisticada y una función de tiempo compartido, TSO. MVT tuvo varios sucesores, incluido el actual z / OS.

    IBM mantuvo total compatibilidad con el pasado, por lo que los programas desarrollados en los años sesenta aún pueden ejecutarse bajo z / VSE (si se desarrolló para DOS / 360) oz / OS (si se desarrolló para MFT o MVT) sin cambios.

    IBM también desarrolló TSS / 360, un sistema de tiempo compartido para el System / 360 Modelo 67. Compensando en exceso la importancia percibida de desarrollar un sistema de tiempo compartido, pusieron a cientos de desarrolladores a trabajar en el proyecto. Las primeras versiones de TSS eran lentas y poco fiables cuando TSS tenía un rendimiento y una fiabilidad aceptables, IBM quería que sus usuarios de TSS migraran a OS / 360 y OS / VS2, mientras que IBM ofrecía un TSS / 370 PRPQ, lo abandonaron después de 3 lanzamientos. [9]

    Varios sistemas operativos para las arquitecturas IBM S / 360 y S / 370 fueron desarrollados por terceros, incluido Michigan Terminal System (MTS) y MUSIC / SP.

    Otros sistemas operativos de mainframe Editar

    Control Data Corporation desarrolló los sistemas operativos SCOPE [NB 1] en la década de 1960, para el procesamiento por lotes y más tarde desarrolló el sistema operativo MACE para compartir el tiempo, que fue la base para el posterior Kronos. En cooperación con la Universidad de Minnesota, los sistemas operativos Kronos y más tarde NOS se desarrollaron durante la década de 1970, que admitían el uso simultáneo de lotes y tiempo compartido. Como muchos sistemas comerciales de tiempo compartido, su interfaz era una extensión del sistema de tiempo compartido DTSS, uno de los esfuerzos pioneros en lenguajes de programación y tiempo compartido.

    A finales de la década de 1970, Control Data y la Universidad de Illinois desarrollaron el sistema PLATO, que utilizaba pantallas de panel de plasma y redes de tiempo compartido de larga distancia. PLATO fue notablemente innovador para su época, el modelo de memoria compartida del lenguaje de programación TUTOR de PLATO permitió aplicaciones como chat en tiempo real y juegos gráficos multiusuario.

    Para el UNIVAC 1107, UNIVAC, el primer fabricante de computadoras comerciales, produjo el sistema operativo EXEC I, y Computer Sciences Corporation desarrolló el sistema operativo EXEC II y lo entregó a UNIVAC. EXEC II fue portado al UNIVAC 1108. Posteriormente, UNIVAC desarrolló el sistema operativo EXEC 8 para el 1108 que fue la base para los sistemas operativos de los miembros posteriores de la familia. Como todos los primeros sistemas de mainframe, EXEC I y EXEC II eran un sistema orientado a lotes que administraba tambores magnéticos, discos, lectores de tarjetas e impresoras de línea. EXEC 8 admitía tanto el procesamiento por lotes como el procesamiento de transacciones en línea. En la década de 1970, UNIVAC produjo el sistema Real-Time Basic (RTB) para admitir el tiempo compartido a gran escala, también siguiendo el modelo del sistema Dartmouth BASIC.

    Burroughs Corporation introdujo el B5000 en 1961 con el sistema operativo MCP (Programa de control maestro). La B5000 era una máquina apiladora diseñada para soportar exclusivamente lenguajes de alto nivel, sin software, ni siquiera en el nivel más bajo del sistema operativo, estando escrito directamente en lenguaje máquina o lenguaje ensamblador, el MCP fue el primero [ cita necesaria ] El sistema operativo debe estar escrito completamente en un lenguaje de alto nivel - ESPOL, un dialecto de ALGOL 60 - aunque ESPOL tenía declaraciones especializadas para cada "sílaba" [NB 2] en el conjunto de instrucciones B5000. MCP también introdujo muchas otras innovaciones revolucionarias, como ser una de [NB 3] las primeras implementaciones comerciales de memoria virtual. La reescritura de MCP para el B6500 todavía se usa hoy en la línea de computadoras Unisys ClearPath / MCP.

    GE introdujo la serie GE-600 con el sistema operativo General Electric Comprehensive Operating Supervisor (GECOS) en 1962. Después de que Honeywell adquirió el negocio de computadoras de GE, se le cambió el nombre a General Comprehensive Operating System (GCOS). Honeywell expandió el uso del nombre GCOS para cubrir todos sus sistemas operativos en la década de 1970, aunque muchas de sus computadoras no tenían nada en común con la serie GE 600 anterior y sus sistemas operativos no se derivaron del GECOS original.

    Project MAC en MIT, en colaboración con GE y Bell Labs, desarrolló Multics, que introdujo el concepto de niveles de privilegios de seguridad anillados.

    Digital Equipment Corporation desarrolló TOPS-10 para su línea PDP-10 de computadoras de 36 bits en 1967. Antes del uso generalizado de Unix, TOPS-10 era un sistema particularmente popular en las universidades y en la primera comunidad de ARPANET. Bolt, Beranek y Newman desarrollaron TENEX para un PDP-10 modificado que respaldaba la búsqueda de demanda. Este fue otro sistema popular en las comunidades de investigación y ARPANET, y luego fue desarrollado por DEC en TOPS-20.

    Scientific Data Systems / Xerox Data Systems desarrollaron varios sistemas operativos para la serie de computadoras Sigma, como el Monitor de control básico (BCM), el Monitor de procesamiento por lotes (BPM) y el Monitor de tiempo compartido básico (BTM). Más tarde, BPM y BTM fueron reemplazados por el Universal Time-Sharing System (UTS), que fue diseñado para proporcionar servicios de programación múltiple para programas de usuario en línea (interactivos) además de trabajos de producción en modo por lotes. Fue reemplazado por el CP-V sistema operativo, que combinaba UTS con el sistema operativo Xerox, muy orientado a lotes.

    Digital Equipment Corporation creó varios sistemas operativos para sus máquinas PDP-11 de 16 bits, incluido el sistema RT-11 simple, los sistemas operativos RSTS de tiempo compartido y la familia RSX-11 de sistemas operativos en tiempo real, así como el Sistema VMS para las máquinas VAX de 32 bits.

    Varios competidores de Digital Equipment Corporation, como Data General, Hewlett-Packard y Computer Automation, crearon sus propios sistemas operativos. Uno de ellos, "MAX III", fue desarrollado para computadoras Modular Computer Systems Modcomp II y Modcomp III. Se caracterizó por ser su mercado objetivo el mercado de control industrial. Las bibliotecas de Fortran incluían una que permitía el acceso a dispositivos de medición y control.

    La innovación clave de IBM en los sistemas operativos de esta clase (que ellos llaman "rango medio"), fue su "CPF" para el System / 38. Este tenía direccionamiento basado en capacidades, utilizaba una arquitectura de interfaz de máquina para aislar el software de la aplicación y la mayor parte del sistema operativo de las dependencias de hardware (incluidos incluso detalles como el tamaño de la dirección y el tamaño del registro) e incluía un RDBMS integrado. El OS / 400 subsiguiente para el AS / 400 no tiene archivos, solo objetos de diferentes tipos y estos objetos persisten en una memoria virtual plana muy grande, denominada almacenamiento de un solo nivel. i5 / OS y IBM i posterior para iSeries continúan esta línea de sistema operativo.

    El sistema operativo Unix fue desarrollado en AT & ampT Bell Laboratories a fines de la década de 1960, originalmente para el PDP-7 y más tarde para el PDP-11. Debido a que era esencialmente gratuito en las primeras ediciones, se obtenía fácilmente y se modificaba fácilmente, logró una amplia aceptación. También se convirtió en un requisito dentro de las empresas operativas de sistemas Bell. Dado que fue escrito en el lenguaje C, cuando ese lenguaje fue portado a una nueva arquitectura de máquina, Unix también pudo ser portado. Esta portabilidad le permitió convertirse en la opción para una segunda generación de miniordenadores y la primera generación de estaciones de trabajo. Por su uso generalizado, ejemplificó la idea de un sistema operativo que era conceptualmente el mismo en varias plataformas de hardware, y más tarde se convirtió en una de las raíces del software libre y los proyectos de sistemas operativos de software de código abierto, incluidos GNU, Linux y Berkeley Software Distribution. MacOS de Apple también se basa en Unix a través de NeXTSTEP [10] y FreeBSD. [11]

    El sistema operativo Pick era otro sistema operativo disponible en una amplia variedad de marcas de hardware. Lanzado comercialmente en 1973, su núcleo era un lenguaje similar al BASIC llamado Data / BASIC y un lenguaje de manipulación de bases de datos al estilo SQL llamado ENGLISH. Con licencia para una gran variedad de fabricantes y proveedores, a principios de la década de 1980, los observadores vieron el sistema operativo Pick como un fuerte competidor de Unix. [12]

    A partir de mediados de la década de 1970, apareció en el mercado una nueva clase de computadoras pequeñas. Con procesadores de 8 bits, típicamente MOS Technology 6502, Intel 8080, Motorola 6800 o Zilog Z80, junto con interfaces rudimentarias de entrada y salida y tanta RAM como sea posible, estos sistemas comenzaron como computadoras para aficionados basadas en kits, pero pronto evolucionaron a una herramienta empresarial esencial.

    Ordenadores domésticos Editar

    Mientras que muchas computadoras domésticas de ocho bits de la década de 1980, como la serie BBC Micro, Commodore 64, Apple II, la serie Atari de 8 bits, la serie Amstrad CPC, ZX Spectrum y otras, podían cargar un sistema operativo de carga de disco de terceros. , como CP / M o GEOS, generalmente se usaban sin uno. Sus sistemas operativos incorporados se diseñaron en una época en la que las unidades de disquete eran muy caras y la mayoría de los usuarios no esperaban que las usaran, por lo que el dispositivo de almacenamiento estándar en la mayoría era una unidad de cinta con casetes compactos estándar. La mayoría, si no todas, de estas computadoras se envían con un intérprete BASIC incorporado en la ROM, que también servía como una interfaz de línea de comandos rudimentaria, lo que le permitía al usuario cargar un sistema operativo de disco separado para ejecutar comandos de administración de archivos y cargar y guardar en disco. El más popular [ cita necesaria ] computadora doméstica, la Commodore 64, fue una excepción notable, ya que su DOS estaba en ROM en el hardware de la unidad de disco, y la unidad estaba dirigida de manera idéntica a impresoras, módems y otros dispositivos externos.

    Además, esos sistemas se envían con cantidades mínimas de memoria de computadora (4-8 kilobytes era estándar en las primeras computadoras domésticas), así como procesadores de 8 bits sin circuitos de soporte especializados como una MMU o incluso un reloj dedicado en tiempo real. En este hardware, la sobrecarga de un sistema operativo complejo que admite múltiples tareas y usuarios probablemente comprometería el rendimiento de la máquina sin que realmente sea necesaria. Como esos sistemas se vendían en gran parte completos, con una configuración de hardware fija, tampoco había necesidad de que un sistema operativo proporcionara controladores para una amplia gama de hardware para eliminar las diferencias.

    Los videojuegos e incluso la hoja de cálculo, la base de datos y los procesadores de texto disponibles para computadoras domésticas eran en su mayoría programas autónomos que se apoderaban de la máquina por completo. Aunque existía software integrado para estas computadoras, generalmente carecían de funciones en comparación con sus equivalentes independientes, en gran parte debido a limitaciones de memoria. El intercambio de datos se realizó principalmente a través de formatos estándar como texto ASCII o CSV, o mediante programas de conversión de archivos especializados.

    Sistemas operativos en videojuegos y consolas Editar

    Dado que prácticamente todas las consolas de videojuegos y los gabinetes de arcade diseñados y construidos después de 1980 eran verdaderas máquinas digitales basadas en microprocesadores (a diferencia de las anteriores Apestar clones y derivados), algunos de ellos llevaban una forma mínima de BIOS o juego incorporado, como ColecoVision, Sega Master System y SNK Neo Geo.

    Las consolas de juegos y los videojuegos de hoy en día, comenzando con PC-Engine, tienen un BIOS mínimo que también proporciona algunas utilidades interactivas como administración de tarjetas de memoria, reproducción de CD de audio o video, protección contra copias y, a veces, llevan bibliotecas para que los desarrolladores las usen, etc. Sin embargo, pocos de estos casos calificarían como un verdadero sistema operativo.

    Las excepciones más notables son probablemente la consola de juegos Dreamcast, que incluye un BIOS mínimo, como la PlayStation, pero puede cargar el sistema operativo Windows CE desde el disco del juego, lo que permite transferir fácilmente juegos desde el mundo de la PC y la consola de juegos Xbox, que es poco más que una PC disfrazada basada en Intel que ejecuta una versión secreta y modificada de Microsoft Windows en segundo plano. Además, hay versiones de Linux que se ejecutarán en Dreamcast y también en consolas de juegos posteriores.

    Mucho antes de eso, Sony había lanzado una especie de kit de desarrollo llamado Net Yaroze para su primera plataforma PlayStation, que proporcionaba una serie de herramientas de programación y desarrollo para ser utilizadas con una PC normal y una "Black PlayStation" especialmente modificada que podía interconectarse. con una PC y descargar programas desde ella. Estas operaciones requieren en general un SO funcional en ambas plataformas involucradas.

    En general, se puede decir que las consolas de videojuegos y las máquinas recreativas que funcionan con monedas utilizaron como máximo un BIOS incorporado durante las décadas de 1970, 1980 y la mayor parte de la de 1990, mientras que a partir de la era de PlayStation y más allá comenzaron a ser cada vez más sofisticadas. hasta el punto de requerir un sistema operativo genérico o personalizado para ayudar en el desarrollo y la capacidad de expansión.

    Era de la computadora personal Editar

    El desarrollo de microprocesadores hizo que la informática económica estuviera disponible para las pequeñas empresas y los aficionados, lo que a su vez llevó al uso generalizado de componentes de hardware intercambiables mediante una interconexión común (como el S-100, SS-50, Apple II, ISA y PCI). buses), y una creciente necesidad de sistemas operativos "estándar" para controlarlos. El más importante de los primeros sistemas operativos de estas máquinas fue el CP / M-80 de Digital Research para las CPU 8080/8085 / Z-80. Se basó en varios sistemas operativos de Digital Equipment Corporation, principalmente para la arquitectura PDP-11. El primer sistema operativo de Microsoft, MDOS / MIDAS, fue diseñado con muchas de las características del PDP-11, pero para sistemas basados ​​en microprocesadores. MS-DOS, o PC DOS cuando lo suministra IBM, fue diseñado para ser similar a CP / M-80. [13] Cada una de estas máquinas tenía un pequeño programa de arranque en la ROM que cargaba el sistema operativo desde el disco. El BIOS en las máquinas de clase IBM-PC fue una extensión de esta idea y ha acumulado más características y funciones en los 20 años desde que se introdujo la primera IBM-PC en 1981.

    El costo decreciente de los equipos de visualización y los procesadores hizo que fuera práctico proporcionar interfaces gráficas de usuario para muchos sistemas operativos, como el sistema X Window genérico que se proporciona con muchos sistemas Unix, u otros sistemas gráficos como el Mac OS clásico de Apple y macOS, el Radio Shack Color Computer's OS-9 Level II / MultiVue, Commodore's AmigaOS, Atari TOS, IBM's OS / 2 y Microsoft Windows. La GUI original se desarrolló en el sistema informático Xerox Alto en el Centro de Investigación Xerox Palo Alto a principios de la década de 1970 y fue comercializada por muchos proveedores durante las décadas de 1980 y 1990.

    Desde finales de la década de 1990, ha habido tres sistemas operativos de uso generalizado en computadoras personales: macOS de Apple Inc., Linux de código abierto y Microsoft Windows. Desde 2005 y la transición de Mac a los procesadores Intel, todos se han desarrollado principalmente en la plataforma x86, aunque macOS conservó el soporte de PowerPC hasta 2009 y Linux sigue siendo portado a una multitud de arquitecturas, incluidas algunas como 68k, PA-RISC y DEC Alpha, que han sido reemplazados durante mucho tiempo y fuera de producción, y SPARC y MIPS, que se utilizan en servidores o sistemas integrados, pero ya no para computadoras de escritorio. Otros sistemas operativos como AmigaOS y OS / 2 siguen en uso, si es que lo hacen, principalmente por entusiastas de la retrocomputación o para aplicaciones integradas especializadas.

    Sistemas operativos móviles Editar

    A principios de la década de 1990, Psion lanzó la PDA Psion Series 3, un pequeño dispositivo informático móvil. Admitía aplicaciones escritas por el usuario que se ejecutaban en un sistema operativo llamado EPOC. Las versiones posteriores de EPOC se convirtieron en Symbian, un sistema operativo utilizado para teléfonos móviles de Nokia, Ericsson, Sony Ericsson, Motorola, Samsung y teléfonos desarrollados para NTT Docomo por Sharp, Fujitsu & amp Mitsubishi. Symbian fue el sistema operativo para teléfonos inteligentes más utilizado en el mundo hasta 2010, con una participación de mercado máxima del 74% en 2006. En 1996, Palm Computing lanzó Pilot 1000 y Pilot 5000 con Palm OS. Microsoft Windows CE fue la base para Pocket PC 2000, rebautizado como Windows Mobile en 2003, que en su apogeo en 2007 fue el sistema operativo más común para teléfonos inteligentes en los EE. UU.

    En 2007, Apple presentó el iPhone y su sistema operativo, conocido simplemente como iPhone OS (hasta el lanzamiento de iOS 4), que, al igual que Mac OS X, se basa en Darwin, similar a Unix. Además de estos fundamentos, también introdujo una interfaz gráfica de usuario potente e innovadora que más tarde también se utilizó en la tableta iPad. Un año después, se introdujo Android, con su propia interfaz gráfica de usuario, basado en un kernel de Linux modificado, y Microsoft volvió a ingresar al mercado de sistemas operativos móviles con Windows Phone en 2010, que fue reemplazado por Windows 10 Mobile en 2015.

    Además de estos, una amplia gama de otros sistemas operativos móviles compiten en esta área.

    Los sistemas operativos originalmente se ejecutaban directamente en el hardware y proporcionaban servicios a las aplicaciones, pero con la virtualización, el sistema operativo se ejecuta bajo el control de un hipervisor, en lugar de tener el control directo del hardware.

    En mainframes, IBM introdujo la noción de una máquina virtual en 1968 con CP / CMS en IBM System / 360 Modelo 67, y lo extendió más tarde en 1972 con Virtual Machine Facility / 370 (VM / 370) en System / 370.

    En las computadoras personales basadas en x86, VMware popularizó esta tecnología con su producto de 1999, VMware Workstation, [14] y sus productos de 2001 VMware GSX Server y VMware ESX Server. [15] Más tarde, una amplia gama de productos de otros, incluidos Xen, KVM e Hyper-V, significó que para 2010 se informó que más del 80 por ciento de las empresas tenían un programa o proyecto de virtualización implementado, y que el 25 por ciento de todos las cargas de trabajo del servidor estarían en una máquina virtual. [dieciséis]

    Con el tiempo, la línea entre máquinas virtuales, monitores y sistemas operativos se desdibujó:

    • Los hipervisores se volvieron más complejos y obtuvieron su propia interfaz de programación de aplicaciones, [17] administración de memoria o sistema de archivos. [18]
    • La virtualización se convierte en una característica clave de los sistemas operativos, como lo ejemplifican KVM y LXC en Linux, Hyper-V en Windows Server 2008 o HP Integrity Virtual Machines en HP-UX.
    • En algunos sistemas, como los servidores basados ​​en POWER5 y POWER6 de IBM, el hipervisor ya no es opcional. [19]
    • Los sistemas operativos radicalmente simplificados, como CoreOS, se han diseñado para ejecutarse solo en sistemas virtuales. [20]
    • Las aplicaciones se han rediseñado para ejecutarse directamente en un monitor de máquina virtual. [21]

    De muchas maneras, el software de la máquina virtual hoy desempeña el papel que antes tenía el sistema operativo, incluida la administración de los recursos de hardware (procesador, memoria, dispositivos de E / S), la aplicación de políticas de programación o la posibilidad de que los administradores del sistema administren el sistema.


    IBM presenta la serie 1400

    El mainframe 1401, el primero de la serie, reemplaza la tecnología anterior de tubos de vacío con transistores más pequeños y confiables. La demanda requirió más de 12.000 de las 1401 computadoras, y el éxito de la máquina hizo un caso sólido para el uso de computadoras de propósito general en lugar de sistemas especializados. A mediados de la década de 1960, casi la mitad de todas las computadoras del mundo eran IBM 1401.

    Línea de retardo magnetostrictiva Ferranti Sirius


    Unidad de celda de datos IBM 2321

    Con siete años de fabricación, la unidad de celda de datos 2321 de IBM almacenaba hasta 400 MB. El Data Cell Drive se anunció con la computadora central System / 360. Se sacaron anchas tiras magnéticas de los contenedores y se envolvieron alrededor de un cilindro giratorio para leer y escribir. Los problemas de confiabilidad plagaron los modelos iniciales, pero después de que se hicieron mejoras, se volvió relativamente confiable y se vendió hasta 1976.

    IBM Pavillion, Feria Mundial de 1964


    Contenido

    IBM 350 Editar

    los IBM 350 La unidad de almacenamiento en disco, la primera unidad de disco, fue anunciada por IBM como un componente del sistema informático IBM 305 RAMAC el 14 de septiembre de 1956. [8] [9] [10] [11] Simultáneamente, un producto muy similar, el IBM 355 , fue anunciado para el sistema informático IBM 650 RAMAC. RAMAC significa "Método de acceso aleatorio de contabilidad y control". El primer prototipo de ingeniería de almacenamiento en disco 350 se envió a Zellerbach Paper Company, San Francisco, en junio de 1956, [12] y el envío de producción comenzó en noviembre de 1957 con el envío de una unidad a United Airlines en Denver, Colorado. [13]

    Su diseño fue motivado por la necesidad de la contabilidad en tiempo real en los negocios. [14] El 350 almacena 5 millones de caracteres de 6 bits (3,75 MB). [15] Tiene cincuenta y dos discos de 24 pulgadas (610 mm) de diámetro de los cuales se utilizan 100 superficies de grabación, omitiendo la superficie superior del disco superior y la superficie inferior del disco inferior. Cada superficie tiene 100 pistas. Los discos giran a 1200 rpm. La tasa de transferencia de datos es de 8.800 caracteres por segundo. Un mecanismo de acceso mueve un par de cabezas hacia arriba y hacia abajo para seleccionar un par de discos (una superficie hacia abajo y una superficie hacia arriba) y hacia adentro y hacia afuera para seleccionar una pista de grabación de un par de superficies. Se agregaron varios modelos mejorados en la década de 1950. El sistema IBM RAMAC 305 con 350 discos de almacenamiento se alquila por $ 3200 al mes. El 350 se retiró oficialmente en 1969.

    La patente estadounidense 3.503.060 del programa RAMAC generalmente se considera la patente fundamental para las unidades de disco. [16] Esta primera unidad de disco fue cancelada inicialmente por la Junta Directiva de IBM debido a su amenaza para el negocio de tarjetas perforadas de IBM, pero el laboratorio de IBM San José continuó su desarrollo hasta que el proyecto fue aprobado por el presidente de IBM. [17]

    El gabinete del 350 tiene 60 pulgadas (152 cm) de largo, 68 pulgadas (172 cm) de alto y 29 pulgadas (74 cm) de ancho.

    La unidad RAMAC pesa alrededor de una tonelada, debe moverse con carretillas elevadoras y se transportaba con frecuencia en grandes aviones de carga. [18] Según Currie Munce, vicepresidente de investigación de Hitachi Global Storage Technologies (que adquirió el negocio de almacenamiento de IBM), la capacidad de almacenamiento de la unidad podría haberse incrementado más allá de los cinco millones de caracteres, pero el departamento de marketing de IBM en ese momento estaba en contra de una mayor unidad de capacidad, porque no sabían cómo vender un producto con más almacenamiento. No obstante, las versiones de doble capacidad del 350 se anunciaron [8] en enero de 1959 y se enviaron más tarde ese mismo año.

    En 1984, el archivo de disco RAMAC 350 fue designado Monumento Histórico Internacional por la Sociedad Estadounidense de Ingenieros Mecánicos. [19] En 2002, el Magnetic Disk Heritage Center comenzó la restauración de un IBM 350 RAMAC en colaboración con la Universidad de Santa Clara. [20] En 2005, el proyecto de restauración RAMAC se trasladó al Museo de Historia de la Computación en Mountain View, California y ahora se muestra al público en la exposición Revolution del museo. [21]

    IBM 353 Editar

    los IBM 353, utilizado en el IBM 7030, era similar al IBM 1301, pero con una tasa de transferencia más rápida. Tiene una capacidad de 2,097,152 (2 21) palabras de 64 bits o 134,217,728 (2 27) bits y transfiere 125,000 palabras por segundo. [22] Una unidad prototipo enviada a finales de 1960 fue la primera unidad de disco en usar un cabezal por superficie volando sobre una capa de aire comprimido como en el diseño de cabezal más antiguo del almacenamiento en disco IBM 350 (RAMAC). Los 353 de producción usaban cabezas voladoras esencialmente iguales a las del 1301.

    IBM 355 Editar

    los IBM 355 fue anunciado el 14 de septiembre de 1956 como una adición al popular IBM 650. [23] Utilizaba el mecanismo del IBM 350 con hasta tres brazos de acceso [b] y almacenaba 6 millones de dígitos decimales y 600.000 signos. [23] Transfirió una pista completa ay desde la memoria de núcleo magnético IBM 653, una opción de IBM 650 que almacenaba sólo sesenta palabras firmadas de 10 dígitos, suficiente para una sola pista de disco o un registro de cinta.

    IBM 1405 Editar

    los IBM 1405 Disk Storage Unit was announced in 1961 and was designed for use with the IBM 1400 series, medium scale business computers. [24] The 1405 Model 1 has a storage capacity of 10 million alphanumeric characters (60,000,000 bits) on 25 disks. Model 2 has a storage capacity of 20 million alphanumeric characters (120,000,000 bits) on 50 disks. In both models the disks are stacked vertically on a shaft rotating at 1200 rpm.

    Each side of each disk has 200 tracks divided into 5 sectors. Sectors 0–4 are on the top surface and 5–9 are on the bottom surface. Each sector holds either 178 or 200 characters. One to three forked-shaped access arms each contains two read/write heads, one for the top of the disk and the other for the bottom of the same disk. The access arms are mounted on a carriage alongside the disk array. During a seek operation an access arm moved, under electronic control, vertically to seek a disk 0–49 and then horizontally to seek a track 0–199. Ten sectors are available at each track. It takes about 10 ms to read or write a sector.

    The access time ranges from 100ms to a maximum access time for model 2 of 800ms and 700ms for model 1. The 1405 model 2 disk storage unit has 100,000 sectors containing either 200 characters in move mode or 178 characters in load mode, which adds a word mark bit to each character. The Model 1 contains 50,000 sectors. [25]

    IBM 7300 Edit

    los IBM 7300 Disk Storage Unit was designed for use with the IBM 7070 IBM announced a model 2 in 1959, but when IBM announced the 1301 on June 5, 1961, 7070 and 7074 customers found it to be more attractive than the 7300. The 7300 uses the same technology as the IBM 350, IBM 355 and IBM 1405

    IBM 1301 Edit

    los IBM 1301 Disk Storage Unit was announced on June 2, 1961 [26] [27] with two models. It was designed for use with the IBM 7000 series mainframe computers and the IBM 1410. The 1301 stores 28 million characters (168,000,000 bits) per module (25 million characters with the 1410). Each module has 25 large disks and 40 [c] user recording surfaces, with 250 tracks per surface. The 1301 Model 1 has one module, the Model 2 has two modules, stacked vertically. The disks spin at 1800 rpm. Data is transferred at 90,000 characters per second.

    A major advance over the IBM 350 and IBM 1405 is the use of a separate arm and head for each recording surface, with all the arms moving in and out together like a big comb. This eliminates the time needed for the arm to pull the head out of one disk and move up or down to a new disk. Seeking the desired track is also faster since, with the new design, the head will usually be somewhere in the middle of the disk, not starting on the outer edge. Maximum access time is reduced to 180 milliseconds.

    The 1301 is the first disk drive to use heads that are aerodynamically designed to fly over the surface of the disk on a thin layer of air. [3] This allows them to be much closer to the recording surface, which greatly improves performance.

    The 1301 connects to the computer via the IBM 7631 File Control. Different models of the 7631 allow the 1301 to be used with a 1410 or 7000 series computer, or shared between two such computers. [28]

    The IBM 1301 Model 1 leased for $2,100 per month or could be purchased for $115,500. Prices for the Model 2 were $3,500 per month or $185,000 to purchase. The IBM 7631 controller cost an additional $1,185 per month or $56,000 to purchase. All models were withdrawn in 1970. [26]

    IBM 1302 Edit

    los IBM 1302 Disk Storage Unit was introduced in September 1963. [29] Improved recording quadrupled its capacity over that of the 1301, to 117 million 6-bit characters per module. Average access time is 165 ms and data can be transferred at 180 K characters/second, more than double the speed of the 1301. There are two access mechanisms per module, one for the inner 250 cylinders and the other for the outer 250 cylinders. [30] As with the 1301, there is a Model 2 which doubles the capacity by stacking two modules. The IBM 1302 Model 1 leased for $5,600 per month or could be purchased for $252,000. Prices for the Model 2 were $7,900 per month or $355,500 to purchase. The IBM 7631 controller cost an additional $1,185 per month or $56,000 to purchase. The 1302 was withdrawn in February 1965.


    IBM Introduces System 360 - History

    Foto: Steve Bellovin. Columbia 360/91 console and 2250 Display Unit. Foto: Steve Bellovin. CU 360/91 Hazeltine 2000 ASP control terminal, 1972 (ASP = Attached Support Processor).

    From the IBM Photo Archive: "This wide-angle view of the multiple control consoles of the IBM System/360 Model 91 shows the nerve center of the fastest, most powerful computer in operation in January 1968. It was located at NASA's Space Flight Center in Greenbelt, Md."
    The IBM System/360 Model 91 was introduced in 1966 as the fastest, most powerful computer then in use. It was specifically designed to handle high-speed data processing for scientific applications such as space exploration, theoretical astronomy, subatomic physics and global weather forecasting. IBM estimated that each day in use, the Model 91 would solve more than 1,000 problems involving about 200 billion calculations.

    The system's immense computing power resulted from a combination of several key factors, including advanced circuits that switched in billionths of a second, high-density circuit packaging techniques and a high degree of "concurrency," or parallel operations.

    To users of the time, the Model 91 was functionally the same as other large-scale System/360s. It ran under Operating System/360 -- a powerful programming package of approximately 1.5 million instructions that enabled the system to operate with virtually no manual intervention. However, the internal organization of the Model 91 was the most advanced of any System/360.

    Within the central processing unit (CPU), there were five highly autonomous execution units which allowed the machine to overlap operations and process many instructions simultaneously. The five units were processor storage, storage bus control, instruction processor, fixed-point processor and floating-point processor. Not only could these units operate concurrently, they could also perform several functions at the same time.

    Because of this concurrency, the effective time to execute instructions and process information was reduced significantly.

    The Model 91 CPU cycle time (the time it takes to perform a basic processing instruction) was 60 nanoseconds. Its memory cycle time (the time it takes to fetch and store eight bytes of data in parallel) was 780 nanoseconds. A Model 91 installed at the U.S. National Aeronautics & Space Administration (NASA) operated with 2,097,152 bytes of main memory interleaved 16 ways. Model 91s could accommodate up to 6,291,496 bytes of main storage.

    With a maximum rate of 16.6-million additions a second, NASA's machine had up to 50 times the arithmetic capability of the IBM 7090.

    In addition to main memory, NASA's Model 91 could store over 300 million characters in two IBM 2301 drum and IBM 2314 direct access storage units. It also had 12 IBM 2402 magnetic tape units for data analysis applications, such as the processing of meteorological information relayed from satellites. Three IBM 1403 printers gave the system a 3,300-line a minute printing capability. Punched card input/output was provided through an IBM 2540 card read punch.

    The console from a Model 91 has been preserved in the IBM Collection of Historical Computers, and is exhibited today in the IBM Technology Gallery in the company's corporate headquarters in Armonk, N.Y.

    The console of Columbia University's 360/91 is in storage at the Computer History Museum, 1401 N. Shoreline Blvd, Mountain View, California.

    Here's an excellent photo of the 360/91 console and 2250 display, just like ours at Columbia, but this is not Columbia (I believe it is NASA because I found a thumbnail of the same picture HERE). See how the console dwarfs the puny humans.

    Here's a May 2003 shot of the last remnants of our 360/91 &mdash the console nameplate (visible in the Luis Ortega photo above), the console power switch, and assorted lamps, shown just before they were sent to the new Computer History Museum to be reuinited with the rest of our 360/91 console.

    Semifinally, here's a shot of Columbia's 360/91 control panel in "deep storage" in the Computer Museum's Moffet Field facility, before relocating to Mountain View in June 2003:

    And finally, look what I found on Mayday 2015 at Paul Allen's Living Computer Museum (formerly PDP Planet):

    Increíble. Look: lights! It was referenced from this page (don't count on the link lasting for any amount of time).


    IBM System 360 Changes the Industry Forever

    April 7, 1964

    IBM launches the System 360 mainframe architecture, which comprised six compatible models complete with 40 peripherals. The line, dubbed the “360″ because it addressed all types and sizes of customer, cost IBM over five billion dollars to develop, and it is widely considered one of the riskiest business gambles of all time.

    Up until this time, computer systems, even from the same manufacturer, were generally incompatible with each other. Software and peripherals from old systems would not work with new systems. This stifled acceptance and deployments of new systems as business customers were hesitant to lose their investments in their current systems. By developing a mutually compatible series of mainframes, customers were assured that their investments would not be lost if they purchased further System 360 models.

    IBM’s gamble paid off handsomely, as in just the first three months of its release, IBM will receive US$1.2 billion in orders. Within five years, over thirty-three thousand units will be sold, popularizing the concept of a computer “upgrade” around the world. The 360 family was the most successful IBM system of all time, generating in over US$100 billion in revenue through the mid-1980’s. It became the basis for all sequent IBM mainframe architectures, which will hold a 65% marketshare in the 1990’s.

    The 360 architecture also introduced a number of industry standards to the marketplace, such as the worldwide standard of the 8-bit byte. Its enormous popularity catapulted the business world into the technology age and transformed the computer industry. Not bad for a bunch of suits.


    IBM Introduces System 360 - History

    This pictorial timeline is an expansion of a presentation originally given in the media technology forum at the PCA/ACA annual conference. That presentation was mainly limited to a history of video technology, whereas here I'm including many other media types dating from the days of the Edison cylinder to the present time. A goal with this timeline is to provide a decent picture of the technology at hand and a brief description of it, with links to more extensive web sites when they are available. This stems from my habit when picking up a book, particularly those that have picture sections in the middle, to look at those pictures and read the captions prior to reading anything else in the book.

    Since this timeline is closely associated with the CED M a g i c web site, it provides the greatest emphasis on video technology and innovations that originated at RCA. The timeline will be a continuous work in progress as new technology emerges and I continue to fill holes in the past timeline.


    IBM’s Century of Innovation

    A merger of three 19th-century companies gives rise to the Computing-Tabulating-Recording Company in 1911. The company’s name is changed to International Business Machines Corporation in 1924, and under the leadership of Thomas J. Watson Sr. becomes a leader in innovation and technology. Early machines, like the dial recorder above, set the stage for further mechanization of data handling.

    IBM begins a corporate design program and hires Eliot Noyes, a distinguished architect and industrial designer, to guide the effort. Noyes, in turn, taps Paul Rand, Charles Eames and Eero Saarinen to help design everything from corporate buildings to the eight-bar corporate logo to the IBM Selectric typewriter with its golf-ball shaped head.

    IBM introduces the IBM System/360 compatible family of computers. The company calls it the most important product announcement in its history.

    A new era of computing begins, and IBM’s entry into the personal computer market in 1981 is an endorsement of the new technology. IBM makes the PC a mainstream product, used in businesses, schools and homes. Its choice of Microsoft and Intel as key suppliers propels upstarts into corporate giants.

    IBM shows computing’s potential with Deep Blue, a computer programmed to play chess like a grandmaster. In 1997, Deep Blue defeats the world chess champion Garry Kasparov, a historic win for machine intelligence.

    IBM makes Watson, the artificial-intelligence technology that famously beat humans in the quiz show “Jeopardy!” in 2011, into a stand-alone business. The company hopes Watson will be an engine of growth. It is investing heavily in data assets, from medical images to weather data, to help make Watson smarter and useful across many industries.


    Ver el vídeo: LGR - IBM PCjr Vintage Computer System Review (Diciembre 2021).