TEMA A TRATAR
Historia sobre los sistemas operativos, desde sus inicios hasta la actualidad.
SUBTEMAS A TRATAR
- WINDOUS Y UBUNTU
- LOS COMPUTADORES POR GENERACIONES
- DEFINICION
- HISTORIA
RESUMEN
Este informe abarca aspectos, tales como: definición de un sistema operativo historia de los sistemas operativos, ventajas y desventajas de los mismos, luego de una breve descripción de los aspectos anteriores y se enfoca a comparar el sistema operativo Windows con Ubuntu.
PALABRAS CLAVES
Sistemas operativos, historia, versiones, actualidad, características de un
Sistema operativo.
INTRODUCCION
Se introduce el tema, sistemas operativos, definición, historia, instalación de Ubuntu e imágenes complementarias que facilitan el entendimiento en el proceso de instalación de el sistema operativo Ubuntu.
TEXTO GENERAL DEL INFORME/TRABAJO
CONCEPTO DE DE LOS SISTEMAS OPERATIVOS:
Se entiende por sistemas operativo un conjunto de programas instalados en un sistema de proceso de datos a un ordenador, que ejerce el control de los equipos físicos encargados de realizar cálculos y operaciones de entrada y salida de información (CPU, canalés), de los equipos que soportan esta información (memoria principal, soportes secundarios) y del contenido de los soportes de información (ficheros, bibliotecas de programas).
Estos programas resuelven conflictos que se plantean durante la utilización de los componentes del sistema, aseguran en mayor o menor medida un uso eficiente y seguro de todos estos componentes y simplifican la realización e trabajos con ordenador
Los programas del sistema operativo actúan como intermediarios entre los programas de aplicación y los componentes físicos de un trabajo (hardware) del ordenador, administrando la actividad de estos componentes de modo que el rendimiento de la instalación sea el mayor posible. Así mismo, protegen unas tareas de los posibles fallos de otras.
LOS COMPUTADORES POR GENERACIONES:
PRIMERA GENERACION: (1945- 1956)
Al darse la segunda guerra mundial, vieron el desarrollo de las computadoras como la gran oportunidad de explotar su potencial importancia estratégica. Esto incremento las partidas para los proyectos de desarrollo de las computadoras para acelerar su progreso técnico. En 1941, el ingeniero KONRAD ZUSE desarrollo un computador denominado Z3, para diseñar aeroplanos y misiles. Las fuerzas aliadas, sin embargos, se lanzaron resueltamente en el desarrollo computadoras poderosas. En 1943, los británicos construyeron un computador para descifrar códigos secretos, llamado COLUSSOS y lograron interpretar mensajes alemanes. El impacto de Colussos y lograron interpretar mensajes alemanes. El impacto de Colussos en el desarrollo de la industria de las computadoras fue muy limitado por dos razones poderosas. La primera, no era un computador de propósito general, la segunda, la existencia de la maquina permaneció en secreto durante muchas décadas, después del a guerra. Los esfuerzos americanos tuvieron un amplio alcance. Howard Aiken, un ingeniero de harbad, que trabajo con la IBM. Tuvo éxito en la producción de un calculador electrónico en 1944 el propósito del computador fue crear trayectoria balísticas para la marina de los EEUU. Su tamaño era la mitad de una cancha de futbol y tenía más de 5000 mil alambres. Este computador se llamo MARK I.
Otro computador desarrollado ene esta época el ENIAC hoy integrador o computador numérico electrónico producido por una alianza entre el gobierno de estados unidos y la universidad de Pensilvania.
Consistía de 18000 mil tubos de vacio, parecidos a, los tubos de radios antiguos, 70000 resistores 5 millones de punto de soldadura.
Consumía 160 kilowatios de energía eléctrica, suficientemente para disminuir las luces en casi toda Filadelfia, sus desarrolladores fueron John Presper eckert y John Mauchly. Este computador si era de propósitos generales y unas 1000 veces más rápido que MARCK I.
A mediados de la década del cuarenta, John von, se integro al equipo de la universidad de Pensilvania, para dar a luz conceptos en diseño de computadoras que permanecieron por mas de 40 años. Diseño el EDVAC, computador automático electrónico de variable discreta en 1945 con una memoria que permita guardas datos y programas. De hay surgió el concepto de MEMORIA DE ALMACENAMIENTO Y PROGRAMA ALMACENADO característica fundamental de esta creación. Posteriormente, en 1951 surgió el primer computador oficial llamado UNIVAC I o computador automático universal.
Esta primera generación se caracterizo por el hecho de que las instrucciones se hicieran en una secuencia específica. Cada computador tenia un programa codificado, en binarios llamado leguaje de maquinas y en uso de tubos vacios y tambores magnéticos para almacenar la información.
SEGUNDA GENERACION (1956-1963)
Linvesion de trassistor en 1948, trajo grandes cambios en el desarrollo de las computadoras. El transistor remplazo los grandes tubos de vacio radios y computadoras. Esta tecnología se incorporo 1956 a las computadoras acoplados con previo avances en la memoria de grupos magnéticos, los transitorias guiaron la segunda generación de las computadoras las cuales fueron mas rápidos mas confiables y mas eficientes en energía que sus predecesores. Las primeras maquinas que tomaron ventaja de la tecnología del transistor fueron las computadoras STRETCH DIVM LARCde sperry- rand ambas dedicas a aspectos científicos. A comienzos de los años 60 se desarrollo un número de computadores exitosos comercialmente y fueron utilizadas en los negocios universidad y el gobierno. Esta segunda generación se caracterizo por su diseño de estado solido también surgieron algunos componentes asociados con las computadoras modernos: almacenamiento en disco memoria, sistema operativo, y programas almacenados.
Un importante ejemplo fue IVM 1401 el cual aceptado universalmente por la industria, y es considerado por muchos como el modelo T de la industria de las computadoras alrededor de 1965, muchas industrias procesaron en forma rutinaria, información financiera utilizando estas computadoras.
El hecho de tener programas almacenados y lenguaje de programación fue lo que le dio a estas computadoras la flexibilidad para finalmente para ser efectivos en costo y productivos para uso de los negocios, el concepto de programa almacenado significa que a las instrucciones se ejecutan para una función especifica en un computador (conocida como programa), y reciben en la memoria, y pueden ser remplazados rápidamente por otro conjunto de instrucciones para otra función o propósito diferente. Durante esta época surgieron lenguajes de programación sofisticados tales como COBOL Y FORTRAN estos remplazaron el utilizado código de maquina.
TERCERA GENERACION (1964-1961)
A pesar de que los transistores fueron claramente una mejora sobre lo tubos de vacio, todavía generaban mucho calor ocasionando daños en las artes internas de las computadoras, la roca de cuarzo elimino este problema. Jack kilby, un ingeniero en la Texas intruments, desarrollo el circuito integrado en 1958 este circuito convino tres componentes electrónicos fundamentales sobre un pequeño disco de silicón el cual fue construido de cuarzo, los científicos tiempo después lograron agregar mas componentes en un simple chip, llamado semiconductor, como resultado de esto las computadoras llegaron a ser mucho mas pequeño en la medida que se iban agregando mas componentes a los chips. Otro desarrollo importante dentro del desarrollo de esta tercera generación incluyo el uso de un sistema operativo que permitió a las maquinas correr muchos programas a la vez, dando origen a multiprogramación con un programa central que monitoreaba y condenaba la memora del computador.
CUARTA GENERACION (1980- PRESENTE)
Con el desarrollo de los circuitos LSI (LARGE SCALE INTEGRATION integración a gran escala) que contiene miles de transistores en un centímetro cuadrado de silicio (chip), nació la era de computadora personal en términos de arquitectura, las computadoras personales (que al principio eran conocidas como microcomputadoras) no era del todo distintas de las minicomputadoras de la clase PDP-11, pero en términos de precio sin dudas eran distintas. Mientras que la minicomputadora hizo posible que un departamento en una compañía o universidad tuviera su propia computadora en chip microprocesador logro que un individuo tuviera su propia computadora personal. Cuando internet presento el microprocesador 80-80 en 1974 (la primera CPU de 8 bits de propósito general) deseaba un sistema operativo en parte para poder probarlo Intel pidió a uno de sus consultores, Gary Kendall que escribiera. Kendall y un amigo que construyeron primero un dispositivo controlador para el disco flexible de 8 pulgadas de shugart. Associates que recién había sido sacado al mercado, y conectaron el disco flexible con 80-80 con lo cual produjeron la microcomputadora con un disco. Después Kendall escribió un sistema operático basado en disco conocido como CP/M (control programa for microcomputers) programa de control para las microcomputadoras para esta CPU. Como Intel no pensó que las microcomputadoras basadas en disco tuvieran mucho futuro cuando Kendall pidió los derechos CP/M Intel le concedió su petición. Después Kendall fundo una compañía llamada digital resecar para desarrollar y vender el CP/M.
En 1977 digital resersch rediseño el CP/M para adaptarlo de manera que se pudiera ejercitar en todas las microcomputadoras que utilizaban los chips 8080.
HISTORIA
La historia de windowos comienza con un sistema operativo desarrollado por Microsoft para el primer computador personal IBM y conocido como MS-DOS o PC-DOS, la versión inicial, DOS 1.0 apareció en 1981. Estaba compuesto por 4000 líneas de código fuente en ensamblador y ejecutaba en 8 Kbyte de memoria, utilizando el microprocesador Intel 8086.
Cuando IBM desarrollo un computador personal basado en disco duro, el PC XT, Microsoft desarrollo DOS 2.0, que salió al mercado en 1983. Este sistema deba soporte al disco duro y proporcionaba jerarquía de directorios. Hasta ese momento, un disco podía contener solo un directorio con ficheros soportando un máximo de 64 ficheros. Mientras que esto era un adecuado en la era de los disquetes era demasiado limitado para los discos duros, y la restricción de un solo directorio. Esta nueva versión también permitía que los directorios contuvieran subdirectorios como ficheros la nueva versión también contenía un conjunto de mandatos mas rico que el sistema operativo, que proporcionaba funciones que eran realizadas como programas externos con la versión 1. Entre las capacidades añadidas se encontraban algunas características de los sistemas UNIX, como la redirección de E/S que consiste en la capacidad para modificar la entrada o la salida de una determinada aplicación y la impresión en segundo plano. La porción de memoria resistente creció a 24 Kbyte.
Cuando IBM anuncio el PC AT en 1984, Microsoft introdujo DOS 3.0. A los sistemas AT contenía el procesador Intel 80286, que proporcionaba características de direccionamiento extendido y protección de memoria. Estas no eran utilizadas por DOS. Para que fuera compatible con versiones anteriores el sistema operativo simplemente utilizaba el 80286 como un 8086 rápido el sistema operativo si daba soporte a un nuevo teclado y periféricos de un disco duro. Incluso así, los requisitos 3.0 DOS 3.1 que aprecio en 1984 daba soporte a la conexión a través de la red para PC. El tamaño de la porción residente no cambio; esto se logro incrementando la cantidad de sistema operativo que podía ser intercambiado. DOS 3.3, que apareció en 1987 daba soporte a la nueva línea de maquinas IBM las PS/2. De nuevo esta versión no se beneficiaba de las capacidades del procesador PS/2 proporcionadas por el 80286 y los Chips de 21 bits 80386. En este punto, la porción residente había alcanzado una mínima de 46 Kbyte, incrementándose esta cantidad si se recolectaba ciertas extensiones opcionales.
En este momento, DOS, estaba utilizando el entorno muy por debajo de sus posibilidades. La introducción del 80486 y el chip Intel Pentium proporcionaban características que simplemente no podía explotar un sencillo sistema DOS. Mientras tanto al comienzo de los años 80 Microsoft comenzó a desarrollar una interfaz grafica de usuario GUI que seria interpuesta entre el usuario y el sistema operativo DOS. El objetivo de Microsoft era competir con Macintosh, cuyo sistema operativo era insuperable por facilidad de uso.
En 1990 cuando yo naci J Microsoft tenia una versión de la GUI conocida como Windows 3.0 que incorporaba algunas características mas amigables de Macintosh. Sin embargo, estaba todavía limitada por la necesidad de ejecutar encima de DOS.
Microsoft intento el desarrollo de un sistema operativo de una nueva generación con IBM para explotar la potencia de los nuevos microprocesadores, el cual incorporaría las característica de facilidad de uso de Windows pero este proyecto fue finalmente abortado. Después de este intento fallido Microsoft desarrollo un nuevo y propio sistema operativo desde cero que denomino Windows NT, Windows NT explota las capacidades de los microprocesadores contemporáneos y proporciona multitarea en un entorno mono o multiusuario.
La primera versión de Windows NT 3.1 apareció en 1993 con la misma interfaz grafica que Windows 3.1otro sistema operativo de Microsoft sin embargo NT3.1 era un nuevo sistema operativo de 32 bits con l capacidad de dar soporte a las aplicaciones Windows, a las antiguas aplicaciones DOS y a OS/2.
Después de varias versiones de NT3.x, Microsoft produjo NT4.0 tiene esencialmente la misma arquitectura interna que 3.x. el cambio externo mas notable es que NT4.0 proporciona la misma interfaz de usuario que Windows 95. El cambio arquitectónico mas importante es que varios componentes gráficos que ejecutaban en modo usuario como parte de subsistema WIN 32 en 3.x. se mueven en el sistema ejecutivo de Windows NT, que ejecuta en modo núcleo. El beneficio de este cambio consiste en la aceleración de estas funciones importantes. La desventaja potencial es que estas funciones graficas ahora tienen acceso a servicios de bajo nivel del sistema que pueden impartir en la fiabilidad del sistema operativo.
En 2000, Microsoft introdujo la siguiente actualización que se materializo en el sistema Windows 2000, el sistema ejecutivo subyacente y la arquitectura del núcleo son fundamentalmente los mismos que NT 4.0 pero se han añadido nuevas características. El énfasis de Windows 2000 es la adición de servicios y funciones que dan soporte al procesamiento distribuido. El elemento central de las nuevas características de Windows 2000 es active directory que es un servicio de directorios distribuido capaz de realizar una proyección entre nombre de objetos arbitrarios y cualquier información sobre dichos objetos. En el 2001aparecio la última versión de escritorio de Windows, conocida como Windows XP se ofrecieron versiones XP tanto de PC de hogar como de estación de trabajo de negocio. También es un servidor conocido como Windows server 2003 Microsoft existen versiones disponibles 34 y 64 bits las nuevas versiones de 64 bits de XP y server 2003 están diseñadas específicamente para el hardware de Intel Itaniunm 64 bits.
Diferencias entre UBUNTU Y WINDOWS
Al tratarse de un producto bajo una licencia de software libre, Linux está disponible a coste cero. Se puede descargar gratuitamente desde Internet o se pueden adquirir distribuciones en CD/DVD, a un coste prácticamente simbólico. Una vez obtenida la copia, ésta puede ser instalada en cualquier ordenador sin ninguna restricción. Como contraste están los sistemas operativos que no son libres como Windows y que tienen unas licencias de uso tan restrictivas que requieren de una licencia distinta (con un coste aproximado de unos 100€) para cada ordenador donde se quiera instalar.
En general, los sistemas de software libre son intrínsecamente más seguros que los sistemas propietarios. Los requerimientos de las licencias de software libre obligan a poner el código fuente a disposición de la comunidad para que pueda ser estudiado, modificado y redistribuido con toda libertad (sin restricciones). Este hecho contrasta también con la política de los sistemas propietarios como Windows; en los cuales no se distribuye nunca el código fuente (hay que recordar que, entre otras restricciones, este tipo de licencias únicamente permite su uso en un único equipo). Al estar el código fuente de los programas que operan bajo licencia de software libre bajo el escrutinio público de la comunidad, será raro encontrar en ellos puertas traseras que puedan comprometer su seguridad.
La posibilidad de que, en una fecha futura, y debido a la obsolescencia o a otras razones, se interrumpa el soporte para Linux es absolutamente remota. Esto es así debido a que el código fuente está siempre disponible para cualquiera que lo desee. En contraste a esta situación se encuentran los sistemas propietarios como Windows que siguen manteniendo su código en absoluto secreto incluso años después de que se suspenda el soporte a los productos (Windows NT, Millenium, Windows 95/98, Windows 3.1,…)
A diferencia de lo que pasa en los sistemas propietarios como Windows, en Linux no existen las actualizaciones forzadas. Las actualizaciones forzadas son aquellas que suceden cuando el desarrollador de un producto deja de darle soporte; esto es, de actualizar los parches de seguridad, de desarrollar nuevos drivers específicos para nuevo hardware, etc. Así las cosas, los usuarios se ven obligados a actualizar el producto a una nueva versión; lo que supone tener que adquirir (comprar) una nueva licencia de uso.
Linux presenta mayores niveles de seguridad, incluido un menor índice de infección por virus, troyanos, gusanos, spyware y otro tipo de malware. Esto es debido a que UNIX y sus descendientes (incluido Linux) han sido diseñados desde el inicio atendiendo a principios de seguridad y no tomándola como una idea adicional. Existe una gran cantidad de aplicaciones de muy alta calidad disponibles para Linux, muchas de las cuales tienen también una licencia de software libre. La mayoría de ellos, además, tienen características similares o, incluso, superiores a las aplicaciones equivalentes para Windows.
Debido a una mayor optimización del código fuente, generalmente, Linux es más rápido. De igual modo, la ejecución de cualquiera de las distribuciones de Linux tiene unos requisitos de hardware mucho menores que el equivalente en Windows; permitiendo incluso que las versiones actuales de Linux se puedan ejecutar en equipos antiguos (con procesadores 386 y 486), lo cual no es posible de ninguna de las maneras para las actuales versiones de Windows.
Linux y las aplicaciones de software libre utilizan formatos abiertos de ficheros como OpenDocument; lo cual permite soslayar el problema del lock-in hacia formatos propietarios. El lock-in es una estrategia comercial con las que se consigue que los usuarios estén firmemente ligados a una determinada plataforma. Con ello se consigue aumentar el coste y dificultar el cambio a otras aplicaciones. Los formatos abiertos de ficheros, además, permiten a los usuarios tener un control absoluto sobre sus ficheros de datos; particularmente en el caso de que, en el futuro, el desarrollador que haya creado originalmente el programa cese en el negocio o deje de dar soporte a versiones anteriores. Linux ofrece un alto grado de compatibilidad con otros sistemas operativos. Por ejemplo, desde Linux se puede leer, escribir, copiar, borrar y realizar otros tipos de manipulación en datos que residan en particiones de Windows dentro del mismo disco duro. Puede actuar como un servidor de ficheros en redes de ordenadores con clientes Windows, puede formatear discos para ser usados bajo Windows e incluso, si es necesario, puede ejecutar directamente programas de Windows. En contraste, los sistemas operativos de Windows no pueden acceder a particiones de disco que contengan otros sistemas operativos, no pueden formatear discos para trabajar con otros sistemas, etc.
Linux ofrece un alto grado de flexibilidad de la configuración. Esto permite, de forma muy sencilla, una personalización del equipo sin tener que modificar el código fuente. Por ejemplo, es fácil configurar Linux de modo que sea optimizado para su uso como estación de trabajo, como ordenador de escritorio o, incluso, como servidor web o de base de datos. Asimismo, el aspecto y el comportamiento del escritorio, incluyendo los iconos y los menús, se pueden configurar en un número casi infinito de maneras, según el gusto y los requisitos del usuario. Incluso se puede configurar para que se parezca a Windows. Si esto no es bastante, y ahora sí, sólo para usuarios avanzados, la capacidad de tener acceso, de revisar libremente y recompilar el código fuente permite una flexibilidad virtualmente ilimitada de la configuración.