lunes, 8 de noviembre de 2010

SISTEMAS NUMÉRICOS FUNDAMENTOS DE LAS TIC

Los sistemas numéricos utilizados en informática son:

NOMBRE DEL SISTEMA
VALOR DE LA BASE
SIMBOLOS
BINARIO
2
1 Y O
DECIMAL
10
1,2, 3, 4,5….
HEXAGESIMAL
16
1-9, A-F



El sistema binario 



El sistema binario es un sistema de numeración en el que los números se representan utilizando las cifras cero y uno, esto es informática tiene mucha importancia ya que las computadoras trabajan internamente con 2 niveles de voltaje lo que hace que su sistema de numeración natural sea binario, por ejemplo 1 para encendido y 0 para apagado[1]

El sistema de numeración binario utiliza sólo dos dígitos, el cero (0) y el uno (1).

En una cifra binaria, cada dígito tiene distinto valor dependiendo de la posición que ocupe. El valor de cada posición es el de una potencia de base 2, elevada a un exponente igual a la posición del dígito menos uno. Se puede observar que, tal y como ocurría con el sistema decimal, la base de la potencia coincide con la cantidad de dígitos utilizados (2) para representar los números.

De acuerdo con estas reglas, el número binario 1011 tiene un valor que se calcula así:[2]



1*23 + 0*22 + 1*21 + 1*20 , es decir: 

8 + 0 + 2 + 1 = 11 



y para expresar que ambas cifras describen la misma cantidad lo escribimos así:



10112 = 1110



Sistema decimal



El sistema de numeración que utiliza más habitualmente es el decimal, que se compone de diez símbolos o dígitos (0, 1, 2, 3, 4, 5, 6, 7, 8 y 9) a los que otorga un valor dependiendo de la posición que ocupen en la cifra: unidades, decenas, centenas, millares, etc.

El valor de cada dígito está asociado al de una potencia de base 10, número que coincide con la cantidad de símbolos o dígitos del sistema decimal, y un exponente igual a la posición que ocupa el dígito menos uno, contando desde la de recha.

En el sistema decimal el número 528, por ejemplo, significa:



5 centenas + 2 decenas + 8 unidades, es decir: 

5*102 + 2*101 + 8*100 o, lo que es lo mismo: 

500 + 20 + 8 = 528 



En el caso de números con decimales, la situación es análoga aunque, en este caso, algunos exponentes de las potencias serán negativos, concreta mente el de los dígitos colocados a la derecha del separador decimal. Por ejemplo, el número 8245,97 se calcularía como:



8 millares + 2 centenas + 4 decenas + 5 unidades + 9 décimos + 7 céntimos

8*103 + 2*102 + 4*101 + 5*100 + 9*10-1 + 7*10-2, es decir:

8000 + 200 + 40 + 5 + 0,9 + 0,07 = 8245,97[3]





Sistema hexadecimal 


En el sistema hexadecimal los números se representan con dieciséis símbolos: 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E y F. Se utilizan los caracteres A, B, C, D, E y F representando las cantidades decima les 10, 11, 12, 13, 14 y 15 respectivamente, porque no hay dígitos mayores que 9 en el sistema decimal. El valor de cada uno de estos símbolos depende, como es lógico, de su posición, que se calcula mediante potencias de base 16.[4]

Calculemos, a modo de ejemplo, el valor del número hexadecimal 1A3F16:



1A3F16 = 1*163 + A*162 + 3*161 + F*160 


1*4096 + 10*256 + 3*16 + 15*1 = 6719 


1A3F16 = 671910 






[1] LEOPOLDO CARLOS, el sistema binario fuente electrónica (en línea) techtastico http://techtastico.com/post/el-sistema-binario/

[2] Sistemas de numeración fuente electrónica (en línea) http://platea.pntic.mec.es/~lgonzale/tic/binarios/numeracion.html

[3] Ibíd. Sistemas de numeración fuente electrónica (en línea) http://platea.pntic.mec.es/~lgonzale/tic/binarios/numeracion.html

[4] Ibíd. Sistemas de numeración fuente electrónica (en línea) http://platea.pntic.mec.es/~lgonzale/tic/binarios/numeracion.html

FUNDAMENTOS DE LAS TIC UNISALLE LICENCIAMIENTO DE SOFTWARE

¿Que es una Licencia?

El creador del software, diseña una licencia para tener un control sobre este, sin embargo quien acepte las condiciones expuestas en la licencia podrá acceder al software y utilizar este recurso  siempre y cuando respete y siga las instrucciones dadas.
Jorge Nonios define licencia como: “Declaración unilateral del autor del programa en el que expresa las condiciones en que se puede acceder a él y explorarlo. Como tal declaración prácticamente no tiene ningún valor legal, sólo lo adquiere cuando una persona acepta sus términos. Como el lógico cuando la licencia es rechazada, o no se acepta, simplemente no llega a tener efecto”[1].
Por otro lado las licencias también pueden establecer los derechos del propietario del software hacia un usuario final, con sus determinados límites, responsabilidades, plazo de derechos y la validez del contrato hacia el compromiso del buen uso del beneficiario.
Estas licencias se diseñan con distintos objetivos empresariales que puedan rectificar el buen uso de la información  y el sostenimiento del programa.
Sin embargo, las licencias tienen una determinada clasificación de acuerdo a su uso y a su precio:

·         Licencia propietaria.
·         Shareware.
·         Freeware.
·         Software.

Mediante las restricciones que existen en las licencias se busca garantizar la libertad del software, basado principalmente en las clausulas de cada licencia que permitan a los usuarios el fácil manejo del programa con sus determinadas reglas y  limitaciones.










[1] JORGE NONIOS. Introducción a las licencias de software libre EN: Revista la Espiral  [En línea].  Junio, 2002.  Vol. 0.9.  http://quark.fe.up.pt/laespiral/articulos/licencias/licencias.pdf  [Citado el 16 de octubre de 2010].

¿QUE SON LAS TIC?


Tecnología:  
Es el conjunto de teorías y de técnicas que permiten el aprovechamiento práctico del conocimiento científico.
Información:
Adquisición de conocimientos que permiten ampliar o precisar los que se poseen sobre una materia determinada.
Comunicación:
Transmisión de señales mediante un código común al emisor y al receptor.
Las Tecnologías de la Información y las Comunicación (TIC) son incuestionables y están ahí, forman parte de la cultura tecnológica que nos rodea y con la que debemos convivir. Amplían nuestras capacidades físicas y mentales. Y las posibilidades de desarrollo social.

fuente: Real Academia Española (RAE)

sábado, 6 de noviembre de 2010

HISTORIA DE LOS SISTEMAS OPERATIVOS

TEMA A TRATAR

Historia sobre los sistemas operativos, desde sus inicios hasta la actualidad.

SUBTEMAS A TRATAR
  • WINDOUS Y UBUNTU
  • LOS COMPUTADORES POR GENERACIONES
  • DEFINICION
  • HISTORIA

RESUMEN

Este informe abarca aspectos, tales como: definición de un sistema operativo  historia de los sistemas operativos, ventajas  y desventajas de los mismos, luego de una breve descripción de los aspectos anteriores y se  enfoca a comparar el sistema operativo Windows con Ubuntu.

PALABRAS CLAVES

Sistemas operativos, historia, versiones, actualidad, características de un
Sistema operativo.

INTRODUCCION

Se introduce el tema, sistemas operativos, definición,  historia, instalación de Ubuntu e imágenes complementarias que facilitan el entendimiento  en el proceso de instalación de el sistema operativo Ubuntu.


TEXTO GENERAL DEL INFORME/TRABAJO

CONCEPTO DE DE LOS SISTEMAS OPERATIVOS:

Se entiende por sistemas operativo un conjunto de programas instalados en un sistema de proceso de datos a un ordenador, que ejerce el control de los equipos físicos encargados de realizar cálculos y operaciones de entrada y salida de información (CPU, canalés), de los equipos que soportan esta información (memoria principal, soportes secundarios) y del contenido de los soportes de información (ficheros, bibliotecas de programas).


Estos programas resuelven conflictos que se plantean durante la utilización de los componentes del sistema, aseguran en mayor o menor medida un uso eficiente y seguro de todos estos componentes y simplifican la realización e trabajos con ordenador
Los programas del sistema operativo actúan como intermediarios entre los programas de aplicación y los componentes físicos de un trabajo (hardware) del ordenador, administrando la actividad de estos componentes de modo que el rendimiento de la instalación sea el mayor posible. Así mismo, protegen unas tareas de los posibles fallos de otras.

LOS COMPUTADORES POR GENERACIONES:

PRIMERA GENERACION: (1945- 1956)

Al darse la segunda guerra mundial, vieron el desarrollo de las computadoras como la gran oportunidad de explotar su potencial importancia estratégica. Esto incremento las partidas para los proyectos de desarrollo de las computadoras para acelerar su progreso técnico. En 1941, el ingeniero KONRAD ZUSE desarrollo un computador denominado  Z3, para diseñar aeroplanos y misiles. Las fuerzas aliadas, sin embargos, se lanzaron resueltamente  en el desarrollo computadoras poderosas. En 1943, los británicos construyeron un computador para descifrar códigos secretos, llamado COLUSSOS y lograron interpretar mensajes alemanes. El impacto de Colussos y lograron interpretar mensajes alemanes. El impacto de Colussos en el desarrollo de la industria de las computadoras fue muy limitado por dos razones poderosas. La primera, no era un computador de propósito general, la segunda, la existencia de la maquina permaneció en secreto durante muchas décadas, después del a guerra. Los esfuerzos americanos tuvieron un amplio alcance. Howard Aiken, un ingeniero de harbad, que trabajo con la IBM. Tuvo éxito en la producción de un calculador electrónico en 1944 el propósito del computador fue crear trayectoria balísticas para la marina de los EEUU. Su tamaño era la mitad de una cancha de futbol y tenía más de 5000 mil alambres. Este computador se llamo MARK I.
Otro computador desarrollado ene esta época el ENIAC hoy integrador o computador numérico electrónico producido por una alianza entre el gobierno de estados unidos y la universidad de Pensilvania.
Consistía de 18000 mil tubos de vacio, parecidos a, los tubos de radios antiguos, 70000 resistores  5 millones de punto de soldadura.
Consumía 160 kilowatios de energía eléctrica, suficientemente para disminuir las luces en casi toda Filadelfia, sus desarrolladores fueron John Presper eckert y John Mauchly. Este computador si era de propósitos generales y unas 1000 veces más rápido que MARCK I.

A mediados de la década del cuarenta, John von, se integro al equipo de la universidad de Pensilvania, para dar a luz conceptos en diseño de computadoras que permanecieron por mas de 40 años. Diseño el EDVAC, computador automático electrónico de variable discreta en 1945 con una memoria que permita guardas datos y programas. De hay surgió el concepto de MEMORIA DE ALMACENAMIENTO Y PROGRAMA ALMACENADO característica fundamental de esta creación. Posteriormente, en 1951 surgió el primer computador oficial llamado UNIVAC I o computador automático universal.
Esta primera generación se caracterizo por el hecho de que las instrucciones se hicieran en una secuencia específica. Cada computador tenia un programa codificado, en binarios llamado leguaje de maquinas y en uso de tubos vacios y tambores magnéticos para almacenar la información.

SEGUNDA GENERACION (1956-1963)

Linvesion de trassistor  en 1948, trajo grandes cambios en el desarrollo de las computadoras. El transistor remplazo los grandes tubos de vacio radios y computadoras. Esta tecnología se incorporo 1956 a las computadoras acoplados con previo avances en la memoria de grupos magnéticos, los transitorias guiaron la segunda generación de las computadoras las cuales fueron mas rápidos mas confiables y mas eficientes en energía que sus predecesores. Las primeras maquinas que tomaron ventaja de la tecnología del transistor fueron las computadoras STRETCH DIVM LARCde sperry- rand ambas dedicas a aspectos científicos. A comienzos de los años 60 se desarrollo un número de computadores exitosos comercialmente y fueron utilizadas en los negocios universidad y el gobierno. Esta segunda generación se caracterizo por su diseño de estado solido también surgieron algunos componentes asociados con las computadoras modernos: almacenamiento en disco memoria, sistema operativo, y programas almacenados.
Un importante ejemplo fue IVM 1401 el cual aceptado universalmente por la industria, y es considerado por muchos como el modelo T de la industria de las computadoras alrededor de 1965, muchas industrias procesaron en forma rutinaria, información financiera utilizando estas computadoras.
El hecho de tener programas almacenados y lenguaje de programación fue lo que le dio  a estas computadoras la flexibilidad para finalmente para ser efectivos en costo y productivos para uso de los negocios, el concepto de programa almacenado significa que a las instrucciones se ejecutan para una función especifica en un computador (conocida como programa), y reciben en la memoria, y pueden ser remplazados rápidamente por otro conjunto de instrucciones para otra función o propósito diferente. Durante esta época surgieron lenguajes de programación sofisticados tales como COBOL Y FORTRAN estos remplazaron el utilizado código de maquina.

TERCERA GENERACION (1964-1961)

A pesar de que los transistores fueron claramente una mejora sobre lo tubos de vacio, todavía generaban mucho calor ocasionando daños en las artes internas de las computadoras, la roca de cuarzo elimino este problema. Jack kilby, un ingeniero en la Texas intruments, desarrollo el circuito integrado en 1958 este circuito convino tres componentes electrónicos fundamentales sobre un pequeño disco de silicón el cual fue construido de cuarzo, los científicos tiempo después lograron agregar mas componentes en un simple chip, llamado semiconductor, como resultado de esto las computadoras llegaron a ser mucho mas pequeño en la medida que se iban agregando mas componentes a los chips. Otro desarrollo importante dentro del desarrollo de esta tercera generación incluyo el uso de un sistema operativo que permitió a las maquinas correr muchos programas a la vez, dando origen a multiprogramación con un programa central que monitoreaba y condenaba la memora del computador.

CUARTA GENERACION (1980- PRESENTE)

Con el desarrollo de los circuitos LSI (LARGE SCALE INTEGRATION integración a gran escala) que contiene miles de transistores en un centímetro cuadrado de silicio (chip), nació la era de computadora personal en términos de arquitectura, las computadoras personales (que al principio eran conocidas como microcomputadoras) no era del todo distintas de las minicomputadoras de la clase PDP-11, pero en términos de precio sin dudas eran distintas. Mientras que la minicomputadora hizo posible que un departamento en una compañía o universidad tuviera su propia computadora en chip microprocesador logro que un individuo  tuviera su propia computadora personal. Cuando internet presento el microprocesador 80-80 en 1974 (la primera CPU de  8 bits de propósito general) deseaba un sistema operativo en  parte para poder probarlo Intel pidió a uno de sus consultores, Gary Kendall que escribiera. Kendall y un amigo que construyeron primero un dispositivo controlador para el disco flexible de 8 pulgadas de shugart. Associates que recién había sido sacado al mercado, y conectaron el disco flexible con 80-80 con lo cual produjeron la microcomputadora con un disco. Después Kendall escribió un sistema operático basado en disco conocido como CP/M (control programa for microcomputers) programa de control para las microcomputadoras para esta CPU. Como Intel no pensó que las microcomputadoras basadas en disco tuvieran mucho futuro cuando Kendall pidió los derechos CP/M Intel le concedió su petición. Después Kendall fundo una compañía llamada digital resecar para desarrollar y vender el CP/M.
En 1977 digital  resersch rediseño el CP/M para adaptarlo de manera que se pudiera ejercitar en todas las microcomputadoras que utilizaban los chips 8080.

HISTORIA

La historia de windowos comienza con un sistema operativo desarrollado por Microsoft para el primer computador personal IBM y conocido como MS-DOS o PC-DOS, la versión inicial, DOS 1.0 apareció en 1981. Estaba compuesto por 4000 líneas de código fuente en ensamblador y ejecutaba en 8 Kbyte de memoria, utilizando el microprocesador Intel 8086.
Cuando IBM desarrollo un computador personal basado en disco duro, el PC XT, Microsoft desarrollo DOS 2.0, que salió al mercado en 1983. Este sistema deba soporte al disco duro y proporcionaba jerarquía de directorios. Hasta ese momento, un disco podía contener solo un directorio con ficheros soportando un máximo de 64 ficheros. Mientras que esto era un adecuado en la era de los disquetes era demasiado limitado para los discos duros, y la restricción de un solo directorio. Esta nueva versión también permitía que los directorios contuvieran subdirectorios como ficheros la nueva versión también contenía un conjunto de mandatos mas rico que el sistema operativo, que proporcionaba funciones que eran realizadas como programas externos con la versión 1. Entre las capacidades añadidas se encontraban algunas características de los sistemas UNIX, como la redirección de E/S que consiste en la capacidad para modificar la entrada o la salida de una determinada aplicación y la impresión en segundo plano. La porción de memoria resistente creció a 24 Kbyte.
Cuando IBM anuncio el PC AT en 1984, Microsoft introdujo DOS 3.0. A los sistemas AT contenía el procesador Intel  80286, que proporcionaba características de direccionamiento extendido y protección de memoria. Estas no eran utilizadas por DOS. Para que fuera compatible con versiones anteriores el sistema operativo simplemente utilizaba el 80286 como un 8086 rápido el sistema operativo si daba soporte a un nuevo teclado y periféricos de un disco duro. Incluso así, los requisitos 3.0 DOS 3.1 que aprecio en 1984 daba soporte a la conexión a través de la red para PC. El tamaño de la porción residente no cambio; esto se logro incrementando la cantidad de sistema operativo que podía ser intercambiado. DOS 3.3, que apareció en 1987 daba soporte a la nueva línea de maquinas IBM las PS/2. De nuevo esta versión no se beneficiaba de las capacidades del procesador PS/2  proporcionadas por el 80286 y los Chips de 21 bits  80386. En este punto, la porción residente había alcanzado una mínima de 46 Kbyte, incrementándose esta cantidad si se recolectaba ciertas extensiones opcionales.
En este momento, DOS, estaba utilizando el entorno muy por debajo de sus posibilidades. La introducción del 80486 y el chip Intel Pentium proporcionaban características que simplemente no podía explotar un sencillo sistema DOS. Mientras tanto al comienzo de los años 80 Microsoft comenzó a desarrollar una interfaz grafica de usuario GUI que seria interpuesta entre el usuario y el sistema operativo DOS. El objetivo de Microsoft era competir con Macintosh, cuyo sistema operativo era insuperable por facilidad de uso.
En 1990 cuando yo naci J Microsoft tenia una versión de la GUI conocida como Windows 3.0 que incorporaba algunas características mas amigables de Macintosh. Sin embargo, estaba todavía limitada por la necesidad de ejecutar encima de DOS.
Microsoft intento el desarrollo de un sistema operativo de una nueva generación con IBM para explotar la potencia de los nuevos microprocesadores, el cual incorporaría las característica de facilidad de uso de Windows pero este proyecto fue finalmente abortado. Después de este intento fallido Microsoft desarrollo un nuevo y propio sistema operativo desde cero que denomino Windows NT, Windows NT explota las capacidades de los microprocesadores contemporáneos y proporciona multitarea en un entorno mono o multiusuario.
La primera versión de Windows NT 3.1 apareció en 1993 con la misma interfaz grafica que Windows 3.1otro sistema operativo de Microsoft sin embargo NT3.1 era un nuevo sistema operativo de 32 bits con l capacidad de dar soporte a las aplicaciones Windows, a las antiguas aplicaciones DOS y a OS/2.
Después de varias versiones de NT3.x, Microsoft produjo NT4.0 tiene esencialmente  la misma arquitectura interna que 3.x. el cambio externo mas notable es que NT4.0 proporciona la misma interfaz de usuario que Windows 95. El cambio arquitectónico mas importante es que varios componentes gráficos que ejecutaban en modo usuario como parte de subsistema WIN 32 en 3.x. se mueven en el sistema ejecutivo de Windows NT, que ejecuta en modo núcleo. El beneficio de este cambio consiste en la aceleración de estas funciones importantes. La desventaja potencial es que estas funciones graficas ahora tienen acceso a servicios de bajo nivel del sistema que pueden impartir en la fiabilidad del sistema operativo.
En 2000, Microsoft introdujo la siguiente actualización  que se materializo en el sistema Windows 2000, el sistema ejecutivo subyacente  y la arquitectura del núcleo son fundamentalmente los mismos que NT 4.0 pero se han añadido nuevas características. El énfasis de Windows 2000 es la adición de servicios y funciones que dan soporte al procesamiento distribuido. El elemento central de las nuevas características de Windows 2000 es active directory que es un servicio de directorios distribuido capaz de realizar una proyección entre nombre de objetos arbitrarios y cualquier información sobre dichos objetos. En el  2001aparecio la última versión de escritorio de Windows, conocida como Windows XP se ofrecieron versiones XP tanto de PC de hogar como de estación de trabajo de negocio. También es un servidor conocido como Windows server 2003 Microsoft existen versiones disponibles 34 y 64 bits las nuevas versiones de 64 bits de XP y server 2003 están  diseñadas específicamente para el hardware de Intel Itaniunm 64 bits.

Diferencias entre UBUNTU Y WINDOWS

Al tratarse de un producto bajo una licencia de software libre, Linux está disponible a coste cero. Se puede descargar gratuitamente desde Internet o se pueden adquirir distribuciones en CD/DVD, a un coste prácticamente simbólico. Una vez obtenida la copia, ésta puede ser instalada en cualquier ordenador sin ninguna restricción. Como contraste están los sistemas operativos que no son libres como Windows y que tienen unas licencias de uso tan restrictivas que requieren de una licencia distinta (con un coste aproximado de unos 100€) para cada ordenador donde se quiera instalar.
En general, los sistemas de software libre son intrínsecamente más seguros que los sistemas propietarios. Los requerimientos de las licencias de software libre obligan a poner el código fuente a disposición de la comunidad para que pueda ser estudiado, modificado y redistribuido con toda libertad (sin restricciones). Este hecho contrasta también con la política de los sistemas propietarios como Windows; en los cuales no se distribuye nunca el código fuente (hay que recordar que, entre otras restricciones, este tipo de licencias únicamente permite su uso en un único equipo). Al estar el código fuente de los programas que operan bajo licencia de software libre bajo el escrutinio público de la comunidad, será raro encontrar en ellos  puertas traseras que puedan comprometer su seguridad.
La posibilidad de que, en una fecha futura, y debido a la obsolescencia o a otras razones, se interrumpa el soporte para Linux es absolutamente remota. Esto es así debido a que el código fuente está siempre disponible para cualquiera que lo desee. En contraste a esta situación se encuentran los sistemas propietarios como Windows que siguen manteniendo su código en absoluto secreto incluso años después de que se suspenda el soporte a los productos (Windows NT, Millenium, Windows 95/98, Windows 3.1,…)
A diferencia de lo que pasa en los sistemas propietarios como Windows, en Linux no existen las actualizaciones forzadas. Las actualizaciones forzadas son aquellas que suceden cuando el desarrollador de un producto deja de darle soporte; esto es, de actualizar los parches de seguridad, de desarrollar nuevos drivers específicos para nuevo hardware, etc. Así las cosas, los usuarios se ven obligados a actualizar el producto a una nueva versión; lo que supone tener que adquirir (comprar) una nueva licencia de uso.
Linux presenta mayores niveles de seguridad, incluido un menor índice de infección por virus, troyanos, gusanos, spyware y otro tipo de malware. Esto es debido a que UNIX y sus descendientes (incluido Linux) han sido diseñados desde el inicio atendiendo a principios de seguridad y no tomándola como una idea adicional.
Existe una gran cantidad de aplicaciones de muy alta calidad disponibles para Linux, muchas de las cuales tienen también una licencia de software libre. La mayoría de ellos, además, tienen características similares o, incluso, superiores a las aplicaciones equivalentes para Windows.
Debido a una mayor optimización del código fuente, generalmente, Linux es más rápido. De igual modo, la ejecución de cualquiera de las distribuciones de Linux tiene unos requisitos de hardware mucho menores que el equivalente en Windows; permitiendo incluso que las versiones actuales de Linux se puedan ejecutar en equipos antiguos (con procesadores 386 y 486), lo cual no es posible de ninguna de las maneras para las actuales versiones de Windows.
Linux y las aplicaciones de software libre utilizan formatos abiertos de ficheros como OpenDocument; lo cual permite soslayar el problema del lock-in hacia formatos propietarios. El lock-in es una estrategia comercial con las que se consigue que los usuarios estén firmemente ligados a una determinada plataforma. Con ello se consigue aumentar el coste y dificultar el cambio a otras aplicaciones. Los formatos abiertos de ficheros, además, permiten a los usuarios tener un control absoluto sobre sus ficheros de datos; particularmente en el caso de que, en el futuro, el desarrollador que haya creado originalmente el programa cese en el negocio o deje de dar soporte a versiones anteriores.
Linux ofrece un alto grado de compatibilidad con otros sistemas operativos. Por ejemplo, desde Linux se puede leer, escribir, copiar, borrar y realizar otros tipos de manipulación en datos que residan en particiones de Windows dentro del mismo disco duro. Puede actuar como un servidor de ficheros en redes de ordenadores con clientes Windows, puede formatear discos para ser usados bajo Windows e incluso, si es necesario, puede ejecutar directamente programas de Windows. En contraste, los sistemas operativos de Windows no pueden acceder a particiones de disco que contengan otros sistemas operativos, no pueden formatear discos para trabajar con otros sistemas, etc.
Linux ofrece un alto grado de flexibilidad de la configuración. Esto permite, de forma muy sencilla, una personalización del equipo sin tener que modificar el código fuente. Por ejemplo, es fácil configurar Linux de modo que sea optimizado para su uso como estación de trabajo, como ordenador de escritorio o, incluso, como servidor web o de base de datos. Asimismo, el aspecto y el comportamiento del escritorio, incluyendo los iconos y los menús, se pueden configurar en un número casi infinito de maneras, según el gusto y los requisitos del usuario. Incluso se puede configurar para que se parezca a Windows. Si esto no es bastante, y ahora sí, sólo para usuarios avanzados, la capacidad de tener acceso, de revisar libremente y recompilar el código fuente permite una flexibilidad virtualmente ilimitada de la configuración.






viernes, 5 de noviembre de 2010

DERECHOS DE AUTOR

Derechos de autor:

El autor del software está en su derecho de decidir si quiere dejar el programa para uso comunitario o libre y que cualquier persona pueda utilizarlo, o de lo contrario venderlo y comercializarlo. Además el creara una licencia donde exponga los puntos más relevantes que según el deba considérese a la hora de utilizar el programa y donde también demuestre sus intereses sobre su obra.

¿Qué protege el derecho de autor?

Se protege las obras literarias y artísticas, concepto que comprende, como lo menciona la Decisión andina 351 de 1993 “Toda creación intelectual original de naturaleza artística, científica o literaria susceptible de ser divulgada o reproducida por cualquier cosa”. Se deja abierta la inclusión de las más diversas obras, pues podemos ver como la tecnología abre nuevas alternativas de expresión y soportes en los que una obra pueda quedar plasmada. Una enumeración taxativa, habría dejado fuera a nuevas formas de expresión que se generan que se genera en el futuro.

Plazo de protección de los derechos de autor

El convenio de Berna dispone en su articulo 7, “La protección concedida por el presente convenio se extender durante la vida del autor y cincuenta años después de su muerte”.
De esta manera, es decisión de cada país regular el término de protección al derecho de autor y el mínimo de 50 años posteriores a su fallecimiento.


El software Libre:

Richard M. Stallaman define: “El software Libre es la libertad de los usuarios para ejecutar, copiar, distribuir estudiar, cambiar y mejorar el software”[1]. Además el plantea cuatro series de libertades que serán nombradas a continuación: “Libertad 0: Libertad para ejecutar el programa sea cual sea el propósito, Libertad 1Libertad para estudiar el funcionamiento del programa y adaptarlo a la las necesidades de los usuarios, Libertad 2: Libertad para redistribuir copias, Libertad 3: Libertad para mejorar el programa  luego publicarlo para el bien de toda la comunidad”[2]
Los avances tecnológicos han permitido el desarrollo de software cada vez más sofisticados, pero, en algunos casos estos son de libre acceso y por lo tanto es necesario comprar la licencia para su utilización. Debido a estas situaciones, se han dictado conferencias y ponencias donde se expone este tipo de casos con el fin de crear y establecer algunas políticas públicas que permitan el acceso permanente, respetando los principios básicos de derechos de autor.
Cuando un software es libre:
v  Permite el ingreso de las personas de escasos recursos
v  Crea Interés en las personas por crear y utilizar software libre
v  Permite el desarrollo tecnológico del país.

Características del software libre:

v  Se usa mediante un dispositivo de procesamiento digital de  datos que periten llevar a cabo una tarea específica.
v  Puede estar licenciado por un patente autoral.
v  Puede modificarse sin ninguna clase de límites.
El software libre es aquel que consta de libertades de uso ante los beneficiarios de cualquier programa, en el cual puedan copiar, ejecutar y distribuir el software para su mejoramiento.
Sus libertades primordiales deben ser:
v  Ejecutarlo con cualquier propósito
v  Estudiar como funciona y adaptar a las propias necesidades del programa.
v  Comercializar copias.
v  Mejorarlos para el uso del consumidor.
Finalmente el software libre tiene diferentes ubicaciones que facilitan su clasificación y su buen funcionamiento de acuerdo a las normas estipuladas para su uso:
v  De acuerdo al costo de adquisición
v  De acuerdo a la apertura del código de fuente.
v  De acuerdo a su protección.
v  De acuerdo a su legalidad.
Todo lo anterior tiene como objetivo principal el buen funcionamiento del software ante el público, puesto que si se usa correctamente se llevara a acabo un proceso de corrección de errores y busca de mejora del cualquier programa abierto al consumidor de la tecnología.
Así mismo se podrá desarrollar diferentes tipos de servicios que mejoren las tecnologías y mejorar la calidad del programa.
Para el buen funcionamiento de un software libre, es necesario estipular restricciones legales que permitan la modificación de cualquier programa, como por ejemplo la venta de licencias especiales  vigentes



[1] RICHARD M. STALLAMAN, Software Libre para una sociedad libre. Madrid: Traficantes de sueños, [En línea].  2004. p: 45. http://www.ie.unan.edu.ni/~lenin/libros/softlibre.pdf  [Citado el 16 de octubre de 2010].

[2] Ibíd. p 45