lunes, 16 de febrero de 2015

HISTORIA DE LOS SISTEMAS OPERATIVOS

El Sistema Operativo (SO), es lo que hace pensar al ordenador. Si nos queremos meter un poco más de forma técnica, podemos decir en un ordenador se ejecutan programas. Estos programas se dividen en dos apartados:
Software Básico
Software de Aplicación

El SO constituye la parte más importante del Software Básico y las funciones más importantes se pueden clasificar en dos grandes secciones.
Definición y realización de una máquina virtual
Gestión y distribución compartida de los recursos

A lo largo de la historia, han aparecido diferentes SSOO que, en cada momento, se encargaban de recoger las características punteras de lo que se descubría en el mundo de la informática. Hoy en día, se están desarrollando potentes SSOO basados en la Programación orientada a Objetos (POO).

El concepto de Sistema Operativo, no es nuevo. Los primeros SSOO aparecieron a finales de los años 50; al comienzo de la informática. Al principio, los primeros SSOO eran monousuario y monotarea, estos tenían la particularidad  de ser  gobernados con tarjetas perforadoras en vez de Diskettes.

Pronto empezaron a surgir nuevos conceptos y tras la malgama de SSOO que aparecieron, surgió uno de entre ellos, en el que estaban mezcladas todas las filosofías que hasta entonces se había descubierto en este mundo de la informática. Este SO se denominó Multics, son mediados de los años 60.

Poco tiempo después, se dieron cuenta los diseñadores de este SO que era en farragoso y muy difícil de administrar, así pues se cogió la esencia misma del SO y el mismo equipo que diseñó el Multics, se puso manos a la obra y a finales de los 60 sacan la primera versión de un SO que revolucionaría la informática; el Unix.

El Unix es hoy en día, casi 30 años después de su primera versión, para mucha gente que se dedica al mundo de los ordenadores, el único SO de redes real. Suele  manejarse en  administraciones y redes con grandes ordenadores. Se caracterizó en aquel entonces por ser un SO que incorporaba dos conceptos totalmente nuevos, la multitarea y acceso multiusuario; y durante mucho tiempo fue el único SO que se utilizó en las redes.


Dando un gran salto en el tiempo nos vamos a finales de los años 70. Por aquel entonces una casa de ordenadores sacó el primer ordenador personal, esa casa fue Apple. El éxito fue tal que en seguida otras casas empezaron a desarrollar ordenadores personales, entre ellas emergió IBM. 

Cada una de esas casas diseñó una serie de SSOO para sus máquinas; Apple el Mac OS, IBM el CP/M, que pronto fue sustituido por un SO que diseñó un joven, Bill Gates y sus colegas, el DOS. Ambos SSOO para su época fueron revolucionarios ya que el DOS intentaba coger el manejo de archivos del Unix pero limitando la potencia del Unix a un sólo usuario. 

Por contra, el Mac OS diseñaba un SO totalmente nuevo basado en una Interfaz Gráfica. Algo que rompió la tendencia de los SSOO que se diseñaron hasta entonces.

Mientras IBM optó por compartir sus licencias a todo fabricante, Apple no lo hizo. Esto fue la base del mercado de los PCs que conocemos hoy en día.
Siguieron pasando los años y a mediados de los 80 surgió, de la alianza Microsoft-IBM un SO que en principio sería destinado a sustituir el DOS, ese Sistema fue el OS/2. Este sistema aprovechaba las nuevas características de los PCs de entonces e introdujo un concepto nuevo al DOS, la multitarea. 

Poco tiempo después se produjo una ruptura sonada, el dúo Microsoft-IBM se rompía. Por un lado IBM seguiría con el OS/2, por otro lado Microsoft desarrolló un programa basado en el carácter intuitivo del interfaz gráfico del Macintosh, Windows. Este programa, que en principio fue catalogado como el juguete de los niños ricos, ya que imperaba el DOS sobre el PC, en poco tiempo se convirtió en el programa más vendido para PCs.

Se sacó el Windows 95. El SO más utilizado hoy en día en todo el mundo, que no el mejor.

Entre sus características destacan la multitarea, un interfaz de usuario muy intuitivo y un cliente de redes muy conseguido. El DOS sólo era monotarea. Con la salida a la luz de Windows 95, MS acaba con la vida del DOS como y con la de Windows como programa. El DOS ha sido el SO del PC durante más de 15 años
Desde el año 1990, surge entre los usuarios una demanda que obligó a MS al desarrollo de un SO que aprovechara la interfaz de Windows, pero orientado al mundo empresarial.

Windows NT: Ese SO aprovechó la interfaz e intuitividad de Windows para llevarla a las redes. Hasta entonces seguía dominada por el Unix, Tras un par de años de esfuerzos sale a la luz Windows NT y sus características son, como SO orientado a las redes, multitarea, estabilidad y multiusuario. Sus contras son excesivos recursos para poder ser utilizado en una red medianamente grande.

IBM seguía mejorando el OS/2 hasta unas cotas muy altas. Y es en 1994 en pleno retraso de MS por sacar un SO real para PC (entonces solo existía como SO el DOS), cuando IBM saca el OS/2 3.0, apodado Warp. Este SO se caracterizaba por tener un multitarea muy rápida, estabilidad enorme amén de una compatibilidad hasta entonces no posible.

Era capaz de ejecutar aplicaciones DOS, más rápidas y con más estabilidad que el DOS. Y lo mismo con Windows. Las aplicaciones Windows se ejecutaban mejor y de forma más estable sobre OS/2 que sobre el propio Windows, además de dar cobertura a todas las aplicaciones que se desarrollaran para OS/2.

El porqué de su éxito. Cuándo  salió Windows 95, la gente lo compró de forma masiva, se dio una puñalada de muerte a la que fue edad de oro de la informática.

A finales de 1991 surge el fenómeno más revolucionario que ha existido en la informática. Una persona llamada Linus Torvalds, estudiante de informática finlandés, quiere desarrollar un clónico del Unix. Hasta entonces el único SO que se utilizaba a nivel empresarial era ése. Y para ello pide ayuda por Internet
Mucha gente empezó a trabajar en el sistema. A partir de la versión 0.99, en Navidades de 1993, comenzó la distribución masiva. 
Lo que llamaba la atención de este proyecto es que era gratis. Y totalmente anónimo. No había una casa detrás de él que se hiciera responsable del proyecto. Linux (así se llamó el proyecto, en honor a su inventor) es el clónico Unix más vendido del mundo y no sólo eso, sino que debido a que toda la información sale por Internet, salen versiones cada vez mejores en muy poco periodo de tiempo; hasta llegar al caso de que son más rápidas las versiones Unix de Linux que las de los propios fabricantes tales como Sun, IBM o SCO.
Si a eso le sumamos que el año 1996 la NASA eligió como mejor SO de redes al Linux RedHat v4.1, nos podemos dar una ligera idea del fenómeno que ha supuesto Linux en el mercado.

El período que va desde 1993 hasta 1996 se caracterizó por una salida ingente de SSOO al mercado; ya que MS quiso introducirse en el mundo de las redes con nuevas versiones de Windows NT, IBM sacó una nueva versión del OS/2, destinado a sustituir al DOS, MS también sacó Windows 3.xx y Windows 95 que finalmente fueron los estándares del mercado, Sun y otros con versiones nuevas del Unix y el nuevo Linux que poco a poco ganaba más adeptos, incluso ya en centros universitarios.

MS, con Windows NT, apostó sobre las redes y se dedicó a sacar tres versiones en poco más de 3 años. Cada una de ellas mejores y más estable que la anterior, pero con el mismo problema de sus antecesoras, el excesivo número de recursos necesarios para administrar una red medianamente grande.

En 1996, el año que va hasta la fecha de hoy se ha caracterizado por un afianzamiento de los SSOO de MS, ya sean a nivel particular (Windows 95) o a nivel de redes (Windows NT)
Linux/Unix. El SO de los grandes ordenadores, grandes redes o simplemente, de las administraciones, y últimamente, de pequeños usuarios generalmente universitarios. Pese a ser viejo, el Unix, es sin duda ninguna, el SO para las redes.



miércoles, 11 de febrero de 2015

Tipos de Sistemas Operativos Para Estaciones De Trabajo

Estación de Trabajo Definiciones y Características.

Algunas actividades requieren simplemente ordenadores más potentes. Hay profesionales que no se pueden permitir demoras o “cuelgues” cuando están trabajando y precisan muchos recursos de sus ordenadores por el tipo de software que tienen que utilizar para su actividad. Son profesionales que necesitan una estación de trabajo para su trabajo. En este artículo vamos a ver qué es una estación de trabajo y quién las necesita.
Las estaciones de trabajo son como las herramientas de precisión del mundo de los ordenadores. Si los ordenadores personales destacan por su versatilidad, las estaciones de trabajo ofrecen por sus prestaciones y rendimiento un instrumento de precisión extremadamente eficaz para que los profesionales más exigentes puedan realizar con eficacia su trabajo.
 
Se trata de equipos diseñados para ofrecer el mejor rendimiento para aplicaciones técnicas o científicas, por lo que suelen disponer de una gran potencia específicamente para el tratamiento numérico y las aplicaciones gráficas en 2D y 3D. Por esta razón las estaciones de trabajo equipan los componentes más potentes y actualizados en lo que respecta al hardware y sistemas operativos de 64 bits para aprovecharlos al máximo.

Quién necesita una estación de trabajo?
Como hemos apuntado, las estaciones de trabajo son especialmente indicadas para aplicaciones con grandes necesidades de potencia de proceso o de potencia gráfica. Así, este tipo de ordenadores son los elegidos por profesionales de la arquitectura o que utilizan programas de CAD en general, ingenieros que utilicen programas de cálculos de estructuras y otras aplicaciones con cálculos complejos, edición de vídeo, animación en 3D, diseñadores, fotógrafo.
 
El elemento que nos marcará si necesitamos o no una estación de trabajo será la aplicación que utilicemos, por lo que nos fijaremos en los requisitos para decidir si necesitamos una estación de trabajo o no. También es posible que aplicaciones que generalmente pueden ejecutarse en un ordenador personal precisen de una estación de trabajo por el tipo de ficheros con los que trabajamos.
Es el caso de los fotógrafos que necesiten hacer retoques complejos en imágenes de muy alta resolución y de forma muy rápida, por ejemplo porque trabajen para una publicación periódica. También puede ocurrir en el caso de la edición de vídeo, cuando manejamos material de alta definición y los editores necesitan aplicar efectos o filtros en poco tiempo.

En general si realizamos una actividad en la que precisamos una respuesta inmediata de la aplicación con la que trabajamos y un PC normal de sobremesa no cubre nuestras necesidades, es conveniente que nos interesemos por la posibilidad de optar por una estación de trabajo. En ocasiones trabajar más rápido o de manera más eficaz sin cuelgues e interrupciones justifica con creces la inversión en hardware que vamos a realizar.

Elementos importantes de una estación de trabajo.

Hay dos elementos que suelen ser los más importantes a la hora de clasificar un ordenador como estación de trabajo: el procesador y la tarjeta gráfica. Son los responsables principales, aunque como veremos no los únicos, de que las aplicaciones más pesadas funcionen con la soltura y eficacia suficiente y no nos den problemas. Vamos a ver en qué componentes nos tenemos que fijar para adquirir una estación de trabajo adecuada.
 
Al escoger los componentes de nuestra estación de trabajo tengamos en cuenta que se trata de una inversión. Por esta razón es recomendable comprobar que los componentes que la componen están a la última, que son los modelos más recientes de los respectivos fabricantes. De esta forma no se quedarán desfasados y además de trabajar más rápido nos garantizaremos que la estación de trabajo no se queda obsoleta al poco tiempo. Eso no quiere decir que la estación de trabajo tenga que ser más cara. Si elegimos la marca adecuada podemos obtener lo último por un precio razonable.

Procesador:
En la actualidad los procesadores más indicados para equipar una estación de trabajo deben ser multinúcleo. Las principales aplicaciones profesionales y los sistemas operativos modernos pueden sacar el máximo partido a este tipo de CPU.

En ocasiones también podemos optar por ordenadores con múltiples procesadores, aunque la potencia de los modelos multinúcleo no lo hacen necesario en la mayoría de los casos. Los clásicos procesadores para una estación de trabajo son los Opteron de AMD o los i7 y Xeon de Intel.
 
Tarjeta gráfica:
Otro elemento que apuntábamos como importante, una tarjeta gráfica potente es indispensable para ciertas aplicaciones de CAD o edición de imagen y vídeo. Además las tarjetas de última generación “echan una mano” en tareas propias de la CPU como la codificación y decodificación de vídeo de alta definición e incluso en los cálculos numéricos.
 
Algunos modelos permiten incluso aceleración de aplicación de efectos de vídeo en tiempo real.

Memoria RAM: 
No solamente es muy importante la cantidad de memoria (hoy en día menos de 6 Gbytes no encontraremos en estaciones de trabajo “serias”) sino también la calidad. Es muy importante que la memoria sea fiable, y en ese caso comprobar que se trata de primeras marcas y con buenas cifras de respuesta. También hay que fijarse en la capacidad de ampliación que permite la placa base. Las placas profesionales permiten hasta 24 Gbytes en 6 bancos de memoria.

Disco duro: 
Otro elemento que puede influir en las prestaciones de nuestra estación de trabajo, se suelen buscar modelos de al menos 1 Tbyte. En ocasiones se incluyen dos o más discos duros para asegurar mayores prestaciones y una mayor seguridad en los datos.

Caja y Ensamblaje:
Así como los componentes tales como procesadores, tarjetas gráficas y placas base son importantes, también es fundamental que las estaciones de trabajo hayan sido ensambladas correctamente, que dispongan de cajas robustas, de un buen sistema de ventilación para evitar problemas de calentamiento (un aspecto sensible por la potencia de sus componentes), que no emitan demasiado ruido (para poder trabajar en condiciones óptimas) y en general que dispongan de una buena calidad de ensamblaje.
 

Incluso la buena disposición interna de los cables puede ser fundamental para que los componentes no lleguen a quemarse. Igualmente una buena fuente de alimentación es importantísima, por un lado para garantizar suficiente potencia eléctrica para el funcionamiento de todos los componentes de la estación de trabajo (que al ser potentes consumen especialmente), sino también que tenga una buena refrigeración y sea poco ruidosa, como hemos visto para la caja.


Software y Sistema Operativo: 
Es un elemento importante para sacar el máximo partido al equipo. En este caso es indispensable optar por sistemas de 64 bits para poder sacar partido a las grandes cantidades de memoria del sistema y para una mejor gestión de los recursos. Por otro lado la elección del software es muy importante, porque disponer de una estación de trabajo potente y un mal software es una mala combinación.
Entre los Sistemas Operativos para laborar en estaciones de trabajo tenemos Windows en sus versiones en general ya que son los mas utilizados, en cuanto a Linux o Ubuntu llegan a pasar de ellos por sus comandos pero eso no quiere decir que no sean utilizados aunque suelen ser mas complejos, dependiendo del conocimiento de la persona en cuanto a Software libre.

Bienvenida

Bienvenidos a mi Blog de sistemas operativos, en este Blog intentare dar a conocer parte de esta materia que curso en mi 4to semestre en la carrera de Ingeniería en Sistemas Computacionales, espero aportar mucho a distintos alumnos que estén interesados en conocer un poco la materia, la intención del Blog es dar información lo mas clara posible.
Dudo profundizar en la materia ya que no soy maestro, pero la intención esta ahí, en ayudar así que sin mas vamos a la materia.