¿se puede virtualizar todo? Tipos de virtualización

Virtualización

Virtualización es un término amplio que se refiere a la abstracción de los recursos de una computadora. Este término viene siendo usado desde antes de 1960, y ha sido aplicado a diferentes aspectos y ámbitos de la informática, desde sistemas computacionales completos hasta capacidades o componentes individuales. El tema en común de todas las tecnologías de virtualización es la de ocultar los detalles técnicos a través de la encapsulación. Un reciente desarrollo de nuevas plataformas y tecnologías de virtualización han hecho que se vuelva a prestar atención a este maduro concepto. Existen dos tipos de virtualización:

Virtualización de plataforma que involucra la simulación de máquinas virtuales.

Virtualización de recursos que involucra la simulación de recursos combinados, fragmentados o simples.

Virtualización de plataforma

El sentido original del término virtualización es el de la creación de una máquina virtual utilizando una combinación de hardware y software. Para nuestra conveniencia vamos a llamar a esto virtualización de plataforma.

La virtualización de plataforma es llevada a cabo en una plataforma de hardware mediante un software “host” (un programa de control) que simula un entorno computacional (máquina virtual) para su software “guest”. Este software “guest”, que generalmente es un sistema operativo completo, corre como si estuviera instalado en una plataforma de hardware autónoma. Típicamente muchas máquinas virtuales son simuladas en una máquina física dada. Para que el sistema operativo “guest” funcione, la simulación debe ser lo suficientemente robusta como para soportar todas las interfaces externas de los sistemas guest, las cuales pueden incluir (dependiendo del tipo de virtualización) los drivers de hardware.

Existen muchos enfoques a la virtualización de plataformas:

Emulación o simulación: la máquina virtual simula un hardware completo, admitiendo un sistema operativo “guest” sin modificar para una CPU completamente diferente. Este enfoque fue muy utilizado para permitir la creación de software para nuevos procesadores antes de que estuvieran físicamente disponibles. La emulación es puesta en práctica utilizando una variedad de técnicas, desde state machines hasta el uso de la recopilación dinámica en una completa plataforma virtual.q

Virtualización nativa y virtualización completa: la máquina virtual simula un hardware suficiente para permitir un sistema operativo “guest” sin modificar (uno diseñado para la misma CPU) para correr de forma aislada. Típicamente, muchas instancias pueden correr al mismo tiempo. Este enfoque fue el pionero en 1966 con CP-40 y CP[-67]/CMS, predecesores de la familia de máquinas virtuales de IBM. Algunos ejemplos: VMware Workstation, VMware Server, Parallels Desktop, Adeos, Mac-on-Linux, Win4BSD, Win4Lin Pro y z/VM.

Virtualización parcial (y aquí incluimos el llamado “address space virtualization”): la máquina virtual simula múltiples instancias de mucho (pero no de todo) del entorno subyacente del hardware, particularmente address spaces. Este entorno admite compartir recursos y aislar procesos, pero no permite instancias separadas de sistemas operativos “guest”. Aunque no es vista como dentro de la categoría de máquina virtual, históricamente éste fue un importante acercamiento, y fue usado en sistemas como CTSS, el experimental IBM M44/44X, y podría decirse que en sistemas como OS/VS1, OS/VS2 y MVS.

Paravirtualización: la máquina virtual no necesariamente simula un hardware, en cambio ofrece un API especial que solo puede usarse mediante la modificación del sistema operativo “guest”. La llamada del sistema al hipervisor tiene el nombre de “hypercall” en Xen y Parallels Workstation; está implementada vía el hardware instruction DIAG (“diagnose”) en el CMS de VM en el caso de IBM (este fue el origen del término hypervisor). Ejemplo: VMware ESX Server, Win4Lin 9x y z/VM.

Virtualización a nivel del sistema operativo: virtualizar un servidor físico a nivel del sistema operativo permitiendo múltiples servidores virtuales aislados y seguros correr en un solo servidor físico. El entorno del sistema operativo “guest” comparte el mismo sistema operativo que el del sistema “host” (el mismo kernel del sistema operativo es usado para implementar el entorno del “guest”). Las aplicaciones que corren en un entorno “guest” dado lo ven como un sistema autónomo. Ejemplos: Linux-VServer, Virtuozzo, OpenVZ, Solaris Containers y FreeBSD Jails.

Virtualización de aplicaciones: consiste en el hecho de correr una desktop o una aplicación de server localmente, usando los recursos locales, en una máquina virtual apropiada. Esto contrasta con correr la aplicación como un software local convencional (software que fueron “instalados” en el sistema). Semejantes aplicaciones virtuales corren en un pequeño entorno virtual que contienen los componentes necesarios para ejecutar, como entradas de registros, archivos, entornos variables, elementos de uso de interfaces y objetos globales. Este entorno virtual actúa como una capa entre la aplicación y el sistema operativo, y elimina los conflictos entre aplicaciones y entre las aplicaciones y el sistema operativo. Los ejemplos incluyen el ]]Java Virtual Machine]] de Sun, Softricity, Thinstall, Altiris y Trigence (esta metodología de virtualización es claramente diferente a las anteriores; solo una pequeña línea divisoria los separa de entornos de máquinas virtuales como Smalltalk, FORTH, Tel, P-code).

Virtualización de los recursos

El concepto básico de la virtualización de plataforma, descrita anteriormente, se extendió a la virtualización de recursos específicos del sistema como la capacidad de almacenamiento, nombre de los espacios y recursos de la red.

Los términos resource aggregation, spanning o concatenation (name spaces) se utiliza cuando se combinan componentes individuales en un mayor recurso o en un recurso de uso común (resource pools). Por ejemplo:

RAID  y volume managers combinan muchos discos en un gran disco lógico.

La Virtualización de almacenamiento (Storage virtualization) refiere al proceso de abstraer el almacenamiento lógico del almacenamiento físico, y es comúnmente usado en SANs (Storage Area Network). Los recursos de almacenamientos físicos son agregados al storage pool, del cual es creado el almacenamiento lógico. Múltiples dispositivos de almacenamiento independientes, que pueden estar dispersos en la red, le aparecen al usuario como un dispositivo de almacenamiento independiente del lugar físico, monolítico y que puede ser administrado centralmente.

Channel bonding y el equipamiento de red utilizan para trabajar múltiples enlaces combinados mientras ofrecen un enlace único y con mayor amplitud de banda.

Red privada virtual (en inglés Virtual Private Network, VPN), Traducción de dirección de red (en inglés Network Address Translation, NAT) y tecnologías de red similares crean una red virtual dentro o a través de subredes.

Sistemas de computación multiprocessor y multi-core muchas veces presentan lo que aparece como un procesador único, rápido e independiente.

Cluste
r  grid computing y servidores virtuales usan las tecnologías anteriormente mencionadas para combinar múltiples y diferentes computadoras en una gran metacomputadora.

Particionamiento es la división de un solo recurso (generalmente grande), como en espacio de disco o ancho de banda de la red, en un número más pequeño y con recursos del mismo tipo más fáciles de utilizar. Esto es muchas veces llamado “zoning”, especialmente en almacenamiento de red.

Encapsulación es el ocultamiento de los recursos complejos mediante la creación de un interfaz simple. Por ejemplo, muchas veces CPUs incorporan memoria caché o segmentación (pipeline) para mejorar el rendimiento, pero estos elementos no son reflejados en su interfaz virtual externa. Interfaces virtuales similares que ocultan implementaciones complejas se encuentran en los discos, módems, routers y otros dispositivos “inteligentes” (smart).

Redundant and RAID 6

Redundant and RAID 6

The drives are connected by dual SAS controllers with RAID 6 data protection. With RAID 5, you can recover your data by rebuilding the RAID array after one drive fails. But if you lose a second drive while you are rebuilding the array – or if you accidentally remove the wrong drive before you start the rebuild – you could lose data. RAID 6 adds a second parity stripe across each element of the array, giving you a second level of protection. One drive in the RAID set may fail but it’s far less likely that two drives will; and when a drive fails, the data is still protected even while you’re rebuilding the array.

This adds up to a fully dual redundant switched fabric between the blades and the storage, although Callahan won’t yet go into details about the technology. “There are dual paths to each drive, dual controllers fronting each drive, dual paths from the controller to the blades, dual switches in the blade chassis and dual connections from the switches to the blade,” Callahan said.

The SAS switch in the ExDS9100 means you don’t need external switches, interconnects or extra cabling within the data center. Avoiding fibre channel helps keep the overall cost down, and HP says it uses its buying power to keep the disk prices low. Current enterprise storage costs are around $15 per gigabyte, while HP promises the ExDS9100 will be “dramatically cheaper” than the other storage it sells, costing less than $2/GB. That still adds up to $500,000 for the standard 246TB or $1.64 million for 820TB.

Callahan predicts costs will continue to drop to a price of 11 cents per GB by 2011 for spinning disks and under a dollar for the same amount of solid state drive media, while adding that HP is working on “lots of interesting I things can’t talk about now.»

But when you’re pricing a petabyte system, it’s not just the purchase price that matters, it’s how much it will cost to keep it running. Multiple petabytes of storage mean there will be many thousands of spinning disks, some of which will fail. Distributed software and RAID protect data in case of disk failure, but you’ll still have to replace failed parts. Designing a system that makes it quicker and simpler to replace failed disks will thus save costs because you don’t need as much staff to run the system.

When drives or the fans in the disk enclosures fail, the PolyServe software tells you which one has failed and where – and gives you the part number for ordering a replacement. Add a new blade or replace one that’s failed and you don’t need to install software manually. When the system detects the new blade, it configures it automatically. That involves imaging it with the Linux OS, the PolyServe storage software and any apps you have chosen to run on the ExDS; booting the new blade; and adding it to the cluster. This is all done automatically. Automatically scaling the system down when you don’t need as much performance as you do during heavy server-load periods or marking data that doesn’t need to be accessed as often, also keeps costs down.

HP packs drives together more densely than most storage arrays, manages them with PolyServe to cut the costs of running the array and uses its buying power to push down the cost of the individual drives as well. Power usage and cooling needs are well within the range of what modern data centers can deliver, says Callahan but he admits that’s high, joking that “it also makes a great space heater.”

One option for reducing power and cooling costs is MAID, which comprises massive arrays of inactive disks that power down most of the drives most of the time. The first generation of ExDS does use MAID, but Callahan says HP is looking at the options. “Obviously it would be a nice idea, if you have a lot of drives in an environment, to not to have to spin all of them all the time,” Callahan said. “In the first release, though, we do spin all of them all the time.”

hp ibm web2.0

Diagrama de una configuración RAID 6. Cada número representa un bloque de datos; cada columna, un disco; p y q, códigos Reed-Solomon.

Un RAID 6 amplía el nivel RAID 5 añadiendo otro bloque de paridad, por lo que divide los datos a nivel de bloques y distribuye los dos bloques de paridad entre todos los miembros del conjunto. El RAID 6 no era uno de los niveles RAID originales.

El RAID 6 puede ser considerado un caso especial de código Reed-Solomon.1 El RAID 6, siendo un caso degenerado, exige sólo sumas en el campo de Galois. Dado que se está operando sobre bits, lo que se usa es un campo binario de Galois (GFleft(2^mright)). En las representaciones cíclicas de los campos binarios de Galois, la suma se calcula con un simple XOR.

Tras comprender el RAID 6 como caso especial de un código Reed-Solomon, se puede ver que es posible ampliar este enfoque para generar redundancia simplemente produciendo otro código, típicamente un polinomio en GFleft(2^8right) (m = 8 significa que estamos operando sobre bytes). Al añadir códigos adicionales es posible alcanzar cualquier número de discos redundantes, y recuperarse de un fallo de ese mismo número de discos en cualesquiera puntos del conjunto, pero en el nivel RAID 6 se usan dos únicos códigos.

Al igual que en el RAID 5, en el RAID 6 la paridad se distribuye en divisiones (stripes), con los bloques de paridad en un lugar diferente en cada división.

El RAID 6 es ineficiente cuando se usa un pequeño número de discos pero a medida que el conjunto crece y se dispone de más discos la pérdida en capacidad de almacenamiento se hace menos importante, creciendo al mismo tiempo la probabilidad de que dos discos fallen simultáneamente. El RAID 6 proporciona protección contra fallos dobles de discos y contra fallos cuando se está reconstruyendo un disco. En caso de que sólo tengamos un conjunto puede ser más adecuado que usar un RAID 5 con un disco de reserva (hot spare).

La capacidad de datos de un conjunto RAID 6 es n-2, siendo n el número total de discos del conjunto.

Un RAID 6 no penaliza el rendimiento de las operaciones de lectura, pero sí el de las de escritura debido al proceso que exigen los cálculos adicionales de paridad. Esta penalización puede minimizarse agrupando las escrituras en el menos número posible de divisiones (stripes), lo que puede lograrse mediante el uso de un sistema de ficheros WAFL.

Historia de Unix

Historia de Unix

 

 

 

Desde que comenzó a difundirse desde los Laboratorios Bell de AT&T a comienzos de la década de 1970, el éxito del sistema operativo Unix ha dado lugar a una gran cantidad de versiones diferentes: los que recibieron el (en ese tiempo gratis) código del sistema Unix, todos comenzaron a desarrollar sus propias versiones diferentes por sus propias, diferentes, vías para uso y venta. Universidades, institutos de investigación, cuerpos del gobierno y compañías de computación, todos comenzaron usando el poderoso sistema Unix para desarrollar muchas de las tecnologías las cuales hoy son parte de un sistema Unix.

Diseño asistido por computadora, sistemas de control de manufactura, simulaciones de laboratorio, aun el Internet mismo, todos comenzaron a vivir con y por los sistemas Unix. Hoy, sin los sistemas Unix, el Internet llegaría a un paro alarmante. ¡Muchas llamadas de teléfono no podrían ser hechas, el comercio electrónico sería presionado a pararse y nunca habría habido «Jurassic Park»!

A finales de la década de 1970, un efecto de onda entró en juego. Por el momento los estudiantes pre- y post-graduados cuyo trabajo de laboratorio ha explorado estas nuevas aplicaciones de tecnología alcanzaron posiciones de manejo y toma de decisiones dentro de los abastecedores de sistemas de computación y entre sus clientes. Y ellos, quisieron seguir usando sistemas Unix.

Pronto todos los grandes vendedores, y muchos de los más pequeños, estuvieron mercadeando sus propias, divergentes, versiones del sistema Unix optimizado para sus propias arquitecturas de computadora y luciendo muchas diferentes fortalezas y características. Los clientes encontraron que, aunque los sistemas Unix estaban disponible en todo lugar, ellos raramente fueron capaces de trabajar en grupo o co-existir sin destinar significativamente tiempo y esfuerzo para hacer que ellos trabajaran efectivamente. La marca registrada Unix era ubicua, pero ella fue aplicada a una multitud de diferentes e incompatibles productos.

A comienzos de la década de 1980, el mercado de los sistemas Unix ha crecido suficiente para ser notado por los analistas de la industria e investigadores. Entonces la pregunta ya no fue «¿Que es un sistema Unix?» sino «¿Es un sistema Unix satisfactorio para negocios y comercio?».

Desde el comiezo de la década de 1980 y la mitad de ésta, el debate sobre las fortalezas y debilidades de los sistemas Unix se propagó, frecuentemente recargado por las manifestaciones de los mismos vendedores quienes idearon proteger las ventas de sus sistemas propietarios rentables, proponiendo el desuso del sistema Unix. Y en un esfuerzo por diferenciar más sus propios productos de sus sistemas Unix, ellos se mantuvieron desarrollando y añadiendo características por su propia cuenta.

En 1984, otro factor trajo una atención adicional a los sistemas Unix. Un grupo de vendedores preocupados por el contínuo usurpamiento en sus mercados y el control de interfaces de sistemas por las grandes compañías, desarrollaron el concepto de «sistemas abiertos».

Los sistemas abiertos fueron aquellos que se encontrarían de acuerdo con especificaciones o estándares. Esto resultó en la formación de X/Open Company Ltd cuya remisión fue, y hoy permanece en la guisa de The Open Group, para definir un ambiente de sistemas abiertos comprehensivo. Los sistemas abiertos, declararon, ahorrarían en costos, atraerían una más amplia carpeta de aplicaciones y competición en términos iguales. X/Open escogió el sistema Unix como la plataforma para la base de los sistemas abiertos.

Aunque Unix todavía lo poseía AT&T, la compañía hizo poco comercialmente con él hasta mediados de la década de 1980. Entonces el foco de luz de X/Open mostró claramente que una versión simple y estándar del sistema Unix estaría en los amplios intereses de la industria y sus clientes. La pregunta era ahora «¿cuál versión?».

En un movimiento previsto a unificar el mercado en 1987, AT&T anunció un pacto con Sun Microsystems, el líder proponente de la versión de Unix derivada de Berkeley. Sin embargo, el resto de la industria vió el desarrollo con considerable preocupación. Creyendo que sus propios mercados estaban amenazados ellos se asociaron entre sí para desarrollar su propio «nuevo» sistema operativo de sistemas abiertos. Su nueva organización se llamó la Open Software Foundation (OSF). En respuesta a esto, la facción AT&T/Sun formó Unix International.

La «guerra de Unix» resultante dividió a los vendedores de sistemas entre estos dos campos agrupados alrededor de las dos tecnologías dominantes de sistemas Unix: el System V de AT&T y el sistema OSF llamado OSF/1. Entretanto, X/Open Company se mantuvo firme. Ella continuó el proceso de estandarización de los APIs necesarios para una especificación de un sistema operativo abierto.

Adicionalmente, ella buscó en áreas del sistema más allá del nivel del sistema operativo donde un enfoque estándar añadiría valor tanto para el abastecedor como para el cliente, desarrollando o adoptando especificaciones para lenguajes, conectividad de base de datos, interconexión de redes y trabajo colaborativo en mainframes. El resultado de este trabajo fue publicado en sucesivas Guías de Portabilidad de X/Open.

XPG 4 fue lanzado en Octubre de 1992. Durante este tiempo. X/Open ha ubicado un programa de marca basado en garantías del vendedor y soportado por pruebas. Desde la publicación de XPG4, X/Open ha continuado la ampliación del alcance de las especificaciones de sistemas abiertos en línea con los requerimientos del mercado. A medida que los beneficios de la marca X/Open llegaron a ser conocidos y comprendidos, muchas organizaciones grandes comenzaron a usarr X/Open como la base para el diseño y logro de sistemas. Hacia 1993, sobre 7 billones de dólares han sido destinados en sistemas marcados X/Open. Hacia el comienzo de 1997 esa figura ha ascendido sobre los 23 billones de dólares. A la fecha, los logros referenciando la Simple especificación Unix asciende sobre los 5.2 billones de dólares.

A comienzos de 1993, AT&T vendió su Laboratorio de Sistemas Unix a Novell quien estuvo buscando un sistema operativo peso pesado para enlazarlo a su rango de productos NetWare. Al mismo tiempo, la compañía reconoció que estableciendo el control de la definición (especificación) y la marca registrada con una organización de vendedores-neutral facilitaría mucho más el valor de Unix como una fundación de sistemas abiertos. De esta manera las partes constituyentes del Sistema Unix, previamente poseídas por una simple entidad están ahora bastante separadas.

En 1995 SCO compró el negocio de los Sistemas Unix de Novell, y el código fuente y tecnología del sistema pasa a ser desarrollada por SCO.

En 1995 X/Open introdujo la marca Unix 95 para sistemas de computación que garantizan cumplir con la Especificación Simple de Unix. El programa de la marca de Especificación Simple de Unix ha alcanzado ahora una masa crítica: los vendedores cuyos productos han cumplido los criterios de demanda son considerados ahora en la mayoría de sistemas Unix de valor.

Durante diez años, desde el inicio de X/Open, Unix ha estado íntimamente conectado con sistemas abiertos. X/Open, ahora parte del Open Group, continúa para desarrollar y evolucionar la Especificación Simple de Unix y el programa de marca asociado en beneficio de la comunidad IT. La liberación de la especificación de las interfaces de la tecnología está permitiendo a muchos sistemas soportar la filosofía de Unix de herramientas pequeñas, frecuentemente simples, que pueden ser combinadas de muchas maneras para realizar frecuentemente tareas complejas. La estabilidad de las interfaces del kernel preservan las inversiones existentes, y está permitiendo el desarrollo de un conjunto rico de herramientas de software. El movimiento Open Source se está construyendo en esta fundación estable y está creando un resurgimiento de entusiasmo por la filosofía Unix. De muchas maneras Open Source puede ser visto como la verdadera entrega de Sistemas Abiertos que asegurará que ellos continúen siendo fuertes de extremo a extremo.

 

 

Cronografia

1969

Ken Thompson de los Laboratorios Bell escribió la primera versión de lo que se llamó posteriormente Unix. Corría en una máquina DEC PDP-7. En 1970 Thompson y Dennis Ritchie lo portaron a una máquina DEC PDP-11/20, lo que propicio que Ritichie diseñara y desarrollara el primer compilador de C.
1973
Ritchie y Thompson reescribieron el kernel de Unix en C.
1974-1977
El código de Unix se distribuyó libremente a las universidades. Como resultado, Unix se popularizó en el ámbito académico.
1978
Se distribuye la versión 7 de Unix. Esta versión se diseñó para ser portable a varias arquitecturas hardware, además ATT anuncia que van a empezar a cobrar por la distribución del código fuente de Unix, como consecuencia, la versión 7 forma la base de todas las versiones de Unix actuales.
1979
ATT anunció su intención de comercializar Unix, lo que provocó que la Universidad de California (Berkeley) creara su propia variante: BSD UNIX. Las versiones BSD más influyentes han sido BSD 4.2 (1983) y 4.3 (1987). El desarrollo patrocinado por DARPA de internet fue sobre BSD. La mayoría de las casas que comercializaban Unix (Sun con su SunOS, DEC con su Ultrix, etc.) se basaron en BSD.
1980
Microsoft introduce XENIX
1983
ATT lanza su sistema comercial UNIX System V. También sale BSD versión 4.2 que incluye una implementación completa de la familia de protocolos TCP/IP
1987
Sale ATT Unix System V release 3, esta versión incluye STREAMS, TLI y RFS. Esta es la versión en la que varios fabricantes de hardaware como HP (HP-UX) e IBM (AIX) se basaron. También sale BSD 4.3. ATT y Sun deciden cooperar para unificar System V y BSD.
1990
ATT lanza System V release 4 como un nuevo estándar para la unificación de las distintas variantes de UNIX (System V, BSD y XENIX). Esta es la consecuencia de la cooperación entre ATT y SUN. No obstante otros fabricantes como DEC, HP e IBM amenazados por esta cooperación se unieron creando la «Open Software Foundation», OSF.
En este año Larry Wall y Randal Schwartz publican su libro Programming in Perl, lenguaje que acabará convirtiéndose en el estándar usado para realizar utilidades de administración de sistemas UNIX, mientras que C se usa para desarrollos de sistemas.
1991
Aparece en el mercado OSF-1. Hasta 1995 DEC es el principal fabricante que ha adoptado OSF, aunque algunos como IBM han adoptado partes. Empiezan a aparecer clones Unix de libre distribución como Linux o FreeBSD.
1992
SUN desarrolla su sistema Solaris, que es un derivado de System V release 4 con soporte para Multiproceso simétrico. USL lanza UNIX system V 4.2 (Destiny).
1993
X Window, el GUI cliente/servidor desarrollado por el MIT y de amplio uso en las estaciones de trabajo hacia 1987. En este año se empezó a distribuir libremente a plataformas Intel (XFree86). Se lanza BSD 4.4. Novell adquiere USL.
1994
Empieza a popularizarse Internet. La arquitectura Cliente/Servidor está de moda.
1995
Linux, un clon de Unix desarrollado como proyecto de fin de carrera de Linus Torvalds e inspirado en Minix está siendo desarrollado. El código de Unix (retornando a sus orígenes) está disponible de forma gratuita.
X/Open introduce el estándar UNIX 95. Novell vende UnixWare a SCO.
1997
El Open Group introduce la Versión 2 de su especificación Single UNIX, que incluye soporte para tiempo real, threads, 64 bits y soporte procesadores de más capacidad.
1998
El Open Group introduce la familia de estándares UNIX 98 que incluye la Base, Workstation y Server. Sun lanza los primeros productos registrados UNIX 98.
1999
UNIX alcanza su 30 aniversario. Se lanza Linux kernel 2.2. Las compañías de software cada vez desarrollan más versiones de los productos más populares para Linux
2000Primeros gestores de volúmenes lógicos para L


Versiones de UNIX
 
Las dos variantes fundamentales: Sistema V y BSD

    La Universidad de California en Berkeley comenzó sus desarrollos en el campo UNIX, añadiendo nuevas características y haciendo modificaciones.  Así, en 1975 Ken Thompson promovió el desarrollo y sacó a la luz su propia versión de UNIX, conocida como BSD. Desde entonces BSD pasó a convertirse en la gran competidora de los laboratorios Bell. En esta versión contribuyeron Bill Joy y Chuck Haley, sus contribuciones son numerosas pero entre ellas destacan un compilador de Pascal, el editor vi, el editor ex y el Shell C.

    Más tarde, a principios de los 80, se produjo el lanzamiento de  Sistema III, la primera versión comercial del sistema operativo UNIX. En 1983 AT&T introdujo el UNIX Sistema V versión 1.

    EN 1983 Berkeley lanza una poderosa versión UNIX conocida como BSD versión 4.2 Entre sus características principales se encuentran la gestión de archivos muy sofisticada así como la posibilidad de trabajo en redes basadas en los protocolos TCP/IP ( los mismos que hoy en día se utilizan en internet ). Esta versión de UNIX la adoptaron varios fabricantes, entre ellos Sun Microsystems, lo que dió lugar al conocido sitema SunOS.

    En aquellos momentos las diferencias entre versiones de UNIX eran muy grandes, lo que provocaba verdaderos quebraderos dde cabezas para los programadores.

 

Principales variantes de UNIX en la actualidad

    En la actualidad las versiones de UNIX más difundidas son las siguientes:

    Solaris: Es el nombre con el que se conoce el sistema operativo de Sun Microsystems. Originalmente se llamó SunOS, pero posteriormente, debido a la               presentación de UNIX Sistema V se desarrolló una nueva versión a la que se le llamó Solaris. Existen versiones de Solaris para Power PC, Intel y Sparc.

    AIX: La versión del sistema operaivo UNIX para las máquinas IBM se llama AIX y está basada en Sistema V versión 3 y BSD 4.3.

    A/UX: Implementación de UNIX de Apple

    IRIX: Versión de UNIX desarrollada por Silicon Graphics para sus estaciones basada en UNIX Sistema V version 4.

    SCO UNIX: Es la versión de Santa Cruz Operation (SCO), versión de UNIX Sistema V diseñada para plataformas Intel.

    Linux: Empezó como un simple proyecto de Linus Torlvalds, como todos sabéis, un estudiante de la universidad de Helsinki a principio de los años 90. En la actualidad se ha difundido enormemente por todo el planeta y lo usan millones de usuarios, tanto particulares como grandes empresas.

x. Sun lanza Solaris 8.

Google Chrome para todos

Google Chrome ahora sí en Mac y Linux con CrossOver Chromium

CrossOver Chromium es una versión del navegador Google Chrome compilada para Mac y Linuxusando el código de Chromium. CrossOver Chromium está disponible para descarga gratuita desde el sitio de CodeWeavers, ya lo estoy probando en mi MacBook y mis primeras impresiones son que va muy lento, pero es de esperarse, sólo es un experimento y no es que así vaya a ser la versión oficial de Chrome en Mac ya que Google prometió no solamente portarlo sino escribir una versión que utilice todas las características de Mac o de Linux.

Los enlaces para descargar gratis CrossOver Chromium son los siguientes:

Para Mac OS X.

  • CrossOver Chromium para Apple Mac OS X
    Nota: requiere OS X 10.4 o superior, trabaja solamente con Macs con procesadores Intel, las PowerPC no tienen soporte.

Para Linux depende de la distribución que uses.

Se dice de Linux que……

de: http://inciclopedia.wikia.com/wiki/Linux

Este artículo provenía de la Frikipedia,
pero se ha cambiado tanto que ya no lo reconoce ni su madre.

Este artículo contiene bastante humor informático.
Si no lo entiendes, presiona Alt-F4 para optimizarlo.


Linux ®
La nueva versión de KDE está específicamente diseñada para no ser confundida ni con la de Windows XP ni con la de Windows Vista.
Desarrollador Banda de Frikis Aburr
idos Inc. y la gran comunidad de software libre
Familia deS.O. Linux
Modelo de desarrollo Gratis legal y fotocopiable entre amigos.
Entorno Jerarquía de órdenes en línea donde el máximo responsable es el Root, aunque se han desarrollado bastantes escritorios gráficos de muchos tipos.
Estado actual Nunca estará acabado.
Ventas totales Un montón, gratis….
Sitio web www.yetisports.org/en/download_games.php
Garantizado, plagio seguro!

— Frase alusiva a Linux
¿Qué se hizo la unidad C:?

— Usuario de Windows sobre cuando se pasó a Linux por primera vez
Su mésenyer es muy feo

— Usuario avanzado de Windows sobre sus primeras impresiones de Linux
Si tarda 5 días o menos en instalarse, no sirve

— Usuario de Gentuza sobre las distribuciones Linux
Versión shareware del conocido sistema UNIX

— SGAE sobre Linux
LINUX: EL SISTEMA OPERATIVO QUE LE GUSTA A TU VIEJA

— Tuseeketh sobre la popularidad de Linux
SI NO USAN LINUX VAN A IR AL INFIERNO

— Tuseeketh, talibán de linux haciendose pasar por jebus
¿Qué significa ser usuario root?

— Usuario de Windows sobre algunos documentos avanzados de Hacking bajo Windows.
Hace cinco años, cuando hicimos este filtro, Linux se asociaba a movimientos alternativos y a insultos, como por ejemplo, eres un linux y un tonto

— SGAE sobre Linux
¿Linux? Ah sí, ese es el sistema que tiene más seguridad que el mio, pero los usuarios son tan tontos que no se dan cuenta

— Bill Gates sobre Linux
¿Linux? Ah sí, es el detergente que compro a diario

— George Bush sobre Linux
¿Linux? Ah sí, ese S.O.| que no me permite instalar juegos de PC

— Usuario de Windows sobre Linux
¿¡Qué no sabes que es Linux!? Es el sistema operativo de los hackers. Yo lo uso

— Noob sobre Linux


Historia 

[editar]

En 1991, un estudiante de informática en Finlandia, llamado Linus Torvalds (transliteración del original cirílico Linyos Torovoltos) estaba harto de que el sistema operativo con el que trabajaba, llamado MINIX – Versión UNIX para estudiantes, no funcionara en su PC, así que le mangó el código fuente a su creador (Tannembaun) amenazándole con una navaja. Así, lo robó, plagió y modificó con Windows modificó y recompiló en su 386 y lo llamó Freex, pero vino un guatón llamado Richard Stallman que dijo que ese nombre parecía una cosa podrida, al Torvalds mandarlo a publicar al server ftp, Stallman vino y le robó el sistema Freex, cambiandole el nombre a Linux (La L por Linus y la X por Unix). Así comenzó la secta del pingüino.

En 1995 aparece Windows 95 y ante la sencillez de uso de este revolucionario sistema operativo, Linus decide plagiar su entorno gráfico y facilidad de configuración, aunque no con demasiados buenos resultados, ya que debido a las continuas dosis de crack que se mete en el cuerpo, se olvida de crear numerosos cuadros de diálogo, y en vez de ello pone mensajes crípticos con letras raras que solo son descifrables después de haber esnifado un par de rayas. Las actualizaciones de software y las instalaciones de nuevo hardware se convierten entonces en un infierno que arrastra a muchos usuarios al mundo de la droga. Ante tal despropósito, Linus reniega del entorno de escritorio, se

Linux en uno de sus formatos de distribución Retail

Linux en uno de sus formatos de distribución Retail

inventa el concepto del Kernel o Núcleo (es decir, la parte de Linux que más o menos funciona) para poder continuar echándose flores y se deshace de todo lo relacionado con el entorno gráfico, que va a parar a un vertedero. Sin embargo, un grupo de vagabundos zarrapastrosos antiguos usuarios de Linux se hacen con parte de los diseños y el código, y así nacen las distribuciones.

Unos años mas tarde, lo reescribió otra vez por que el hombre se aburría, esta vez robando líneas de código de UNIX, un programa perteneciente a aSCO, naciendo el Linux 2.0. Esta versión duró hasta el 2007, que fue cuando fue reescrito de nuevo por 200 monos (hay quien dice que fueron pingüinos) con 200 máquinas de escribir apuntados por una ballesta y amenazados por copias de y logos de Winbugs.

La versión actual es la 3.14.15.9, y está escrito en C–Basic y Pascal.

Origen del nombre según sus competidores [editar]

Microsoft dice que LINUX es una derivación de LENIN unido con la terminación griega -UX, que significa: método de control mental. Al combinar las dos palabras se convierte en un término en latín que significa: Sistema operativo creado por Lenin para la difusión y control mental de los comunistoides.

Steve Jobs amo y señor la manzana sostiene que LINUX es el cambio de la última letra del nombre de Linus Torvalds por el del sistema operativo Mac OS X, del cual Linus se robó todas las ideas. Porque, recordemos bien, TODO LO QUE EXISTE SOBRE LA FAZ DE LA TIERRA, ya se lo había inventado Apple 100 años atrás, y funciona mejor en un Mac.

Licencia [editar]

Las licencia son uno o mas papelitos (nada tiene que ver con dinero) en esos papelitos se dice bajo que condiciones se permite o no utilizar el programa (sofwer).. básicamente hay 2 tipos de licencias.. licencias buenas y licencias malas las licencias buenas te permiten hacer con el programa lo que se te de la gana, están escritas por personas buenas y si las usas ..pues te vas al cielo

las licencias malas son muuu malas se les conoce como EULAS y .. ya dije que son malas??? existe la creencia popular (no demostrada) que fueron escritas por el demonio.. o por algún abogado.. que es lo mismo, si las usas..básicamente le estas vendiendo tu alma al diablo a cambio de utilizar un programa (sofwer) de manera muy limitada..

Uso [editar]

Este sistema operativo se usa principalmente para juanquear sistemas, piratear CDs, bajar películas de internet ilegalmente, robar contraseñas de Mésenller, bajar música de internet fraudulentamente y quedarte con el dinero.

Ademas de montar serviores, triple doble v con mapache, mai esecuele, pe hache pe, efe te pe, entre algunos.

Funcionalidades actuales [editar]

Actualmente es compatible con PC (x86, AMD64 y AMD1048576), MacAmiga; TuHermana; AtariPlayStation 2, 3 y 4; X-BoxXXX-Bocs 360, Wide Lamer, Game GearZX-EspectrumCommodore 64, Mega-Drive,DreamcastNintendo DSNintendo WiiStonehenge, Ni-Entiendo, GamecubeiPodTejón muerto, Windows, Bill Gates, Robots, Servidores, Modems, Impresoras, Celulares, 386s, Mesas, Camas, Ballmers, Notebooks, Laptoreras, Nintendo 64, Nintendo 32, Nintendo 16, Windows Vista, botones de encendido, tazas de baño, alfombras, plástico, ratones, hamsters, gamsters, mafiosos, marksistas, allendistas, allende, tostadoras, lavadoras y relojes de sol, como muestran las fotografías. Se ha intentado implementar sin éxito en consoladores, pero el proyecto tuvo que ser abandonado debido a un bug que impedia mandar la KILL SIGNAL al proceso gnu_vibrate_hard, los constantes orgasmos sucesivos fueron motivos de pleitos legales posteriormente.

Soporta casi todas las tarjetas de sonido y algunas tarjetas de pellizcos. Tiene aceleración 2D, 3D y 4D en tarjetas cochina-nVidia y ATI-queteimporta. También pueden conectarse impresorastarjetas de red y columpios de todo tipo.

También se dice que Augusto Pinochet lo usó para el avión con el cual quiso matar a Allende (aunque el plan salio fallido) y mas tarde destruyó los 2 World Trade Centers.

Linux ha demostrado funcionar sobre cualquier plataforma

Linux ha demostrado funcionar sobre cualquier plataforma

Características [editar]

  • No es Windows. Así que puedes ser superior a esos borregos que usan Windows.
  •  Tiene una interfaz gráfica impresionante y superior a MS-DOS.
  •  Puedes usar Linux® ahí.
  •  Linux funciona en todo. Ver sección anterior.
  •  Nombres de programa descriptivos como «fsck», «mutt», «biff», ‘man pump’, ‘sexy python’.
  •  No es Windows.
  •  Te permite usar cualquier programa, gratis–excepto aquellos por los que valdría la pena pagar.
  •  No hay virus que amenacen a Linux, sólo la influencia aviar (y eso se previene vacunando a Tux).
  •  Al programar en linux no sólo hay 1 y 0 (binario). Linux permite el uso de 2 (ternario). Se rumora que hay un 3 en desarrollo.
  •  Linux odia a Hurd.
  •  No es Windows.
  •  La instalación de programas es mucho más fácil con un tiempo de instalación promedio de 20 horas. A diferencia de los programas de Windows, los de Linux pueden ser configurados en unos escasos dos meses o algo así.
  • Ese maldito clipo es reemplazado por un lindo pingüino.
  •  Windows no es.
  •  No es Mac OS X.
  •  Si quieres sabes mas y mejores características, lea de nuevo desde el punto 1 y repita hasta que su sistema Windows entre en estado de hibernación.
  •  No es Windows.
  •  Tiene puros programas que suplementan programas de windows (PHOTOSHOP = GIMP, AVID y ADOBE PREMIER = CINELERA, microsoft OFFICE = OppenLEGSTUVIEJAoffice) y elresto las emula el mui puto.
  •  Es no Windows
  •  Tiene codigos exteriores como andate a la punta de tu biff PUTA.EXE y otros..
  •  Solid Snake usa Linux
  •  Chuck Norris puede correr kill -9 en la consola de Dios y matar gente nOObs.
  •  Es Windows

Distribuciones [editar]

Este es Super Tux la mascota de Linux. Los críticos dicen que es un homenaje vedado a un creador algo gordo.

Este es Super Tux la mascota de Linux. Los críticos dicen que es un homenaje vedado a un creador algo gordo.

Existen varias distribuciones de Linux, cada una con sus colorines y diferentes cualidades. Algunas de ellas son, en orden analfabético:

  • Debían: Pero al final lo págaron. Debian es considerada por los creyentes como el más alto estado del alma.
  • Feladora: Distribución muy placentera basada en RPM (Re-puta-madre). Muy recomendable, de verdad.
  • Guadañalinex Version linux con Guadaña incluida
  • Huvuntu o Tumultu: De origen africano, se llama así porque participa mucha gente.
  • Kuvuntu: es el Hubuntu, pero un poco kaka (a ahí la k, para quien no lo hubiera pillado). Posee la cualidad de agregarle «K» a todos sus programas lo que hace increiblemente comodo buscarlos por orden alfabetico. Algunos ejemplos son Konsole, Kftp, amaroK, Klu-Klux-Klan, Kjodete, KDE, KK, Konqueror, ktorrent, Kpaint, Kagaste, Kaffeine, Kate, Kabron y muchos mas.
  • Eduvuntu: es el Huvuntu que hizo Edu Pérez, primo de Albacete de Linus Torvalds.
  • Uvauntu: es el Huvuntu para uvas. Compatible tanto con uva de mesa como con moscatel.
  • XXXubuntu: en vista del gran éxito de algunos fondos de escritorio, se decidió crear este derivado exclusivo.
  • Matrape: Distribución recomendada por Luis Roldán.
  • Rejá: Creada en la cárcel de Carabanchel.
  • Eslah-gué: Distribución sólo apta para angloparlantes, la cual tiene la divertida característica que debes compilar el kernel cada vez que se te ocurra abrir o cerrar un nuevo proceso.
Este es el logo de Red Hat sombrero rojo, aunque algunos daltónicos aseguran que se trata de un "llelou" jat y que lo único rojo es el círculo.

Este es el logo de Red Hatsombrero rojo, aunque algunosdaltónicos aseguran que se trata de un «llelou» jat y que lo único rojo es el círculo.

  • Susi: Es la más facilona. Lo malo es que te cobra por cada servicio.
  • Huvuntumtumtum: Versión de la Huvuntu con ambientación Reguetón (Desarrollado por Don Omar).
  • Gentuza: El Self-Service del mundo Linux.
  • MC Linux: Linux para rappers y DJs que quieren romper el sitio de La-Que-No-Debe-Ser-Nombrada desde el tornamesa.
  • Puppy Linux: Distribución cuya característica diferenciadora es la cara de un chihuahua como imagen de fondo durante el arranque.
  • No pis: Consigue consumir toda la memoria RAM de la máquina donde se ejecuta, gracias a que es una distribución vaga (le da pereza instalarse).
  • Guachinche: (nombre autentico) laif cedé (o sea que se ejecuta directamente desde un cd sin tener que hacer una particion que te quite espacio para el güindous ni te tengas que hacerte añicos el mate para cuajar las particiones) implementado por la universidad de la laguna (canarias, marruecos). Después de perpetrar este crimen contra la humanidad, esta universidad se convirtió en una escuela de peluquería.
  • Turbolinucs Es una versión con turbinas que funciona para reproductores clon japos de los Ai-Por llamados Wizpy, también para escuchar música pirata en mp3.
  • Llelou dog: Instalable en un perro. La única distribución linux portada al cerebro canino. No tiene interfaz gráfica, se ejecuta a traves de una linea de comandos por voz. Para reconocer a su dueño primero se tiene que identificar como root si no lo hace su perro sufrira un kernel panic.
Este es Bon Ice es la distribución latina para optimización de equipos de enfriamiento (de  PC)

Este es Bon Ice es la distribución latina para optimización de equipos de enfriamiento (de PC)

  • Sombrero Rojo: Distribución ideada por el genio criminal de Carmen Sandiego, esta es una distribución de enfoque a empresas, es por eso que el personaje esta bien vestidito como ejecutivo con prisas.
  • Linux Bon-Ice La difusión de ésta distribución para latinoamericana se realiza de manera masiva por vendedores callejeros y más en épocas de calor que gritan ¡¡¡¡¡Bon aaaaaaaiiiissss, Bon aaaaaaaiiiissss, lleve su linux Bon aaaaaaaiiiissss!!! versión compatible con abanicos y demás equipos congeladores, optimizando su desempeño (en el caso de las neveras, deberá abrirse la puerta introducirse en la unidad superior para comenzar la optimización).
  • Linchos: Distribucion creada por don Ray Caballero, es una distribucion de tiempo real, osea que no es imaginaria, se creo al pronunciar mal la distribucion original y desde entonces se ha extendido por toda la galaxia.
  • Lindows: Es el resultado (o aborto según muchos) de la cruza de un pingüino y una ventana.

Cada una de ellas tiene así como 1000 y pico versiones casi todas incompatibles entre si. Los repositorios tienen cientos y cientos de programas que solo hacen tres funciones distintas: el hmsn (Herminio´s mesenger), el visor de fotos porno y la calculadora.

También hay una nueva distribución sin catalogar, llamada Linux Bianco, que en realidad es un detergente. Por ahora, todos los intentos para instalarla han resultado fallidos. Aquí está la prueba de su existencia: Linux Bianco

Publicidad de Linux en el Internet

Publicidad de Linux en el Internet

Ideología [editar]

En un principio los creadores de Linux eran anarquistas, pero Richard Stallman utilizó Linux en GNU, para hacer un sistema comunista.

Actualmente los linuxeros que dicen Linux son anarquistas, mientras que los que dicen GNU/Linux son comunistas, los que dicen Ubuntu no son niuna wea, y los que dicen Red Hat son dormilones

Una clase de Linuxeros son los meimportauncarajoelmundofundeunlugysehaceloqueyoquierook, son muy estrictos es sus observancias religiosas:

  • Se oponen a las patentes (inclusive a las de los autos, pero no necesariamente a los autos en sí, especialmente a los más modernos)
  • Usan Debian, en caso de ser imposible, usan Debian
  • Consideran a Ubuntu (al menos tiene algo de Debian) un mal necesario para que la pobre gente que no tiene su inteligencia pueda usar Linux.
  • Nadie sabe tanto Linux, como ellos, nadie, nadie, nadie.
  • Estiman que los usuarios de Mandriva, Fedora, WhateverGUIInstall Linux como subhomínidos.
  • Se oponen al spam, lo consideran peor crimen que un genocidio.
  • Les gusta irla de progres

A los linuxeros rehabilitados que han dejado el mundo de la droga se les llama despectivamente usuarios de Windows o Güindous (el término empleado depende del chute que se haya metido quien lo dice).

Sus mandamientos básicos son odiar a Windows y sus usuarios y despertarlos de su letargo para que migren, predicando el evangelio según San Linus en foros dedicados a temas como cocina, feng shui o bien jardinería.

¿Dónde encontrar Linux? [editar]

Hoy día puedes encontrar linux en distintos formatos:

  •  Puedes bajarlo de Internet, de las webs correspondientes (rejá.com, Susi.de…). Sólo se demora 365.839.947.965 días por disco.
  •  Puedes encargarlo por correo, y de regalo éxitos como «Hot Swapping«, «Juega y Enchufa (Play and Plug) y «En boca cerrada no entran moscas pero entran pollas como roscas«. (oferta válida sólo para UbuntuXXX)
  •  Lo puedes encontrar en paquetes de 3 y 5 kilos, con jabón de Marsella y con arielita de regalo en los supermercados Alcampo.
  • Puedes buscarlo por el burro para no gastar en un lugar confiable

La Consola [editar]

Acompaña a las mujeres linuxeras cuando sienten tristeza. Es semejante a la interfaz de uso de MS-DOS. Muchos comandos se parecen, como dirmkdir o cd, pero la consola de Linux es mucho más estupida, tiene el inconveniente de trabajar en inglés. Es apreciable en los ejemplos siguientes (victor@users.vpc:/home/victor % es el símbolo de sistema, así como en MS-DOS es C:>).

victor@users.vpc:/home/victor % cat “food in cans” cat: can’t open food in cans  victor@users.vpc:/home/victor % nice man woman No manual entry for woman.  victor@users.vpc:/home/victor % “How would you rate Quayle’s incompetence? Unmatched “.  victor@users.vpc:/home/victor % Unmatched “. Unmatched “.  victor@users.vpc:/home/victor % [Where is Jimmy Hoffa? Missing ].  victor@users.vpc:/home/victor % ^How did the sex change operation go?^ Modifier failed.  victor@users.vpc:/home/victor % If I had a ( for every $ the Congress spent, what would I have? Too many (’s.  victor@users.vpc:/home/victor % make love Make: Don’t know how to make love. Stop.  victor@users.vpc:/home/victor % sleep with me bad character  victor@users.vpc:/home/victor % got a light? No match.  victor@users.vpc:/home/victor % man: why did you get a divorce? man:: Too many arguments.  victor@users.vpc:/home/victor % !:say, what is saccharine? Bad substitute.  victor@users.vpc:/home/victor % %blow %blow: No such job.   victor@users.vpc:/home/victor % (- (-: Command not found.  victor@users.vpc:/home/victor $ PATH=pretending! /usr/ucb/which sense no sense in pretending!  victor@users.vpc:/home/victor $ drink matter matter: cannot create   victor@users.vpc:/home/victor $ ya lo sabemos ESTO DEJÓ DE SER DIVERTIDO EN LA SEGUNDA LÍNEA  

Enlaces relacionados [editar]

Para los interesados en
la versión
menos seria y verídica, Wikipedia
tiene un artículo sobre:
Linux
  •  Ubuntu Linux: Para descargar u ordenar gratis, aunque recuerda que si eres un friki, no eres humano y por ende debes abstenerte de entrar.
  •  Shelley the Republican: Divertidísima página donde dicen que todos los sistemas Microsoft son más seguros que Linux, que no se le pegan los virus, que si usas Linux eres terrorista y debería venir el gobierno norteamericano a matarte, que si usas Linux eres satánico y de que los extranjeros de habla hispana somos los culpables que la gente muera en actos terroristas de Al-Qaeda. Hay que Agradecerles dicen la pura verdad. Aura en español para gente como .
  •  15 mitos sobre Linux. La Ladrona eliminó este enlace de su antiartículo por ser demasiado útil y porque a Microsoft no le convenía.

¿Que es Linux? ¿de donde viene?

Si no lo conoces o si eres un usuario recientemente “convertido” a Linux, es muy probable que no conozcas la historia completa aunque seguro la has escuchado por partes, y te han contado que fue desarrolado por un estudiante finlandés. Claro que el no hizo todo el trabajo: hubo quienes antes que el «pavimentaron el camino» y luego quienes lo recorrieron junto a el.

Sin embargo el mérito (enorme por cierto) de Linus Torvalds es el de haber tenido un sueño, un objetivo, y haber ido por el. Y además no haber tenido vergüenza de hacerlo público y abrir su proyecto a la participación de otros. Pero no vamos a repasar aquí la conocida historia de los mensajes de Linus en los grupos de noticias de Minix (aunque la mencionaremos brevemente más adelante) sino que vamos a intentar enlazar todos los componentes que han logrado hacer de Linux lo que es hoy.

En muchas historias hay un “comienzo antes del comienzo”, y esta no es la excepción, porque hay que ser justos y decir que Linux no sería lo que es (o tal vez jamás hubiera llegado a existir) si no fuera por Richard Stallman y el movimiento GNU. Tal vez hayas escuchado hablar alguna vez de Stallman, o RMS como le gusta que le llamen.

Stallman es el creador del movimiento GNU, algo que surgió gracias a su espíritu libre y a su visión del software como algo que debería unir a la gente en lugar de separarla. Es probable que esas palabras te suenen un tanto exageradas, pero hay que tener en cuenta el contexto en el que fueron dichas. Allá por comienzos de los años 70 todavía estaban muy frescos el movimiento hippie de los 60, y las protestas estudiantiles del 68 en París o México DF en las que idealistas dieron su vida luchando por una causa. Equivocados o no, eran los jóvenes de aquellos tiempos, y así de idealista era (y sigue siendo) Stallman.

RMS ingresó en el año 71 al MIT, más precisamente al laboratorio de Inteligencia Artificial, donde su trabajo era el de programador. En el MIT, al igual que en casi todas las universidades, Unix era el sistema operativo utilizado, lo que seguramente ayudó a que muchos estudiantes fueran volviendose muy afines al mismo. El código fuente estaba disponible ya que muchas veces era necesario realizar ajustes de todo tipo para lograr que Unix corriera en los ordenadores de la época, y no han sido pocas las veces en que los estudiantes han logrado resolver problemas que Unix manifestaba. Y los estudiantes, afines a esa tendencia, solían compartir sus desarrollos de código, que eran principalmente utilizados para periféricos o para aplicaciones de uso académico. Así nacieron los hackers, que eran aquellos que desarrollaban software. Como ves, el significado del término era muy distinto al actual.

Pero para 1980, gracias a la madurez alcanzada por el lenguaje C y el hardware, se logró la portabilidad, que no era otra cosa que la posibilidad de ejecutar programas en diferentes plataformas sin (casi) modificaciones al código. Esto que a primera vista debiera haber sido fantástico solo logró separar a las partes interesadas, pero las compañías que vendían Unix a las universidades, bibliotecas, hospitales o Ejército se dieron cuenta que la portabilidad no era buena para su negocio, y el software se volvió un modelo cerrado.

 

En esta vieja PDP-10 comenzó a gestarse la leyenda
En esta vieja PDP-10 comenzó a gestarse la leyenda

A muchos “académicos” no les gustó, entre ellos Stallman, quien decidió comenzar un proyecto para crear alterntivas de software libre a las de modelo cerrado, algo que inició en 1983.

El nombre surgió en torno a Unix pero haciendo mención al hecho de ser libre: “GNU´s Not Unix” y según cuenta Stallman su nombre surgió cuando vio un documental sobre el Gnu o Ñu, un animal africano. La Free Software Foundation fue fundada en 1985 con el manifesto GNU, la declaración de principios.

Su primera aplicación fue Emacs, el popular editor que aún hoy sigue siendo usado por miles de fanáticos, luego siguió el compilador GCC: con un editor y un compilador C el camino ya estaba iniciado. Con ellos fue posible desarrollar otras aplicaciones y con el tiempo y esfuerzo de muchos GNU se estaba volviendo realidad.

Pero faltaba algo, un componente esencial, el kernel. Corazón del sistema operativo, es el que realiza las llamadas a procedimentos y organiza el funcionamiento general del sistema, y solo eso faltaba para poder tener un sistema operativo completamente funcional. Y aquí es donde entra en acción Linus Torvalds, el joven estudiante finlandés que quería un sistema operativo libre y basado en Unix.

Minix, que en esa época se utilizaba en la mayoría de las universidades europeas, y que había sido escrito por Andrew Tanenbaum para utilizar en sus cátedras de universidad y para complementar la parte teórica de
su libro Sistemas Operativos Modernos, que aún hoy sigue siendo material de estudio.

Linus pidió a Tanenbaum permiso para modificar el código fuente de Minix, pero éste lo rehusó. El código fuente en si mismo estaba disponible ya que era material de estudio, pero no podía ser modificado, por ello el joven comenzó a pensar en crearlo por su cuenta. Y lo hizo, todo sin ayuda.

Linus Torvalds y su proyecto han cambiado al mundo
Linus Torvalds y su proyecto han cambiado al mundo

Aquí quiero detenerme un poco en la personalidad de Linus, un muchacho extrovertido pero que sin embargo gustaba mucho de pasar largas horas en su casa, estudiando y desarrollando software.

Sus comienzos en la informática podrían remitirse a fines de los años 70 cuando su abuelo le regaló unCommodore Vic 20 y Linus, que al poco tiempo se aburrió de los juegos que traía, comenzó a desarrollar sus cosas en el lenguaje de programaciónBasic.

Torvalds es hijo de dos finlandeses con un pensamiento bien de izquierda, y de hecho su padre era un confeso comunista que se fue a Moscú a realizar parte de sus estudios allí. Como vemos, se conjugaron en el joven varios factores que incidieron para lograr lo que logró: talento, espíritu soñador, obstinación…

En Agosto de 1991 Torvdalds envió un mensaje al foro comp.os.minix avisando sobre su creación, y pidiendo a quienes quisieran que pidieran características para implementarlas, en un sistema que no sería “grande y profesional” como GNU.

Ese “hobbie” como lo definía Linus se convertiría en el fenómeno que hoy conocemos. Linux comenzó a existir gracias a que Torvalds tuvo a mano herramientas GNU como Emacs y el compilador Gcc, sin las cuales probablemente no hubiera podido comenzar.

Por ello, y porque Linus abrazó la Free Software Foundation, el verdadero nombre del sistema operativo es GNU/Linux, aunque sea más conocido solo por Linux por una cuestión de velocidad de escritura y pronunciación. Luego, en 1992 el kernel 0.12 fue liberado como GNU, y adoptado por la comunidad libre, que ya tenía todo completo para armar un sistema operativo totalmente configurable.

Alan Cox, un personaje muy importante en el mundo del pingüino, tomó contacto con el naciente sistema operativo en 1992 y lo instaló en un viejo ordenador de la Universidad de Swansea, en Gales, donde el trabajaba. Allí descubrió errores en la implementación de la capa TCP/IP y los arregló. Una vez que envió el código fue rápidamente abrazado por la comunidad, que le brindó la pesada tarea de mantener el kernel estable, mientras Linus se dedicaba al desarrollo y prueba del nuevo kernel, los de número impar, siempre conocidos como inestables o unstable.

El pequeño hobby de Linus estaba demostrando sus virtudes, y el disponer de código fuente ayudaba a que muchos hackers pudieran mejorarlo y contribuir.

 

Cuando comenzó a volverse muy popular, la comunidad Linux eligió al pingüino como su mascota, y lo plasmó en este logo
Cuando comenzó a volverse muy popular, la comunidad Linux eligió al pingüino como su mascota, y lo plasmó en este logo

Dado que era libre de ser modificado y adaptado a gusto, llegaron las primeras distribuciones, Slackware apareció en 1993 y fue en los primeros tiempos la distribución más popular y emblemática, y en lo personal la primera que instalé allá por 1996. Luego llegaron Debian (la preferida de los linuxeros de ley), Suse y Red Hat, y para 1996 Linux estaba comenzando a tener mucha presencia en los medios, y todos los aficionados y estudiantes de informática querían probarlo: el fenómeno había explotado.

Gracias a la disponibilidad de su código fuente Linux pudo ser adaptado para su uso como servidor web con Apache, y debido a su capacidad de entorno multiusuario y multitarea verdadero obtuvo rápidamente gran reconocimiento en el mundo de la joven internet de los 90. El resto es historia ya por todos conocida, por ello quisimos comenzar desde lo que consideramos el verdadero comienzo del gran sistema operativo libre.

Ahora que ha llegado a ocupar un lugar cada vez más notorio, Linux deberá mostrar su evolución. Seguir recorriendo el camino hacia las interfases de usuario más amigables sin sacrificar estabilidad y seguridad. Seguir volviendose más fácil para todos, algo que ha costado mucho pero se ha logrado a pesar de la resistencia inicial de los “linuxeros” más conservadores.

La gran escalabilidad de Linux, que puede ser instalado en dispositivos tan diversos como móviles, consolas de videojuegos, ordenadores, superordenadores, ordenadores de a bordo de coches y aviones, y lo que te imagines, ha sido clave en su éxito. Pero no es momento para detenerse, lo que se necesita es, a mi criterio, más y más aplicaciones, ya que es lo que el usuario precisa para su uso diario.

Más compatibilidad con videojuegos, para que ya nadie tenga que resignar ese costado que, admitamoslo, también es importante para muchos. Pero sobre todo aplicaciones de escritorio, de las que usamos día a día, algo que cada vez está más cubierto en Linux. Mucho del futuro de Linux ha sido discutido y te lo contamos hace poco.

 

Alan Cox ha jugado parte fundamental en el desarrollo del kernel durante años
Alan Cox ha jugado parte fundamental en el desarrollo del kernel durante años

Esta es una historia que podríamos denominar de “pre” Linux, porque son muchos los que han contribuido para que este fenomeno explote. Sin Stallman y todas las herramientas que puso a disposición del mundo seguramente no hubiera sucedido jamás, como así tampoco sin la ayuda deAlan Cox, el “segundo jefe” de Linux durante mucho tiempo, hasta que declinó esa reponsabilidad para para realizar sus estudios de posgrado. 

Hace pocos días vimos la historia de los comienzos de Apple y muchos seguramente se enteraron de la historia de JobsWozniak, el dinero que Jobs le “birló” a Woz, y una casualidad que dio inicio a una gran empresa.

La de Linux es la historia de un soñador como Stallman, otro como Linus, un talentoso y desinteresado hacker como Cox, y muchos otros habilidosos y anónimos que han contribuido a lo largo de los años. Hay en la historia de la informática varias historias como esta, en la que casualidades, desinterés por el dinero y espíritus soñadores dieron orígen a grandes cosas, y ya veremos algunas de ellas.

Y si piensas que no tienes el talento de Linus o Stallman puede que tengas razón, y no hay nada de que sentirse avergonzado ya que son muy habilidosos y no es nada fácil estar a su altura. Pero si lo deseas igual puedes colaborar, como beta tester, como traductor de documentación, siempre habrá lugar para quienes quieran colaborar y seguir escribiendo la historia.

Historia que será el futuro, y bien distinta de la que acabamos de ver.

Android: ¿más allá del teléfono?

Por: http://www.enriquedans.com/

Dos ingenieros alemanes, Matthaus Krzykowski y Daniel Hartmann, deciden tomar Android y compilarlo para un netbook Asus Eee PC 1000H, uno de los modelos más habituales en el mercado. Y se encuentran con que les resulta asombrosamente fácil hacerlo: en menos de cuatro horas de trabajo, todos los drivers (tarjeta gráfica, sonido, WiFi, etc.) están funcionando perfectamente.

En el fondo, Android es un sistema operativo basado en Linux, que se ha caracterizado siempre por su flexibilidad y portabilidad a diferentes sistemas, y su licencia de uso cubre la instalación en dos tipos de dispositivos: teléfonos, como todos sabíamos, pero también los llamados MID, Mobile Internet Devices, que incluyen netbooks y dispositivos afines.

¿Ha planificado Google un recorrido mucho mayor de lo inicialmente esperado para Android, hasta el punto de convertirlo en un “Google Linux Desktop” minimalista pero eficiente? ¿Qué más le pedimos al sistema operativo de una máquina como esa, además de estabilidad y seguridad? Por un lado, aplicaciones, un tema para el que Google también ha puesto su máquina a funcionar (o mejor, la máquina de miles de desarrolladores trabajando en crear aplicaciones para Android). Por otro, un navegador, área que Google ha cubierto perfectamente mediante Chrome e integrado con los recursos de la máquina mediante Gears. En resumen, todas las bases cubiertas. Al entrar en un escenario de popularización masiva de los netbooks y de asociación de los mismos con contratos de telefonía móvil, la cosa pasa a tener si cabe mucho más sentido: un sistema operativo sencillo, pero con capacidad de compatibilizar perfectamente el estado de conexión/desconexión, y con un parque de aplicaciones potente. Incluso el nivel de apertura parece adecuado: suficiente como para darle dinamismo al sistema, pero sin perder completamente su control.

¿Veremos pronto netbooks con Android? ¿Tenía Google planificado un movimiento así?

Activar VNC en Mac OSX

Como Activar la Gestión Remota “VNC” En Mac OS X

No se puede mostrar la imagen “http://applendiendo.files.wordpress.com/2007/10/remote.jpg” porque contiene errores.

Mac OS X viene por defecto con el servidor de gestión remota incluido en el sistema operativo. Este servidor esta basado en software libre de VNC (virtual Network Computing) y nos permite tomar el control de un servidor mediante un cliente a través de una red, ya sea local o mismamente internet.

En palabras más sencillas vamos a poder conectarnos a ese ordenador que tenemos por ejemplo en la oficina y ver lo que están haciendo con él o bien manejarlo nosotros como si estuviéramos delante de su teclado, independientemente de su sistema operativo compartiendo la pantalla gráfica de dicho servidor. Su uso más habitual es el de controlar lo que hace quien lo maneja, pero también se puede usar por ejemplo para hacer modificaciones o cambios en ese otro ordenador desde actualizaciones remotas, instalación de nuevos programas, configuración o modificación de aplicaciones etc…

Por ejemplo a través de él he podido configurar hace poco ciertas aplicaciones en el ordenador de un amigo sin tener que desplazarme a su casa o tener que guiarle paso a paso, lo cual simplifico mucho la modificación que necesitaba su ordenador y nos evito a ambos algún que otro quebradero de cabeza ya que además vivimos a casi 400 km de distancia. No obstante como siempre en todos los servidores el uso que podéis hacer de él depende de vuestra imaginación para sacarle máximo partido, y estos son solo algunos ejemplos que tal vez os hagan ver lo útil o interesante que os puede resultar este Servidor VNC que también trae integrado Mac OS X.

Activarlo es muy sencillo y solo se han de seguir los siguientes pasos:

1. Vamos a “Preferencias del Sistema”.

http://applendiendo.files.wordpress.com/2008/05/preferencias-del-sistema.jpg

2. Entramos en “Compartir”.

http://applendiendo.files.wordpress.com/2008/09/compartir-gestion-remota.jpg

3. Activamos “Gestión Remota”.

4. Aparece un menú desplegable con las opciones que activaremos para la gestión remota.

http://applendiendo.files.wordpress.com/2008/09/compartirgestionremota01.jpg

5.- Ajustes del ordenador.

http://applendiendo.files.wordpress.com/2008/09/compartir-gestion-remota-02.jpg

6.- No olvidemos que podemos dar acceso a todos los usuarios dados de alta en el ordenador/servidor, o bien podemos seleccionar los usuarios que tendrán acceso.

http://applendiendo.files.wordpress.com/2008/09/compartir-gestion-remota1.jpg

Control remoto entre Windows, Linux y Mac: Yuuguu

Como ahora tengo el problema de acceder de un sistema a otro, he encontrado este soft al que no le importa la plataforma: Yuuguu.

Yuuguu:


Yuuguu is a really simple download and install application which works cross platform on either a Microsoft® Windows PC, an Apple® Mac or Linux computers.

This makes working remotely much easier, even on previous operating systems increasing your available network with which to collaborate with.

Yuuguu makes it really easy to hold online meetings, help the workflow of projects in remote teams or give online presentations with minimal setup.

Yuuguu works on either a Microsoft® Windows PC, an Apple® Mac computer or Linux system. This makes working remotely much easier, even on previous operating systems increasing your available network with which to collaborate with.

Yuuguu has been built from the ground up with remote teams in mind. Working collaboratively on different projects requires many of the features within Yuuguu, making working remotely as effective as sitting right next to each other. Learn more…

Both a presentation tool and a screen sharing tool, giving online presentations using Yuuguu is quick and simple to setup, what’s more, Yuuguu does not require your participants to have downloaded the software. Learn more…

Download for: Mac | Linux

Download for: Mac | Linux

Download for: Windows | Linux

Download for: Windows | Mac

Download the Yuuguu online meetings application now

It’s a quick, simple install and is FREE both to download and use for online meetings of up to 30 people and enables online Desktop sharing – instantly!

Instant messenger

Instant messaging is serious business. There are important differences between Yuuguu instant messaging and its home user equivalents.
Learn more…

Low cost conference calling

For times when Instant Messaging is just not enough, Yuuguu provides you with conference bridge numbers and a unique PIN number for low cost conference calling.

Online presence

It is always handy to see when the person you want to communicate with is online, that is why we have added presence to yuuguu so you cab see the status of your client or colleague at any time.

Screen sharing

Share what’s on your screen with your clients and work colleagues over the web. What’s more Yuuguu lets you do this whether you are on a Windows or Mac computer.

Finding contacts

Finding contacts is simple. Just type in their email address and Yuuguu will let you know if they are already signed up. If not you have the option to invite new contacts to join your network and benefit from true collaboration over the internet.

Remote desktop control

Work together in real time over the web. Share control of your desktop and allow your colleagues to help you finish that all important document. Alternatively use Yuuguu to support your customers online, eliminating the need and expense of client visits.

Aplicaciones Linux en Mac y Windows: LINA

LINA

LINA:

Aplicaciones Linux en Mac y Windows

LINA es un software multiplataforma que permite a las aplicaciones creadas para sistemas Linux co

rrer nativamente y con el mismo aspecto que las aplicaciones del sistema operativo donde está instalado, ya sea este Linux, Mac o Windows.

Ayer mismo el código fuente de LINA fue liberado bajo licencia GPL v2 y sus creadores, además de crear la comunidad OpenLINA, invitan a todos los desarrolladores a participar en el crecimiento de esta herramienta.

LINA también ofrece funciones de virtualización, así que los desarrolladores sólo tendrán que utilizar sus herramientas habituales de programación y compilación y LINA se encargará, de forma transparente, de correr la aplicación en el sistema que esté instalada.

Ahora mismo los sistemas operativos que soporta LINA son: Windows XP, 2003 y Vista, Mac OS X, OpenSUSE 10.2 y Ubuntu 7.04, siendo el lenguaje a utilizar C++, aunque en futuras actualizaciones se podrá programar con cualquier lenguaje.

Enlace: LINA.