Programas de VPN para Mac, ejem: Conectarse a Windows


Hoy he tenido la necesidad de conectarme mediante VPV (virtual Private Network) a un servidor Windows (un W2K3 server con RAS).

No encontraba ningun programa, ni siquiera el «internet Connection» de Mac OSX que al parecer YA NO VIENE CON MAC OSX (mi versión es la 10.5.6)
En la página de mac he encontrado los siguientes programas:
VPV-X Client

VPN Starter
Almost VPN WidGet
iVPN 2.5
Y el que no encuentro Internet Connect tendría esta apariencia:
Pero al final he descubierto que se puede hacer sin necesidad de ninguno de ellos:
Como configurar una conexión sencilla VPN en Mac OS X 10.5
Es fácil (después de saberlo). Para este ejemplo, el servidor será un Windows Server 2003 con RAS habilitado.

Lo haremos mediante la configuración de RED dentro de las preferencias del sistema.
1. Preferencias de sistema -> Internet y Red -> Red Spotlight dropdown with System Preferences selected
2. Nos fijaremos en icono de agregar conexiones «+» y «-» y añadiremos una nueva.
3. Al pinchar el «+» nos pedirá el interface, que seleccionaremos VPN, un tipo de VPN, que elegiremos PPTP (en mi ejemplo he configurado RAS con «point to point transfer protocol») y un nombre para mostrar (conexión oficina).

4. Ya esta, ahora solo darle Conectar y poner la contraseña.
Para otras configuraciones, ya esta abierta la caja de Pandora, a estudiar y probar configuraciones.

>IBM x3650 problemas con la virtualización

>Este problema no tiene que ver con el soft, pero me he roto la cabeza y no hay casi nada en la web.

El problema es el mensajito de Windows que dice:
No puede ejecutarse el Hyper-V (en ingles)
– An error ocurred while attempting to change the state of virtual machine XXXX
– XXXX failed to initialize.
– The virtual machine could not be started because the hypervisor is not running.
La solución es que ademas de activar la virtualización del procesador hay que habilitar la opción del bit. Ambas opciones están en la BIOS, en el apartado de «Procesador».
BIOS ->
– Advanced Setup -> CPU Options -> Intel Virtualization Technology -> Enable
– Advanced Setup -> CPU Options -> Execute Disable Bit -> Enable
Las configuramos y ya tenemos Hyper-v en nuestra x3650

Combinaciones de teclas para usar con Hyper-V


El primer dia que use Hyper-V de Microsoft no savia «moverme» ¿Como salir de una máquina Virtual y volver al host?Bueno, aquí esta la solución (solo hay que leer):Combinaciones de teclas para de Hyper-V Beta
Ahora con Hyper-V tenemos la “Virtual Machine Connection” para usarla cuando interactuamos con la máquina virtual (a diferencia de Virtual Server 2005 SP1 que usábamos “VMRC“). Esta nos muestra una ventana con un cliente Remote Desktop para conectarse y es por eso que tenemos que usar combinaciones de teclas un poco diferentes a las que estábamos acostumbrados. El siguiente cuadro muestra alguna de ellas.
Combinación de teclas Standard de Windows
Equivalencia teclas en Virtual Machine
Resultado
CTRL+ALT+SUPR
CTRL+ALT+FIN
Muestra el Task Manager.
ALT+TAB
ALT+Re.Pag
Permite alternar entre los programas de izquierda a derecha.
ALT+SHIFT+TAB
ALT+Av.Pag
Permite alternar entre los programas de derecha a izquierda.
ALT+ESC
ALT+INSERT
Nos mueve entre los programas.
CRTL+ESC
ALT+Inicio
Muestra el Menú Inicio.
N/D
CTRL+ALT+PAUSA
Permite intercambiar entre el modo Full Screen y el modo ventana.
N/D
CTRL+ALT+Espacio
CTRL + ALT + LEFT ARROW
Libera el teclado y el mouse de la ventana de la máquina virtual.
  • Algunas cosas extras a tener en cuenta acerca de las aciones de teclas:
 Por defecto las combinaciones de teclas Standard de Windows no son enviadas a la máquina virtual a menos que nos encontremos en el modo Full Screen. Se puede cambiar esto para que siempre se envíen a la máquina virtual dirigiéndose al panel derecho del Hyper-V Manager MMC y eligiendo la opción Hyper-V Server Settings ——> Keyboard ——> Use on the virtual machine.
Nota: CRTL + ALT + DEL siempre se va hacia la máquina física, por lo tanto necesitamos usar CRTL + ALT + END sin importar lo que cambiemos aquí.Se puede cambiar la Release Key Combination (CRTL + ALT + LEFT ARROW) en el panel derecho del Hyper-V Manager MMC en Hyper-V Server Settings —–> Release Key. Podemos elegir alguna de las opciones presentes en el panel despegable.
hyper-v 9
Se puede cambiar la Release Key Combination CRTL + ALT + LEFT ARROW en el panel derecho del Hyper-V Manager MMC en Hyper-V Server Settings —–> Release Key. Podemos elegir alguna de las opciones presentes en el panel despegable.
hyper-v 9
Si usamos la Virtual Machine Connection bajo una existente Conexión a Escritorio Remoto (lo cuál no es recomendable) este capturará todas las combinaciones de teclas antes de que la Virtual Machine Connection pueda verlas (incluso la Release Key Combination). Para solucionar esto hay que cambiar la Hyper-V Server Setting para permitir a las combinaciones de teclas de Windows ir a la máquina virtual, cambiar la Release Key Combination a alguna otra que no sea CTRL + ALT + LEFT ARROW y usar la barra de herramientas o el menú Acción para enviar CRTL + ALT + DEL a la máquina virtual.

Hacer que FrontRow lea peliculas de donde quieras

Hacer que FrontRow lea películas de donde quieras. Incluido un disco duro externo.

Desde hace tiempo quiero hacer esto. Resulta que tengo un iMac el cual compartimos varias personas y no podemos ver las películas que tenemos compartidas en «compartido».

FrontRow solo lee lo que hay en a carpeta Usuarios/»Usuario»/Peliculas

Para hacer que FrontRow acceda a la multimedia situada en otra carpeta tenemos que “engañarlo”:

1.        Vamos a la carpeta que queremos «añadir» y le creamos un Alias (opción Crear Alias)

2.        Una vez creado este alias te dará un archivo nuevo, el cual lo puedes renombrar o dejarlo tal cual.

3.        Mueve este archivo (ALIAS) a tu perfil Mac, a la carpeta Usuario/Películas que hemos comentado.

4.        Repetir esto por cada usuario (para que ellos también puedan hacerlo.

Ahora es cuando entres a FrontRow y selecciones la carpeta de Películas te debe aparecer el nombre de la carpeta y aparecen todas las películas.

Esta solución también sirve para liberar espacio en tu Mac y pasar todas las películas y series de TV a un disco duro externo y aplicar los conocimientos que hemos aprendido. En el crearíamos una carpeta (la que contenga todas las películas) y seria de ella de la que hiciésemos el «alias».

Genial !!


Cómo ver vídeos en el Front Row

debe de haber varias formas, intentare averiguarlas todas:
La primera es «metiendo» las peliculas en iphoto

y utlizando este programilla: Purre

Ver vídeos de iphoto en Front Row

Seguro que más de uno tiene vídeos familiares/personales (sin pensar mal) y le gustaría tenerlos accesibles desde front row. Desgraciadamente la única manera oficial de hacerlo es pasando esos vídeos a itunes, pero claro, se nos mezclara con las peliculas que tengamos…

La solución a ese problema es Purre, un applescript que nos creará una lista de reproducción en front row con todos los vídeos que tengamos en iPhoto. Lo único que tendremos que hacer es dejar el applescript guardado en algún sitio y de vez en cuando ejecutandolo para que nos actualice la lista de reproducción. 

Quemar discos en MAC



Cómo quemar un CD o DVD desde una imagen en MAC.

Yo suelo usar BURN (http://burn-osx.sourceforge.net/
Que es gratuito:
desconocido.png

Pero también se puede sin utilizar programas de terceros:

OS X 10.4 tiene soporte nativo para montar imágenes de disco .dmg, .iso y .toast. Pero mucha gente no sabe que OS X también tiene la capacidad de quemar estas imágenes a disco. Incluso yo suelo usar Burn principalmente porque la aplicación para hacerlo, Disk Utility, está bien escondida en la carpeta Utilities que está en la carpeta de Aplicaciones. Incluso puede quemar imágenes de discos que no son para Mac. Hay dos procedimientos:

El primer procedimiento es el siguiente:

1. Monta la imagen haciendo doble clic sobre ella. Inserta el disco en blanco que usarás. Tambien se puede hacer con la terminal del siguiene modo:

Para montar una imagen ISO en Mac OS X, es muy fácil. En la terminal escriba el comando siguiente: hdiutil mount sample.iso con sample.iso ser la ruta a la imagen que desea montar. Después de la comprobación es completet, su ISO aparecerá montado en tu escritorio Mac OS X – eso es todo.Usted puede montar en realidad prácticamente cualquier otro tipo de imagen de disco con hdiutil y, por lo que dar. Dmg. Img probarlo también.


2. Abre Disk Utility, el cual se encuentra en la carpeta Applications/Utilities. A la izquierda verás un listado de todos los discos que están montados, incluyendo discos duros, ópticos, e imágenes de disco.Cómo quemar un CD o DVD desde una imagen

3. Selecciona la imagen que deseas copiar (la imagen, no el disco blanco montado) y dale al ícono radioactivo de Burn.Cómo quemar un CD o DVD desde una imagen

4. El disco debería empezar a quemarse, si hay espacio suficiente.
5. Listo
El segundo procedimiento es el siguiente:  (http://support.apple.com/kb/HT1328)
1. Insert a blank CD-R or CD-RW disc. You will be prompted to prepare the disc for burning. 

nota1: If nothing happens, see technical document 25545, «Mac OS X: When You Put in A Blank CD, It Doesn’t Appear«.

nota2: For information on choosing a format, see technical document 61342 «Mac OS X: How to Choose a Disc Format for Burning a CD» 

2. When this process is compl
ete, an icon for the CD appears on your desktop.

CD-R icon in Finder window

3. Choose Open Finder from the pop-up menu, then follow the steps below. Note: Although a CD icon appears in the drive listing, no burning has yet occurred.

4. Drag the files and folders you want to save on the disc to its icon. See Note 1.

5. Click the disc icon, then choose Burn CD from the File menu or drag the CD icon to the Burn icon in the Dock (the Trash icon changes to the Disc Burner icon when an unformatted CD-R is dragged to it). See Note 2. A dialog box appears.

6. Click Burn. The disc is initialized and the files and folders are saved on the disc. This process takes several minutes. 

Final Burn dialog

Montar y quemar una ISO en Windows.

Montar una ISO en Windows
Yo particularmente uso Virtual CloneDrive  (http://www.slysoft.com/en/download.html)
que es gratuito.
Pero también se puede montar las *.iso sin utilizar mas programas:
Nero, Alcohol y Daemon Tools vienen de perlas cuando queremos montar archivos de imagen ISO como unidades virtuales y evitar tener que grabarlas para acceder a su contenido.
Sin embargo, Microsoft dispone de una herramienta gratuita de apenas 60 Kb que sirve precisamente para esto aunque, por supuesto, carente de una interfaz tan amigable como la de los programas anteriormente mencionados.

Su nombre es Virtual CD Control Panel, funciona bajo Windows XP y Microsoft no proporciona ningún tipo de soporte sobre el mismo.


También es válida para vista y es totalmente gratuita.

Eficiencias de los RAID (resumen)

LevelDescriptionMinimum # of disksSpace EfficiencyImageRAID 0«Striped set without parity» or «Striping«. Provides improved performance and additional storage but no fault tolerance. Any disk failure destroys the array, which becomes more likely with more disks in the array. A single disk failure destroys the entire array because when data is written to a RAID 0 drive, the data is broken into fragments. The number of fragments is dictated by the number of disks in the array. The fragments are written to their respective disks simultaneously on the same sector. This allows smaller sections of the entire chunk of data to be read off the drive in parallel, giving this type of arrangement huge bandwidth. RAID 0 does not implement error checking so any error is unrecoverable. More disks in the array means higher bandwidth, but greater risk of data loss.
En 2 Discos – el 93% RAID Level 0
RAID 1Mirrored set without parity’ or ‘Mirroring. Provides fault tolerance from disk errors and failure of all but one of the drives. Increased read performance occurs when using a multi-threaded operating system that supports split seeks, very small performance reduction when writing. Array continues to operate so long as at least one drive is functioning. Using RAID 1 with a separate controller for each disk is sometimes called duplexing.
En 2 Discos – el 47 % RAID Level 1
RAID 2Hamming code parity. Disks are synchronised and striped in very small stripes, often in single bytes/words. Hamming codes error correction is calculated across corresponding bits on disks, and is stored on multiple parity disks.3RAID 3Striped set with dedicated parity or bit interleaved parity or byte level parity. This mechanism provides an improved performance and fault tolerance similar to RAID 5, but with a dedicated parity disk rather than rotated parity stripes. The single parity disk is a bottle-neck for writing since every write requires updating the parity data. One minor benefit is the dedicated parity disk allows the parity drive to fail and operation will continue without parity or performance penalty.
En 3 Discos – el 62% RAID Level 3
RAID 4Block level parity. Identical to RAID 3, but does block-level striping instead of byte-level striping. In this setup, files can be distributed between multiple disks. Each disk operates independently which allows I/O requests to be performed in parallel, though data transfer speeds can suffer due to the type of parity. The error detection is achieved through dedicated parity and is stored in a separate, single disk unit
En 3 Discos – el 62% RAID Level 4
RAID 5Striped set with distributed parity or interleave parity. Distributed parity requires all drives but one to be present to operate; drive failure requires replacement, but the array is not destroyed by a single drive failure. Upon drive failure, any subsequent reads can be calculated from the distributed parity such that the drive failure is masked from the end user. The array will have data loss in the event of a second drive failure and is vulnerable until the data that was on the failed drive is rebuilt onto a replacement drive.
En 3 Discos – el 62% RAID Level 5
RAID 6Striped set with dual distributed parity. Provides fault tolerance from two drive failures; array continues to operate with up to two failed drives. This makes larger RAID groups more practical, especially for high availability systems. This becomes increasingly important because large-capacity drives lengthen the time needed to recover from the failure of a single drive. Single parity RAID levels are vulnerable to data loss until the failed drive is rebuilt: the larger the drive, the longer the rebuild will take. Dual parity gives time to rebuild the array without the data being at risk if one drive, but no more, fails before the rebuild is complete. RAID 6 is sometimes referred to as Advanced Data Guarding (ADG).
En 4 Discos – el 47% RAID Level 6

RAID 1E

RAID 1E (striped mirroring, enhanced mirroring, hybrid mirroring)

RAID 1E — which, depending on the vendor, is also called striped mirroring, enhanced mirroring, and hybrid mirroring — is a RAID level that combines RAID 0’s striping capabilities with RAID 1’s mirroring protection. If you’re thinking that this RAID method sounds a lot like RAID 10, you should understand one critical difference between RAID 1E and RAID 10. RAID 1E uses an odd number of disks to achieve your data protection goals while RAID 10 requires the use of an even number of disks.

Whereas RAID levels 0 and 1 each require a minimum of two disks, RAID 1E requires a minimum of three disks. Keep in mind that RAID 10 requires at least four disks. As is the case under RAID 1, RAID 1E has a 50 percent disk capacity overhead. In other words, only half of the total capacity of the array is available for use.

RAID 1E works by striping data across all of the disks in the array a la RAID 0. As you know, however, RAID 0 is less than ideal for enterprise environments since the loss ofany disk in the array results in the loss of all data stored on the array. Where RAID 1E becomes viable is in the next step, in which a copy of the data is then striped across all of the disks as well. Simply striping the data in the exact same way as the initial stripe would not be any good since copies of the data would still reside on the same disk as the original copy. RAID 1E therefore, shifts the second copy of the data over on each physical disk. Take a look at Figure A. Each number refers to a block of data. A number with an M refers to a mirrored block of that data.

Figure A

A simplistic look at how RAID 1E works

Now, imagine that disk five suffers a failure. Blocks three and eight are stored on that disk, along with the mirrored copies of blocks five and ten. However, the array can suffer this failure since mirrored copies of blocks three and eight are stored on disk one. In theory, you can lose multiple disks in a RAID 1E array as long as the disks are not adjacent. In Figure A, for example, you can lose disks one and three, with disk one’s blocks one and six mirrored to disk two, and disk three’s blocks two and seven mirrored to disk four.»

RAID 1E can potentially provide more performance than a traditional RAID 1 array. With an odd number of disks, RAID 1E provides more spindles (in many RAID 1E cases, three disks/spindles instead of two). Like RAID 1, RAID 1E’s primary disadvantage is its 50 percent disk overhead. Another significant RAID 1E disadvantage is its relatively low support from controller manufacturers.

Summary

RAID 1E looks to be an interesting alternative to RAID 1 when somewhat better performance is necessary, and you don’t want to go the RAID 10 route. Are any of you running systems with RAID 1E? If so, leave a comment and let us know your reasoning and experience.

IBM ServeRAID 1E


La serie de adaptadores IBM ServeRAID soportan un espejado doble de un número arbitrario de discos, como se ilustra en el gráfico.

Esta configuración es tolerante a fallos de unidades no adyacentes. Otros sistemas de almacenamiento como el StorEdge T3 de Sun soportan también este modo.

Diagrama una configuración RAID 1E.

¿Que es un Cluster?

Historia de los Sistemas Clusters

'Servidor de máquinas virtuales con VmWare'
Evolución de los clusters

En los primeros clusters de PCs como los sistemas tipo Beowulf se empleaba la tecnología LAN Ethernet existente cuyo costo había mejorado al punto que los clusters armados eran factibles de implementar. Sin embargo, su ancho de banda pico de 10 Mbps era sólo adecuada para las aplicaciones débilmente acopladas y algunos sistemas ensamblaron múltiples redes Ethernet en paralelo a través del software conocido como «canal enlazado» que multiplicaba los canales disponibles en un nodo de forma transparente al código de la aplicación mientras que resultaba un ancho de banda significativamente mayor al que proporcionaba un solo canal.

Esos primeros sistemas estaban lejos de la perfección pero eran útiles. Aún estos primeros clusters exhibían una ventaja precio-rendimiento respecto a las supercomputadoras contemporáneas que se acercaba a un factor de 50 en casos especiales mientras que el rendimiento sostenido por nodo para aplicaciones reales era de un factor que variaba entre 3% y 50% de los sistemas costosos con el mismo número de procesadores. Pero el rápido mejoramiento en el desempeño de los microprocesadores de las PCs y los avances en las redes locales han llevado a los sistemas a un rendimiento de decenas y aún cientos de Gigaflops mientras mantienen excepcionales beneficios precio-rendimiento. Precisamente, con el surgimiento del Fast Ethernet con ancho de banda pico de 100Mbs y la disponibilidad de concentradores a bajo costo y switches a costo moderado, los clusters se volvieron prácticos y fueron útiles para un rango creciente de aplicaciones.

Actualmente, los clusters permiten una flexibilidad de configuración que no se encuentra normalmente en los sistemas multiprocesadores convencionales. El número de nodos, la capacidad de memoria por nodo, el número de procesadores por nodo, y la topología de interconexión, son todos parámetros de la estructura del sistema que puede ser especificada en detalle en una base por nodo sin incurrir en costos adicionales debidos a la configuración personalizada.

Los clusters también permiten una rápida respuesta a las mejoras en la tecnología. Cuando los nuevos dispositivos, incluyendo procesadores, memoria, disco y redes están disponibles se pueden integrar a los nodos del cluster de manera fácil y rápida permitiendo que sean los sistemas paralelos que primero se benefician de tales avances. Lo mismo se cumple para los beneficios de un mejoramiento constante en el rubro de precio-rendimiento en la tecnología. Los clusters son actualmente la mejor opción para seguir la pista de los adelantos tecnológicos y responder rápidamente a las ofertas de nuevos componentes.

Beowulf – El primer cluster de computadoras de escritorio.

El primer cluster fue desarrollado por la NASA y estaba formado por 16 nodos DX4 conectados en una canal ethernet, el máximo poder de procesamiento era de un GigaFLOP (Floting Point Operation/sec.) y se desarrollo como parte del proyecto Beowulf Cluster en el verano de 1994 para el desarrollo en ciencias de la tierra y el espacio.

El proyecto fue iniciado por Thomas Sterling y Don Becker (1994) del Center of Excellence in Space Data and Information Sciences (CESDIS), bajo el patrocinio del Proyecto Earth and Space Sciences (ESS), quienes construyeron éste primer cluster de 16 nodos, conectados por un canal Ethernet a 10 Mbps, al que llamaron Beowulf.

La puesta en marcha de éste primer cluster Beowulf no fue una tarea sencilla ya que se enfrentaron a diferentes problemas, desconocidos hasta entonces. Primero, los procesadores eran demasiado rápidos para las tarjetas de red y los equipos de comunicación. En busca de una solución a este problema, Becker modificó los controladores de las tarjetas Ethernet para el sistema operativo Linux, con el fin de crear un controlador que permitiera distribuir el tráfico de la red en dos o más tarjetas, con la finalidad de balancear el sistema. En aquella época fue necesario realizar este proceso porque se contaba con una red de 10 Mbps y un protocolo de comunicación Ethernet. Migrar a otros protocolos de red más eficientes, implicaba costos muy elevados.

Básicamente, lo que se buscaba era proporcionar a los usuarios sistemas consistentes en componentes que se tenían a disposición o que podían conseguir fácilmente en el mercado cibernético (COTS, por sus siglas en inglés commodity off the shelf), abriendo la posibilidad de satisfacer las necesidades de cómputo paralelo. Esto tuvo un gran éxito y la idea se propagó rápidamente a través de la National Aeronautics and Space Administration (NASA) y los grupos académico y científico. La aceptación inmediata dio origen a lo que se conoció como proyecto Beowulf.

CLUSTER

El término cluster se aplica a los conjuntos o conglomerados de computadoras construidos mediante la utilización de componentes de hardware comunes y que se comportan como si fuesen una única computadora.

El cómputo con clusters surge como resultado de la convergencia de varias tendencias actuales que incluyen la disponibilidad de microprocesadores económicos de alto rendimiento y redes de alta velocidad, el desarrollo de herramientas de software para cómputo distribuido de alto rendimiento, así como la creciente necesidad de potencia computacional para aplicaciones que la requieran.

Simplemente, cluster es un grupo de múltiples ordenadores unidos mediante una red de alta velocidad, de tal forma que el conjunto es visto como un único ordenador, más potente que los comunes de escritorio. De un cluster se espera que presente combinaciones de los siguientes servicios:q

  • Alto rendimiento (High Performance)

  • Alta disponibilidad (High Availability)

  • Equilibrio de carga (Load Balancing)

  • Escalabilidad (Scalability)

  • La construcción de los ordenadores del cluster es más fácil y económica debido a su flexibilidad: pueden tener la misma configuración de hardware y sistema operativo (cluster homogéneo), diferente rendimiento pero con arquitecturas y sistemas operativos similares (cluster semi-homogéneo), o tener diferente hardware y sistema operativo (cluster heterogéneo).

    Para que un cluster funcione como tal, no basta solo con conectar entre sí los ordenadores, sino que es necesario proveer un sistema de manejo del cluster, el cual se encargue de interactuar con el usuario y los procesos que corren en él para optimizar el funcionamiento.

    Componentes de un Cluster

    En general, un cluster necesita de varios componentes de software y hardware para poder funcionar. A saber:

    • Nodos (los ordenadores o servidores)

    • Sistemas Operativos

    • Conexiones de Red

    • Middleware (capa de abstracción entre el usuario y los sistemas operativos)

    • Protocolos de Comunicación y servicios.

    • Aplicaciones (pueden ser paralelas o no)

    Nodos

    Pueden ser simples ordenadores, sistemas multi procesador o estaciones de trabajo (workstations).

    Sistema Operativo

    Debe ser multiproceso, multiusuario. Otras características deseables son la facilidad de uso y acceso.

    Ejemplos:

    • GNU/Linux

      • OpenMosix

      • Rocks (una distribución especializada para clusters).

      • Kerrighed

    • Unix: Solaris / HP-Ux / Aix

    • Windows NT / 2000 / 2003 Serve
      r

    • Mac OS X

    • Cluster OS’s especiales

    Conexiones de Red

    Los nodos de un cluster pueden conectarse mediante una simple red Ethernet con placas comunes (adaptadores de red o NICs), o utilizarse tecnologías especiales de alta velocidad como Fast Ethernet, Gigabit Ethernet, Myrinet, Infiniband, SCI, etc. Es una red normal que permite conectarse a las computadoras.

    Middleware

    El middleware es un software que generalmente actúa entre el sistema operativo y las aplicaciones con la finalidad de proveer a un cluster lo siguiente:

    • una interfaz única de acceso al sistema, denominada SSI (Single System Image), la cual genera la sensación al usuario de que utiliza un único ordenador muy potente;

    • herramientas para la optimización y mantenimiento del sistema: migración de procesos, checkpoint-restart (congelar uno o varios procesos, mudarlos de servidor y continuar su funcionamiento en el nuevo host), balanceo de carga, tolerancia a fallos, etc.;

    • escalabilidad: debe poder detectar automáticamente nuevos servidores conectados al cluster para proceder a su utilización.

    Existen diversos tipos de middleware, como por ejemplo: MOSIX, OpenMOSIX, Cóndor, OpenSSI, etc.

    El middleware recibe los trabajos entrantes al cluster y los redistribuye de manera que el proceso se ejecute más rápido y el sistema no sufra sobrecargas en un servidor. Esto se realiza mediante políticas definidas en el sistema (automáticamente o por un administrador) que le indican dónde y cómo debe distribuir los procesos, por un sistema de monitorización, el cual controla la carga de cada CPU y la cantidad de procesos en él.

    El middleware también debe poder migrar procesos entre servidores con distintas finalidades:

    • balancear la carga: si un servidor está muy cargado de procesos y otro está ocioso, pueden transferirse procesos a este último para liberar de carga al primero y optimizar el funcionamiento;

    • mantenimiento de servidores: si hay procesos corriendo en un servidor que necesita mantenimiento o una actualización, es posible migrar los procesos a otro servidor y proceder a desconectar del cluster al primero;

    • priorización de trabajos: en caso de tener varios procesos corriendo en el cluster, pero uno de ellos de mayor importancia que los demás, puede migrarse este proceso a los servidores que posean más o mejores recursos para acelerar su procesamiento.

    Concepto de los algoritmos de clustering

    El clustering es una técnica estadística que permite una generación automática de grupos en los datos. Incluso, existen algoritmos de clustering que permiten la generación de grupos jerárquicos, consiguiendo una mayor abstracción y representación de la información para poder recuperarla más eficiente.

    En cuanto a los factores que influyen en el clustering son: 

    Propiedades o atributos a gestionar de los objetos que representan el conjunto de datos. 

    Función matemática que mide la distancia entre dos objetos. Las funciones típicas son la distancia Manhattan, la distancia Euclídea, el producto escalar y demás.  

    Las restricciones a las que está sujeto el conjunto de datos a clasificar, principalmente una a destacar: la elección del número de clusters: existen muchos criterios y todos ellos basados en heurísticas basadas en el cálculo de distancias entre los objetos.

     

    Uso del clustering en la extracción de información

    En la extracción de la información la técnicas basadas en clustering son muy comunes para aquellos casos donde no existan conjuntos de entrenamiento, la información cambia dinámicamente o se pretende extraer propiedades o clases de información.  

    En el dominio de la extracción de la información se distinguen dos aplicaciones muy útiles:

     

    Extracción de correferencias en los nombres de una frase . Se trata de relacionar nombre y pronombres que se refieren a la misma persona, cosa, lugar, fecha… Por ejemplo, en la frase «Bill Clinton fue a Nigeria para hablar con los trabajadores del SIDA. Después, el presidente de USA y su mujer fueron de viaje a China…» se tiene una primera clase que es Bill Clinton y una serie de nombres y pronombres que le referencian: «el presidente de USA» y «su». Sacar relaciones de texto es un problema NP-duro, pero mediante técnicas de clustering y mediante la adición de restricciones, se puede resolver con bastante menor costo computacional, tanto en tiempo como en memoria.

     

    Correferencias de frases en diferentes documentos. Recuperar cadenas de caracteres en distintos ficheros y que hagan referencia al mismo contexto. Esto es de gran utilidad para los buscadores y recuperadores de información que actualmente incluye el Windows Vista y anteriormente Mac OS, la recuperación de información no sólo consiste en el nombre del archivo, sino que también comprueba la información y el contexto de dentro de cada archivo o fichero.