domingo, 31 de marzo de 2013

Novedades Darktable 1.2 RC1 y RC2


Precisamente me encontraba escribiendo este artículo cuando he advertido que ya está en línea la nueva Release Candidate para Darktable. Esta segunda candidata apenas se ha demorado una semana respecto a su predecesora, que os enseño en el vídeo de hoy. Por suerte (para mi), las diferencias entre una y otra son menores y podéis echarle un vistazo al vídeo para enteraros de cómo será la próxima versión 1.2 de nuestro revelador favorito. Lo bueno de esta diferencia tan escasa entre versiones es que muy probablemente la salida definitiva de 1.2 estará al caer. Por otro lado, casi podemos estar seguros de que no encontraremos más cosas de las que vienen en las Release Candidate.
Lo cierto es que, después de haber probado este nuevo Dt me he quedado bastante satisfecho con las novedades. Lo de las instancias múltiples es un buen complemento a la ya considerable cantidad de plugins con los que contamos en la actualidad, y amplifica exponencialmente las combinaciones potenciales de revelado. Debo admitir, sin embargo, que todavía no noto demasiadas diferencias en el orden de apilamiento de los plugins (para entendernos, cuando hacemos clic sobre el botón de las instancias, podemos elegir cuál va "encima" y cuál "debajo", al estilo de las capas de Gimp) y eso que lo he probado con bastante intensidad usando el plugin Colorear. De todas formas supongo que será cuestión de tiempo que el funcionamiento de estos nuevos plugins con alma de capas de ajuste que son las instancias múltiples sea óptimo.


El que ya no me genera ninguna duda es el nuevo componente de nuestro batallón contra el ruido: el plugin de reducción de ruido perfilado. Se trata de asesino de ruido preciso y que conoce a su enemigo a la perfección, lo cual nos da una ventaja enorme con relación a sus otros compañeros, que generalmente intentan matar moscas a cañonazos a no ser que  los controlemos adecuadamente. Este nuevo anti-ruido perfilado facilita el trabajo enormemente, siempre y cuando, eso sí, nuestra cámara esté en la lista de afortunadas que cuentan con perfiles de ruido.


A un nivel un tanto inferior a las dos grandes estrellas de la nueva versión, pero aun así con su parcela de protagonismo, nos encontramos con un plugin de niveles que (por fin) cuenta con automatismos para marcar los puntos negro, blanco y gris de las imágenes, amén de contar con un ajuste automatizado. Imaginaos la pareja que hará este plugin de niveles con un buen pincel y las instancias múltiples: tendremos efectos Mellado en cuestión de segundos. Y gratis.


Por descontado, me encanta la nueva interfaz del filtro de densidad graduada, que ahora podemos controlar gráficamente y sobre la foto. De todas formas todavía me cuesta un poco controlarlo, sobre todo cuando se trata de voltear el filtro, pero supongo que será cuestión de práctica. El caso es que ahora se ha convertido en una herramienta realmente interesante para unas cuantas tareas que ya tengo sobre la mesa de trabajo. Tiempo al tiempo.


Por supuesto, estas no son todas las novedades de Dt 1.2; también tenemos a nuestra disposición cosas como:
  • Importación de archivos xmp de Lightroom. Una jugada inteligente que promoverá la migración hacia la libertad de muchos atados de pies  manos por Adobe. Lo que no sé es cómo funcionará, no creo que sea fácil "traducir" los ajustes entre dos programas tan diferentes. 
  • Mejoras de usabilidad en los plugins de distorsión: eliminación de manchas, cortar y rotar, etc. 
  • Copia-pega selectivo de los ajustes.
  • Soporte completo para más modelos de cámara.
...y un relativamente largo etcétera (uno siempre se queda con ganas de... sí, los putos pinceles) de novedades que constituyen un paso adelante más para este programa. Algo que por cierto está haciendo a una velocidad cada vez mayor, lo cual es digno de alabanza por parte de nosotros los usuarios. Sobre todo los que recordamos los meses de estancamiento de la versión 0.7, aquella con la que muchos de nosotros descubrimos este programa y que nos hizo pensar seriamente en la migración total. Si queréis más información, aquí tenéis el enlace a las notas de lanzamiento (pongo las de RC1, que son más completas) y al nuevo manual (en inglés), que por cierto, gracias a el me he podido enterar de que el extraño módulo "tramado" sirve para suavizar el efecto "dithering", o aparición de bandas y efectos extraños al pasar una imagen a una profundidad de bits inferior. Sigo sin entenderlo muy bien, pero al menos explicado está...
Por último, la instalación de esta versión: lo primero e importante es que si podéis, la instaléis en una máquina virtual corriendo en VirtualBox. De este modo nos ahorraremos problemas. Si aún así queréis instalarla en vuestro sistema principal, tendréis que eliminar la PPA que tengáis (me refiero a la estable o a la estable-plus):

sudo ppa-purge ppa:(nombre_del_repositorio)
sudo apt-get update
sudo apt-get remove darktable 
 e instalar la versión inestable:
sudo add-apt-repository ppa:pmjdebruijn/darktable-unstable
sudo apt-get update
sudo apt-get install darktable
 Esto no es en absoluto recomendable y por el camino os quedaréis sin la base de datos de la versión anterior, que generalmente es el tesoro de todo fotógrafo que se precie pero... ca'uno es ca'uno, como decía aquel.

sábado, 30 de marzo de 2013

Cosas que hacer ANTES de instalar Ubuntu 13.04 (copia de seguridad del software)



Debo confesar que he tenido muchas dudas a la hora de elaborar este capítulo. Os contaré, de forma resumida y para que comprendáis mi dilema, cuál es mi flujo de trabajo a la hora de elaborar los tutoriales: todos, repito, todos los procedimientos que llevo a cabo en los vídeos, especialmente aquellos que consisten en operaciones de sistema, han sido fruto de mi propia experiencia como usuario de GNU-Linux, es decir, son el resultado de investigaciones y muchas horas de encomendarme a San Google para ir resolviendo mis propios problemas o mejorando mi sistema. Por suerte abundan las fuentes de aprendizaje y solución de problemas por parte de gente que, de forma altruista y sin pedir nada a cambio, ofrece a la comunidad su experiencia y conocimiento. El hecho de haber comprobado por mi mismo que cada uno de los consejos que publico funcionan y funcionan bien me permite tener la conciencia bastante tranquila y sólo preocuparme en los casos en los que, debido a explicaciones defectuosas por mi parte o problemas muy específicos, un determinado truco o consejo de configuración no le funciona a uno de vosotros. Bien: pues este no es el caso. No he probado nunca un método como los que muestro en el capítulo de hoy y debo fiarme un poco a ciegas de lo que he podido encontrar en la red sobre el problema de reinstalar software tras un formateo de disco duro y un cambio de versión. Por eso en esta ocasión agradeceré más que nunca las sugerencias de los que sepáis más que yo, en el caso de que alguno de los comandos que ofrezco no funcionen correctamente o sean mejorables mediante soluciones más sencillas y fiables.



Toquemos madera, porque lo que es cierto es que un capítulo como el de hoy es necesario para una serie como la que estrené la semana pasada. Si lo que queremos es una transición rápida entre versiones de Ubuntu, partiendo de la premisa de que la mejor actualización implica una reinstalación completa del sistema, es fundamental poder reinstalar el software de la manera más sencilla que sea posible; por lo tanto, no es tolerable pasarse dos horas reinstalando programas mediante el centro de software, una aplicación que, mientras no nos sorprendan con novedades en Raring Ringtail, es lenta e inestable y no se acerca en comodidad y fiabilidad a un buen
sudo apt-get install aplicación1 aplicación2 aplicaciónN
comando este último que es el que definitivamente recomiendo, tras añadir todas las PPA que consideremos necesarias. En este sentido puede venir bien el comando que indico al principio, que nos devuelve un archivo de texto con el listado de paquetes instalados en el sistema. Tomaos este archivo como un borrador útil que tendréis que editar, borrando los paquetes que no reconozcáis y eligiendo sólo aquellos que correspondan con el software que habéis instalado vosotros manualmente. El resto de paquetes serán probablemente dependencias que se instalarán automáticamente en función de las necesidades de vuestro sistema operativo.
Una cosa sí es segura: estos dos métodos son mucho más recomendables en casos de reinstalación de sistemas, por ejemplo, si borramos Ubuntu 12.04 y volvemos a instalar Ubuntu 12.04. En en este sentido sí que me parecen procedimientos razonables y no deberían ser problemáticos. En el caso de una actualización de versión... cualquiera sabe, especialmente si se trata de la versión del mes que viene.
Para terminar, y como no termino de fiarme de mi mismo, os dejo un enlace (en inglés) en el que podréis conocer otro método alternativo para esta misma tarea. Juzgad vosotros mismos cuál es el que os conviene. Y por supuesto, en cuanto tenga oportunidad probaré por mi mismo cuál de estos métodos funciona mejor, que es la única forma de confirmar las cosas.

viernes, 29 de marzo de 2013

Sistemas Virtuales #4: Cómo activar la pantalla a 16:9 fullscreen (2 de 2)



Este segundo capítulo sobre el formato 16:9 HD en VirtualBox constituye un paso que creo definitivo para conseguir altas resoluciones en sistemas virtualizados. Debo indicar que posiblemente no necesitéis conocerlo, pues a veces no es necesario aplicar esta serie de comandos y sólo con la instalación de los Guest Additions será suficiente para poner nuestros sistema invitado a pantalla completa auténtica.
En el caso de que esto no ocurra, resultará necesario este contenido, que en realidad no es más que una forma bastante simple de acceder a la configuración de resoluciones de cualquier sistema con servidor gráfico X, esté virtualizado o no. La estrella en todo esto es el programa xrandr, que a continuación os presentaré para que os vayáis conociendo.

Xrandr, ese desconocido

Xrandr es un acrónimo derivado de la frase inglesa X's Resize AND Rotate, algo así como "redimensión y rotación de X", entendiendo X como el venerable servidor gráfico del kernel Linux. Se trata por lo tanto de una aplicación que nos permite jugar con algunas de las propiedades de las imágenes que dicho servidor gráfico envía a nuestros monitores, algunas de ellas verdaderamente complejas. En el vídeo sólo me ocupo de una de ellas, que es la de forzar una resolución que por alguna razón no esté listada entre las disponibles. El problema en VirtualBox es algún tipo de bug que impide a X sobreescribir las resoluciones permitidas aun siendo resoluciones posibles por el controlador. Así, los diferentes comandos son un proceso necesario para enseñarle a X una nueva resolución y que la aplique al sistema inmediatamente.



Pero sin duda se trata de una situación demasiado específica y poco representativa del verdadero potencial de este programita (que por cierto, no es necesario instalar, lo tenéis todos en vuestras distros, de serie, ahí escondido en el terminal), que puede salvarnos de más de un apuro relacionado con el aspecto gráfico de nuestros sistemas.
Como de costumbre,  mi sentido de la vergüenza me impide hacer cosas como copiar y pegar sin piedad, así que si queréis profundizar en el conocimiento de esta herramienta lo mejor es que os paséis por la página de documentación del programa.
De todas formas, algún comando que puede ser interesante o útil en algunos casos sí que os puedo dejar (y que están mucho más completas y mejor explicadas aquí):
xrandr -q
Muestra la resolución de la pantalla
xrandr -s (ancho)x(alto) 
Cambiando "(ancho)" por la anchura y "(alto) por la altura (por ejemplo: 1920x1080) cambiamos automáticamente la resolución.
xrandr --dpi 96 -s (ancho)x(alto)
Este comando sirve para cambiar los píxeles por pulgada de nuestro monitor, que pueden variar aunque generalmente serán  96 o 72, dependiendo del modelo y la marca de vuestro monitor. Sobre el tema de la resolución o los píxeles por pulgada hay bastante que decir, y puede ser fuente de problemas ocasionalmente, de modo que me extenderé otro día con su correspondiente tuto.
Sobre el propio Xrandr podría seguir contándoos cosas, pero resultaría prolijo y de nuevo me remito a la documentación. Es importante, eso sí, señalar que también tiene bastante utilidad para solucionar problemas en configuraciones duales de monitores (en román paladino: cuando tenemos dos pantallas conectadas al ordenador). Mediante sencillos comandos podemos hacer prácticamente de todo (cambiar el orden, invertirlos, rotarlos, poner uno encima del otro o uno al lado del otro... lo que imaginemos). Eso, cómo no, también merecerá su espacio en Youtube. Por si a alguno le quedaban dudas, ya veis que al final terminaré hablando de Linux entero... da un poco de miedo, ¿no?

jueves, 28 de marzo de 2013

Vídeo-distro #12: OpenSuse 12.3



Para ir dejando el terreno despejado en cuanto a las distribuciones más importantes que pululan por ahí, no podía dejar de lado una de las más importantes que existen y de las que generan más adhesión por parte de sus usuarios. Se trata de la distribución del camaleón, OpenSuse.



Que no os engañe esta desenfadada mascota: OpenSuse es una distro seria, con un evidente aire germánico, robusta, estable y preparada para lidiar con las necesidades de los más expertos. Sin lugar a dudas es uno de los mejores sistemas operativos (Linux o no) que existen en la actualidad.


Instalación


Ya desde el proceso de instalación se percibe la exquisita atención al detalle de OpenSuse. Yast2 es un sistema de instalación completo y exhaustivo, orientado a cualquier tipo de usuarios con un mínimo de conocimiento pero capaz de cumplir con quienes quieran control total sobre cosas como el particionado.
Cabe destacar además la variedad de imágenes de disco que están disponibles para su descarga, desde las iso Live con escritorios KDE o Gnome a una versión DVD de, atención, 4.2 Gb, cargada de software y con opciones extras en la instalación, a través de las cuales podremos conectarnos con los repositorios que queramos desde el mismo momento en que instalamos el sistema. 


Lo negativo

Si con otras distros tengo dificultades para encontrar puntos negativos, con OpenSuse el problema es de órdago; además carezco de experiencia con este sistema como para entrar a valorar otras opiniones sobre, por ejemplo, su sistema de creación y mantenimiento de repositorios privados, o su política de versiones, ambos elementos que suelen recibir alguna crítica que otra. Mi vistazo fugaz a OpenSuse me ha dejado deslumbrado y, si acaso, lo único que me ha llamado la atención es la velocidad de instalación (no es lenta, pero me esperaba algo más rápido), la velocidad de arranque (lo mismo que antes, no es lenta, pero había leído que iba como un tiro y no es así) y la abrumadora cantidad de opciones de configuración y gestión de dispositivos que ofrece Yast.
Otra cosa que no termina de gustarme es la relación de OpenSuse con el ámbito empresarial. Que no se me malinterprete, soy usuario de Ubuntu así que no debería tener derecho a decir nada pues acepto que las empresas privadas promuevan (y se beneficien por ello) el software libre. Pero no sé, después de ver cómo hay grupos pequeños de gente que se organizan para darnos distros completas y competentes, de AMD y Novell espero perfección y no siento que sea tan meritorio que la obtengan. Dicho esto, OpenSuse es Open, y por lo tanto está impulsada eminentemente por su comunidad de usuarios, así que en ese sentido no es diferente de Ubuntu o Fedora. 
También tengo dudas en relación a si la recomendaría o no a un usuario novato. Quizá sea demasiada información al principio, y puede que alguien que venga de mundos más sencillos se sienta abrumado. Con esto tengo dudas, porque la verdad es que yo no he tenido demasiados problemas para entender dónde están las cosas y qué se puede hacer con ellas, pero creo que para un novato absoluto la experiencia podría ser diferente.


Lo positivo

Es la madre de todas las distros. No he encontrado nada que no funcione, nada que me moleste, nada que después de un vistazo no haya conseguido comprender y usar con más o menos éxito. Con el escritorio Gnome no la he probado, pero con KDE está elegantísima. El software instalado por defecto y el que contienen los repositorios está actualizado prácticamente a las últimas versiones y si queremos algo más podemos pasarnos a las líneas de versiones Factory o Tumbleweed. Si GNU-Linux significa control y personalización, OpenSuse es el epítome de estos dos conceptos. No me queda otra que quitarme el sombrero y anunciaros que es la mejor distribución que he probado a día de hoy.


miércoles, 27 de marzo de 2013

Manual Audacity #4: Eliminación de ruido



Este es uno de esos tutoriales que pueblan los pagos youtuberos por doquier, pero que tiene que engrosar las estanterías de mi vídeomanual sí o sí. Y es que es obligatorio proporcionar una ayuda a los podcasteros que leáis-veáis esto y que reconocéis que a vuestro podcast le hace falta una manita de chapa y pintura, esto es: eliminar los deterioros provocados por una grabación defectuosa, que suelen convertirse en el dichoso ruido de fondo.



Esto del ruido es algo parecido al ruido fotográfico: es mucho mejor si no lo provocamos y siempre que lo intentemos eliminar será a costa de calidad en el producto final. El problema que tiene el ruido de sonido es que es más difícil de controlar. Miento: en realidad el problema suele ser lo caro que sale eliminarlo. Para resumir lo que podría ser una larga historia, los elementos que influyen de forma más clara en la aparición de ruido de fondo son:
  • Calidad y tipo de micrófono
  • Ajustes de grabación
  • Situación y localización de la grabación
  • Otros elementos de hardware
Ahora voy a ir eliminando los menos fundamentales, lo cual no quiere decir que no sean importantes, pero tienen una influencia correlativamente inferior en la grabación y, en caso de que sea necesario por cuestiones económicas, podemos renunciar a ellos; en el apartado "otros elementos de hardware" podemos encontrarnos con que una tarjeta de sonido "de las baratas" puede producir un sonido de calidad inferior a una "de las caras" no obstante, una tarjeta normalita suele dar buenos resultados. Lo mismo cabe decir sobre las mesas de mezclas, sin las que ya os digo de antemano que se puede vivir perfectamente, pero que proporcionan ciertas ventajas en algunas situaciones concretas.
Sobre la situación y localización de la grabación, aquí ya hay cosas más importantes, y aunque resulten obvias, conviene  recordarlas por si acaso. El espacio de la grabación tiene que tener tres cualidades: ser silencioso (ya avisé que era obvio), estar aislado de ruidos externos (deviene de lo anterior) y comportarse de forma adecuada ante el sonido. Esto último se refiere a que el sonido debe ser lo más limpio posible en el momento de ser recogido por el micro, y si el lugar donde grabamos hace rebotar el sonido, probablemente tendremos problemas. Un lugar adecuado tiene que tener, como mínimo, un montón de "cosas" cuadros en las paredes, plantas, estanterías, lo que sea. La clave es eliminar en la medida de lo posible las superficies lisas donde el sonido rebota y llega al micrófono cuando le da la gana. Además de evitar estos rebotes indeseables, un correcto aislamiento nos permitirá ajustar el micrófono con algo más de libertad, lo cual redunda también en la calidad. Esto nos lleva a los dos últimos puntos, que son los verdaderamente importantes: Un micrófono bueno y bien ajustado es la clave definitva. Cuando digo "bueno" no digo "necesariamente caro"; aunque evidentemente un micro de gama alta suele dar mejor calidad que uno de 2€, en realidad suele ser más importante elegir el micrófono adecuado para el trabajo específico que estemos haciendo. Sobre este tema podría estar hablando horas y horas, lo cual de hecho hicimos en nuestro podcast hace unos meses, de modo que os lo enlazo aquí para que le echéis un oído y así me ahorro un artículo kilométrico.

Fuente: Thomann.de

De lo que no hablo demasiado en el podcast es de los ajustes de la grabación, que  es un tema también importante. En este sentido, es impagable contar con la posibilidad de tener un "monitor" de audio, es decir, un sistema que os permita escuchar lo que entra en el micrófono en tiempo real, de forma que no resulte molesto para hablar y podáis ajustar exactamente la entrada. Ahí ya se nos puede disparar el precio, pues en general las tarjetas de sonido integradas no disponen de este tipo de monitores y si lo tienen no está garantizado que Linux no nos devuelva cierto "retardo", que arruinaría la función de un monitor. Este retardo se denomina "latencia" y también podría ser objeto de tratados enteros, así que lo tocaré otro día. A lo que quiero llegar es que para estas cosas vienen bien las mesas de mezclas, que al ser un hardware casi independiente de vuestro PC no tendrán problema de latencia (y deberían tener salidas de monitor), o un micrófono que disponga de una salida de monitor, que es difícil de encontrar pero haberlos, haylos. El que yo uso para los screencast y el podcast es un Shure del que también hablo en nuestro Unadecast y del que aquí os dejo un enlace: viene de perlas y además no necesita mesa de mezclas, pues contiene su propia "tarjeta de sonido" integrada, con su salida de monitor y todo. Además se conecta al USB, con lo cual no necesitamos alimentación externa. En este sentido los micros USB están mejorando un montón en prestaciones durante los últimos años, a un nivel que lleva a dudar sobre la verdadera necesidad de una mesa de mezclas para un podcast en diferido. Lo complicado aquí es que el susodicho micro sea compatible con Linux y aquí la cosa ya se pone difícil. Aunque el soporte es bastante bueno, la documentación sobre estos micrófonos ignora sistemáticamente y en todas las marcas la mención al sistema del pingüino, de forma que la compra de uno de estos chismes es una especie de lotería. En este sentido, es recomendable visitar alguno de los foros de referencia en este terreno del sonido, como hispasonic o sonidoyaudio. Ya os adelanto que las preguntas sobre compatibilidades con Linux no son frecuentes, pero quizá tengáis suerte.

martes, 26 de marzo de 2013

Revelado Darktable: Suavizar Piel


Todavía recuperándome de la sorpresa de la nueva versión 1.2 RC1 de Dt, aquí os traigo un nuevo tutorial de revelado, eso sí, con la prudente versión 1.1.4. Las novedades de la 1.2 son bastante jugosas, destacando sobremanera la posibilidad de utilizar múltiples instancias de un plugin y una más que interesante opción de reducción de ruido según perfiles de cámara, que según me han contado funciona muy muy bien. De todas formas, tendremos que esperar un tiempo a verla en las PPA estables del programa (o sus correspondientes alternativas para otras distribuciones); esto de las RC (Release Candidate) suele ir para largo y generalmente tras la RC1 va una RC2, una corrección de errores y por fin la versión final. Para los que tengáis prisa, os tocará compilar o enchufaros la PPA inestable, cosa que, desde luego, no os recomiendo si lo que queréis es algo más que trastear. Estas versiones son, como habréis adivinado, demasiado inestables como para ser utilizadas en un flujo de trabajo normal.
Dicho esto, vamos con lo de hoy, un poquito de auténtico retoque digital: el suavizado de pieles.



Ciertamente el truco no tiene mucha ciencia; en realidad es una forma un poco más complicada de hacer lo mismo que con otros programas más orientados al retoque propiamente dicho, más que nada por la propia mecánica que tiene Dt para "fabricar" máscaras. La verdad es que esta técnica de fundido condicional tiene sus luces y sus sombras. Para tareas muy exactas viene genial, pues conseguimos una precisión imposible con otras herramientas (lazos poligonales, selecciones libres, plumas, pinceles...). Para cosas un poco más libres, sin embargo, sólo sirve si tenemos suerte: tiene que coincidir que la zona que queremos trabajar tiene características de luz, color, saturación, etc. uniformes y no coincidentes con otras, algo que, generalmente, no ocurre.
El suavizado de pieles está a medio camino de los dos escenarios anteriores. Por un lado, necesitamos una precisión matemática para trabajar exclusivamente por las zonas de piel, librándonos de detalles como los labios, los ojos, las pestañas, las cejas, bigotes, barbas, perillas y/o moscas auriseculares (adjetivo inventado pero que me encanta, quiero decir "relativo al siglo de oro")... Conseguir esto con pinceles es una tarea tediosa y se hacen necesarios procedimientos basados en algoritmos, que es lo que nos da el fundido condicional. Por otro lado, y en el vídeo se ve claro, tenemos que rezar para que no haya otros tonos coincidentes con el de la piel en la imagen. En este caso esos tonos existen, pero por suerte el suavizado no afecta al resultado final al tratarse de zonas ya desenfocadas en el momento de la toma.

Zonas amarillas fuera de la piel del personaje... ¡mal asunto!

Por todas estas razones, el uso del fundido condicional para el suavizado de pieles no puede ser tomado como una receta mágica, sino como una posibilidad que puede ser utilizada si se dan las circunstancias oportunas. La cosa se complica aún más con otros tonos de piel, como por ejemplo con personas de raza negra o muy morena, cuyo tono de piel puede confundirse con tonalidades del resto de la imagen con más facilidad.
Tampoco quiero ser demasiado pesimista: el método, cuando funciona, lo hace estupendamente, y es más rápido, más preciso y más potente que en Gimp. Digo que más potente porque tenemos que recordar que Dt es un revelador no destructivo que trabaja a 16 bits sin despeinarse, algo de lo que aún adolece el venerable Gimp.
En cuanto al procedimiento en sí, he de reconocer que en el vídeo he hecho un poco de trampa. Como veréis, voy pasando de canal en canal, ajustando muy poco a poco la máscara. En realidad esto no es estrictamente necesario: en cada caso resultará que con uno o dos canales tendremos más que suficiente para conseguir el resultado deseado. He utilizado todos los canales con fines pedagógicos, para ir hablando un poco de cada uno y que podáis ver lo que van haciendo sobre la imagen.


Por cierto, una cosa de la que no he hablado y puede ser interesante: ¿Os habéis fijado en los numeritos que aparece sobre los canales de ajuste de la herramienta de fundido?


Estos números marcan la posición de cada triángulo sobre su canal de trabajo (salida y entrada). ¿Por qué esto es maravilloso? La respuesta es sencilla. Podemos apuntar estos números para hacer exactamente la misma máscara con los plugins que queramos. Si tenemos en cuenta que el botón de la derecha con forma de punto de mira sirve para invertir la máscara, podemos hacer selecciones inversas con todos los plugins que queramos en un abrir y cerrar de ojos. ¿A que mola?

lunes, 25 de marzo de 2013

Disculpen las molestias

Y sin saberlo, me veo envuelto en una Semana Santa, otra vez. Vale que mi noción del tiempo es un tanto especial y vale que esta semana cambia de fecha todos los años pero, ¿a vosotros no os ha pillado por sorpresa?
La Semana Santa puede ser para muchos una época muy especial del año. Para unos significa el recordatorio de la Pasión de Cristo, de las Pascuas y esas cosas, y obviamente para el creyente esta es una época muy especial del año. Para otros, estas fiestas religiosas son una escusa para disfrutar del folclore aún desde su incredulidad; no hace falta creer para disfrutar de un Paso, o eso piensan algunos. Otros tantos o más, casi la mayoría me atrevería a decir, simplemente ven un buen puente para tomarse un pequeño descanso y ahorrar fuerzas para el ultimo tirón hasta el verano. También hay quien le toca pringrar en el trabajo en estas fechas...pero hay no cabe comentario. Por último, hay para quien estas fechas significan tanto como cualquier otra y no le otorgan especial interés.
Para mi, como casi todas las fiestas "importantes" no significan más que el reencuentro con mi familia. Es decir, normalmente mis hermanos emancipados (o alguno de ellos pues tengo en abundancia) suelen aprovechar estas fechas para volver al "hogar" durante unos días, y es una de las pocas oportunidades que tengo de verlos y estar con ellos durante el año. Tanto o tan poco, ni más ni menos.
Qué tenga que ver esto con el blog depende de esto último, pues como comprenderéis el tener la casa llena de gente con sobrinos, hermanos, cuñados, perros y algún que otro ente desconocido que pueda acoplarse convertirán mi casa en algo cuyo símil más parecido se me antoja en una boda gitana. Sea como fuese, un lugar no muy apto para andar grabando vlogs y escribiendo tonterías.
Por ello, durante esta semana y unos pocos días creo que vuestra ración de Hijos de Odín se va a ver drasticamente disminuida. Pero tranquilos, ya queda por ahí Jen0 que al final es lo verdaderamente importante. También os propongo, como buen método suplementario el que observéis con ansia y gusto las películas de la biblia que a buen seguro publicaran las principales cadenas de TV. En serio, a mi me gustan.
Pues eso que no me vais a echar de menos una mierda, pero yo a vosotros sí.  ¡Nos vemos muy muy pronto, y felices fiestas!

Mi casa durante las fiestas. Fuente: ¡Ya esta en la foto Hit Combo!
¡Ah! Esperad, esperad. Que se me olvidaba subir un poco el ego. Como he ido anunciando estos días por aquí y por allá este fin de semana he participado en un torneo de videojuegos de lucha en la CometCon de Oviedo. Si no hubiese ganado nada hubiese callado como un cabronazo, pero como quede 3º en dos de los cuatro torneos que dispute pues me toca vacilar un poco. Al fin y al cabo para eso es un blog.

Software Linux: GUVCview



En el terreno del screencasting las cosas son mucho más fáciles en Linux que en Windows. Mientras que los sistemas ventaneros tienen que pasar casi forzosamente por software de pago y con requerimientos de hardware cada vez más exigentes, en el lado del pingüino la oferta de programas es bastante amplia (no es para echar cohetes, pero hay cierta variedad) y, por supuesto, son aplicaciones gratuitas y ligeras. Esta afortunada abundancia de software relacionado con el screencasting tiene una explicación lógica: el software libre carece de canales publicitarios "normales": no encontraremos cuñas publicitarias en TV, Radio o medios de prensa digitales o tradicionales. De este modo, los únicos canales disponibles para la difusión de nuestro sistema son los que nosotros, los usuarios, podamos poner a disposición de la comunidad. Esta es la máxima de este blog: difundir la "cultura libre" aprovechando las herramientas con las que contamos para ello. Sobre el asunto de los grabadores de escritorio ya he hablado largo y tendido desde hace bastante tiempo y quedaba pendiente darle un repaso a las herramientas 2.0., aquellas con las que podemos darle un "plus" de personalidad a nuestros vídeos. 
¿Soy el único a quien las webcam redonditas le recuerdan a un ojo sacado de su órbita?
GUVCview es la alternativa ideal para estos menesteres si no estamos dispuesto a rompernos el cráneo con comandos ffmpeg bajo terminal. El funcionamiento es absolutamente simple y permite unas cuantas opciones de control, tanto de parámetros de la cámara que estemos usando (modo de apertura, paneo, etc.) como de formato y calidad de vídeo. Este último aspecto, no obstante, depende mucho de la cámara que estemos usando. En mi caso tengo una Logitech sencillita y, aunque estén disponibles resoluciones HD, la resolución debe ser baja para obtener una tasa de fotogramas aceptable. A partir de 720, y ni qué decir tiene 1080, la tasa baja a cotas inadmisibles e inútiles si pretendemos resultados agradables. 
A pesar de este pequeño defecto (que no tiene que ver con el programa, sino más bien con el hardware y el soporte que le da el fabricante), con GUVCview podremos realizar las tareas más básicas de un Vloguero/tutorero/screencastero de postín: la pantallita en la esquina con nuestra cara, o incluso, si los problemas de resolución que os decía lo permiten, auténticos Vlogs a pantalla completa, gracias a la posibilidad de convertir la imagen obtenida en un archivo de vídeo en diferentes formatos. Y con audio integrado, por supuesto. 
Eso sí, el funcionamiento de este programa tiene una condición importante, que menciono en el vídeo: necesitaremos una webcam compatible con Linux. Hay que admitir que la compatibilidad de dispositivos con Linux ha mejorado de una forma muy notable y sigue creciendo con cada nueva versión del kernel. No obstante, la adquisición de una webcam para su uso en nuestro sistema es algo que no debe hacerse a la ligera y conviene verificar que la cámara que queremos funciona adecuadamente antes de gastarse la pasta.
Afortunadamente contamos con unas cuantas fuentes de confianza para este tipo de comprobaciones: páginas como mxhaard, ideasonboard o alpha.dyndns ofrecen completos listados de los grados de compatibilidad que  diferentes dispositivos pueden mostrar en nuestros sistemas en función de su chipset, su sensor, etc. Desgraciadamente las páginas pueden no estar actualizadas para los últimos modelos de cámaras, por lo que conviene echarle un vistazo también a linux-drivers.org para comprobar nuevas actualizaciones en este terreno. Y una nota importante: para que una cámara web funcione en Linux, debería al menos ser compatible con la especificación UVC (USB  Video Class), que garantiza la interpretación de la información de vídeo transmitida por cualquier dispositivo que se conecte a nuestras máquinas a través del USB. Este estándar debería ser respetado por todos los fabricantes para garantizar el funcionamiento correcto de sus cámaras, así que si algún modelo actual no lo admite, podéis concluir que el fabricante del mismo no merece la pena.  

domingo, 24 de marzo de 2013

Primer Día en la CometCon

Son las dos y media de la mañana. Tengo los ojos que se me caen a cachos y mañana debo levantarme a las nueve para seguir partiéndome la cara (virtualmente hablando) con propios y extraños. Así que no me pidáis muchas letras.
Con todo, yo no puedo faltar a mi palabra de traeros cositas sobre la CometCon pero si lo dejo para más adelante al final no os muestro nada, que me conozco. Por eso, y a falta de tiempo para editar, publico un treaser así modo chapucero para que veáis un poco como fue el asunto. 
En cuanto a mi periplo por los torneos de juegos de lucha... sin pena ni gloria. Perdí como tocaba. Pero en mi defensa diré que no se trataba de "mis juegos". Mañana es lo importante, y ahí si que no tengo excusa posible. (Aunque  me da a mi que voy a chupar tanto o más).
Venga, como digo, estoy que me caigo así que mañana (o casi pasado), os traeré de nuevo una crónica mucho más concienzuda.

Si hubo "disfraces" de tan alta calidad, yo no los he visto. Fuente: Chacha.com

sábado, 23 de marzo de 2013

Cosas que hacer ANTES de instalar Ubuntu 13.04 #1: Copia de seguridad de las PPA



Esta es una serie de emergencia que comienzo ahora con la esperanza de tenerla terminada a tiempo antes de la llegada de la nueva versión de Ubuntu. Por mucho que sea criticada por casi todos nosotros, Ubuntu sigue siendo una de las distros de referencia en el ámbito GNU-Linux, y la llegada de Raring Ringtail a finales de abril será, cómo no, motivo de multitud de artículos por toda la faz de Internet. Como me consta que muchos de vosotros sois ubunteros y este es un blog con trucos dirigidos a novatos en el uso de este sistema, durante los próximos capítulos de esta serie veremos una serie de procedimientos que nos ayudarán a hacer una transición adecuada desde la versión 12.10 actual a la próxima 13.04. En algunos casos esta actualización tendrá lugar en sistemas con la versión LTS 12.04 instalada. Si os encontráis en esta situación, os aconsejo encarecidamente tomaros las cosas con la debida calma y sopesar si el cambio merece realmente la pena. Precise Pangolin es una versión de soporte largo (larguísimo, hasta el año 17 nada menos) y que en la actualidad es estable y da pocos fallos, después de dos actualizaciones parciales. En este sentido, creo que seguirá siendo una versión de referencia durante bastante tiempo, más o menos, imagino, hasta la próxima LTS.

Mejoras gráficas en Ubuntu 13.04... no es la razón para la actualización, no. Fuente: Iloveubuntu

Por otra parte, los incesantes vaivenes en las noticias del mundillo acerca de los eventuales cambios en la política de soporte y actualizaciones de Ubuntu no son nada tranquilizadoras. A día de hoy, parece que la idea de una distribución Rolling Release se ha abandonado y la tendencia será restar meses de soporte a las versiones "intermedias" (las que van entre dos LTS), que según dicen pasarán a ser de 9 meses en lugar de los 18 actuales. Aunque en principio este cambio no sea significativo, pues en definitiva quien se instala una de estas versiones suele ir actualizando cada seis meses según salen las siguientes, lo que indican estos cambios es que las versiones LTS tendrán cada vez más protagonismo en el futuro. El mismo Mark Shuttleworth ha confirmado esta nueva tendencia, que supone el refuerzo de las actualizaciones parciales de las LTS.  Y eso significa que las versiones intermedias se convertirán definitivamente en versiones "beta" de las mencionadas de largo soporte. En realidad ya lo eran, pero creo que esa inestabilidad inherente a toda versión beta de un software se irá acentuando en el futuro.
Sea como fuere, lo que casi estoy por asegurar es que 13.04 mejorará a 12.10 en unas cuantas cosas. Además de los cambios cosméticos menores, que no aportan nada al funcionamiento del sistema, creo que empezaremos a ver a Unity funcionando "de verdad", o al menos es lo que se espera. Por lo demás, los que se están animando a probar las daily builds están bastante satisfechos en términos de rendimiento y estabilidad del sistema, que al parecer da pocos errores y funciona de manera fluida. En resumen: si tienes 12.10, probablemente el cambio será conveniente.
Ahora bien: por experiencia propia sé que estos cambios de versión tienen que tomarse con serenidad y sin prisas. Una versión recién salida del horno, especialmente las de Ubuntu, suele dar problemas y  contener diversos bugs de calado variopinto que se van solucionando a lo largo de, generalmente, las dos o tres primeras semanas después de su lanzamiento oficial. De modo que lo recomendable es dejar que Raring "madure" al menos esas tres semanas para no llevarnos sorpresas desagradables. Tiempo más que sobrado para tener las cosas preparadas de cara al traspaso de poderes.
Este es el razonamiento que preside la creación de esta serie. Veremos a lo largo de sus capítulos diversas técnicas que estarán orientadas a la creación de copias de seguridad de diversos elementos de nuestro sistema, para que la reinstalación de Ubuntu sea un proceso lo más limpio y lo menos traumático que sea posible. No en vano, tras unos cuantos meses, cuando tenemos a nuestro querido Ubuntu "tuneado" (odio esta palabra), con un montón de software instalado, repleto de PPA, lanzadores personalizados... no hace ninguna gracia tener que borrar todo ese trabajo y empezar de cero. Este mal trago suele concluir con la solución más fácil: la actualización simple del sistema. Este es un procedimiento que no os recomiendo en absoluto, da más problemas y en realidad puede ser más largo que la propia reinstalación. Además, conviene hacer una limpieza del disco duro de vez en cuando, y hacerlo cada seis meses no es una mala práctica. Así que no me preguntéis cómo se actualiza, al menos de momento. Vamos a ir viendo cosas dirigidas a una reinstalación.
Comienzo con las PPA porque es un asunto peliagudo, y que no cuenta con una solución sencilla, como comprobaréis en el vídeo. Pero las soluciones que aporto son (creo) suficientes para crear una sencilla copia de seguridad de nuestros repositorios privados.

Mi "pequeña" colección de PPA

El problema principal de las PPA es que están ligadas nominalmente a una versión determinada y  no se garantiza que existan para la siguiente. Por suerte, la comprobación de este extremo es una tarea sencilla, si sabemos orientarnos por la laberíntica Launchpad. Aún así, esta tarea puede ser un poco tediosa, de modo que la alternativa es la aplicación Y-ppa-Manager, que ya analicé en otro vídeo (mola lo de citarse a sí mismo) y que contiene una interesante opción para cambiar el nombre de versión de cada PPA de forma automática.


Hasta aquí el capítulo de esta semana; espero sinceramente esta serie os resulte de ayuda, en tanto no exista un programa "definitivo" que automatice todas las tareas que os iré enseñando en las próximas entregas. Por si alguno no lo ha pillado, esto último es un mensaje para los que sepáis programar y os animéis a echar una mano, no debe ser muy difícil y podría resultar de gran ayuda...
 

viernes, 22 de marzo de 2013

Frikis en Vetusta

Hoy es viernes, último día de la semana. El cansancio se va notando a medida que escribo estas palabras. Aun no me doblego y me entrego a este blog, en cuerpo y alma. Y es por ello, que voy a opinar de manera muy breve, acerca de un tema muy actual y en constante metamorfosis. Esto es, el mundo Friki o Freak. Friki, un término que para muchos suena despectivo, describe a un tipo extraño, de raras aficiones y gustos. Aunque no me confundan con los seres infrahumanos que aparecen en la tele gritando e insultando (fijémonos en la gran película Frikis Buscan Incordiar), o que también nos podemos encontrar por la calle (¡Dame tu fuerza Pegaso!).
Es indudable que un Freak es una persona encantada con una cosa, lo más habitual por los comics, los videojuegos y la informática. ¿Pero cuál fue el nacimiento? En 1932 aparece una película titulada "Freaks", dedicada a marginados y gente con malformaciones o con comportamientos que se escapan de la normalidad. Poco a poco, este término se fue forjando hasta convertirse en una persona que tiene una habilidad concreta (conocer todas las cartas Magic o saberse los nombres de los 649 Pokémon) o una afición extraña, esto es, disfrazarse de protagonistas de juegos y cómics como Link o Naruto, que colecciona figuritas del Señor de los Anillos o que se pasa horas jugando al WOW. Hasta ahí todo correcto. Lo que me ofende es que hasta hace unos pocos años, por practicar este tipo de actividades podías  ser tachado de todo, no solamente de friki de manera muy peyorativa, sino de infantil y simple. Ahora ya eres guay y super-friki tan sólo por llevar el pelo rosa y unas gafas de aviador por diadema. Un friki de verdad no hace alarde de ello, se oculta entre las sombras, no sale de casa y teme por su dinero cada vez que alguien le mira a los ojos.
El gran poeta Joan Antoni Estades de Moncaira, el mejor representante de Mallogca. Link: BrotecitosDiarios
Pero en realidad, lo que os venía a contar es que este fin de semana (días 23 y 24 de Marzo), tendrá lugar en el Auditorio Príncipe Felipe de Oviedo, una reunión de frikis, otakus y geeks. Pocas cosas de éstas podemos ver por Asturias, así que tenemos que aprovechar y disfrutar de la CometCon (para más información podéis pinchar aquí y aquí. ¿Y de qué va? Aparte de encontrarnos a gente disfrazada con trajes extraños (seamos sinceros, esto no se puede comparar con World Cosplay Summit o la Comic-Con de San Diego), podemos disfrutar de variadas actividades, como escuchar un concierto instrumental de BSOS o una charla sobre los juegos de rol, participar en torneos de  Magic, Dance Arena... y si no tienes idea alguna de juegos de mesa, como Bang, Carcassone o Ciudadelas,podrás aprender con sus partidas de iniciación. Además, están programadas varias competiciones de videojuegos, como Ultimate Marvel vs Capcom, Street Fighter vs Tekken, Halo o Super Street Fighter Arcade Edition. Si alguien tiene ganas de pegarme la gran paliza, allí donde estén los juegos de lucha me veréis.





Manual Audacity #3: Editando fragmentos de audio (cortar, copiar, pegar y efectos)



Una de las ventajas del podcast es que se emite en diferido, esto es, se graba y la gente lo escucha cuando le apetece. Esto facilita bastante el proceso de grabación, pues nos da la oportunidad de corregir errores y repetir grabaciones fallidas durante el momento de la creación del programa, y más adelante podemos editar con tranquilidad para mejorar el resultado según el nivel de exigencia que le pongamos. Pero no os creáis que es la panacea. Quien os escribe tuvo la oportunidad años ha de hacer radio "de la de verdad" y, aunque la experiencia fue corta, aprendí bastante. Y os aseguro que es mucho más agradable la radio en directo. Imagino que es cosa de la adrenalina de "estar en el aire", de que cualquier error sea irreparable, de que no te puedes equivocar por que harías el ridículo delante de la audiencia (algo que a mi no me preocupaba, aquel programa tenía muchas cosas, pero lo que se dice audiencia, como que no) y todo un cúmulo de circunstancias que, al cabo de un par de programas, consiguen provocar en ti un estado de concentración próximo a una especie de trance radiofónico. También grabé algún programa y no es lo mismo, ni de lejos: te equivocas más, sabes que puedes corregir las cosas y eso te vuelve indulgente contigo mismo. Cuando hablas ante un público, bien de manera directa o a través de las ondas (el medio es lo de menos), cruzas un Rubicón personal; si no te gusta, ya sabes que es una experiencia que no volverás a repetir, a no ser que alguna combinación de circunstancias te obligue a ello. El miedo al público es algo difícil de curar, por muchos trucos baratos que os proporcionen a un módico precio. Si lo disfrutáis, estáis perdidos, os convertiréis en unos yonquis de la escena, porque las profesiones en las que uno se pone enfrente de un público tienen siempre un componente artístico, teatral.

Qué recuerdos... Fuente: rtvc.es

De modo que si os lanzáis a grabar podcast, os recomiendo encarecidamente que algún día probéis el directo. Os lo digo porque, al fin y al cabo, si queréis hacer un podcast es que tenéis el gusanillo de la radio, habéis fantaseado con el micrófono, los auriculares, las sombras del estudio, la "pecera" con su habitante el técnico de sonido, que es quien en realidad hace que todo funcione (un saludo a Javi, "el Huracán del Naranco", por cierto). Si estáis hechos de esa madera, probad un podcast en streaming, que es lo más cerca que se puede estar de la sensación radiofónica auténtica con medios amateur y en casita.

Vuelta a la realidad... tampoco está tan mal, qué demonios

Para los que no podáis o no queráis arriesgaros, Audacity es un compañero inestimable. Mi intención en este vídeo, como casi siempre, no es tanto mostrar un tutorial completo y "cerrado", con instrucciones de uso estandarizadas para conseguir un fin concreto como presentaros unas herramientas cuyo uso imaginativo permite alcanzar vuestros propios objetivos. Al final, trabajar con Audacity es muy parecido a la edición gráfica o de textos. Tenemos un material con el que podemos jugar a nuestro antojo, modifcarlo, añadirle cosas, sumarle efectos, mejorarlo (o empeorarlo), etc. Es un terreno esencialmente creativo y que sólo requiere de conocimientos y técnica para conseguir buenos resultados. De este modo, con un poco de esfuerzos, conseguiremos algo verdaderamente especial: convertirnos en redactores, presentadores y editores de nuestro propio podcast. El "hágalo usted mismo" también es algo emocionante. Pongamos los pies en la tierra; de momento las herramientas las doy por sabidas, en el capítulo siguiente comenzaremos con los efectos.

jueves, 21 de marzo de 2013

Sonic, el político.



Hoy no he encontrado ninguna noticia de esas que me hacen gracia y me enfadan a la vez. De hecho con los ERES y demás sólo puede uno enfadarse, ni siquiera puede uno sacarle el tono jocoso al asunto. Ya la cosa pasa de castaño oscuro y lo que en un principio hace gracia ya pasa a convertirse en algo que roza lo peligroso. Y digo peligroso porque tal vez si no tuviese válvulas de escape eficaces ante tanta "presión", ya hubiese llegado el momento de pasar de las palabras a los actos. 
Por ello, si alguien vuelve a soltarme la tontería de que los vídeojuegos generan violencia le podré argumentar justamente lo contrario. Si no tuviese polígonos y sprites donde desahogar mi furibunda rabia, ahora estaría en la plaza de mi pueblo con una horca (que aquí todavía somos demasiado rurales para los bates de baseball) y una antorcha, intentando tomar por la fuerza el ayuntamiento.
Y creanlo o no, odio la violencia real tanto como odio que hagan obras al lado de mi casa mientras estoy durmiendo, es decir, mucho.
Por eso, bendigo a los vídeojuegos por reprimirme una acción odiosa tal.
Por todo esto, y debido a que no se me ocurría ninguna tontería para hacer delante de la cámara, he decidido volver a hacer algún gameplay que otro. Y, en pos de mi argumento, y atendiendo al hecho de que a muchos de mis seguidores les va aquello de lo "retro". Traigo un juego que es todo menos violento y además hará las delicias de los más veteranos.
No todo iba a ser hablar mal de la gente, ¿o ke ase? 
Al menos, si Sonic la cagase saldría corriendo. Fuente: metalfighterriku.deviantart.com
Obviamente se trata de Sonic Adventure, uno de esos juegos que te dan ganas de todo menos de matar a alguien, no puede ser más buenrollista.

Un juego para la extinta pero bien recordada Sega Dreamcast con la que os he estado dando la chapa las últimas semanas. Todo un juegazo, huelga decirlo, que sigue manteniendo la misma esencia que lo hizo grande aún con el paso del tiempo. 
Y nada, que hoy tengo ganas de sumarme a los tópicos y me apetece soltar aquello de "Una imagen vale más que mil palabras" os adjunto una foto de la cara que se me pone jugando a esta maravillosa obra artística:

Sistemas Virtuales #4: Cómo activar la pantalla a 16:9 fullscreen (1 de 2)


El capítulo de hoy es de obligada lectura (y visionado) si queremos sacar el máximo partido a nuestros sistemas virtuales. En realidad, la instalación "básica" de un sistema operativo en VirtualBox provee de características igual de básicas. De hecho, aunque el enfoque que le doy al vídeo está orientado a conseguir una mayor resolución de pantalla para el sistema invitado, los "guest additions" nos proporcionan un montón más de cosas. Veamos qué es eso de las guest additions y para qué sirven.

Guest Additions

Los "añadidos para invitado", que así se podría traducir el nombre, son un conjunto de controladores que proporcionan funcionalidades avanzadas a nuestros sistemas, orientados prácticamente todos ellos a la mejor comunicación entre el sistema virtualizado y el real, y a la comunicación de aquel con el hardware de nuestro equipo. Entre las funcionalidades más destacadas de los guest additions están las siguientes (la información completa podéis encontrarla en el manual de VirtualBox, eso sí, en inglés):
  • Integración del ratón: Teóricamente, debemos instalar las guest additions para que el ratón funcione en ambos sistemas operativos sin necesidad de atajos de teclado que lo permitan. No obstante, es probable que en vuestras virtualizaciones no necesitéis instalar nada para que esta característica funcione.
  • Mejor soporte de vídeo: Además de permitirnos aumentar las capacidades de resolución de los sistemas invitados, nos ayudará a obtener aceleración 3D para el software del sistema virtual y su entorno de escritorio. De todas formas no echéis las campanas al vuelo, la aceleración gráfica está bastante limitada.
  • Sincronización horaria: Sincroniza el reloj del sistema principal con el del sistema virtual, en el caso de que no estén sincronizados por cualquier motivo.
  • Ventanas, carpetas y portapapeles compartido: Esto dependerá de cada sistema que virtualicéis y del sistema anfitrión, pero en general podemos disponer de un sistema de comunicación entre ambos sistemas con el que poder compartir información entre ambos. Esto es especialmente práctico si le vamos a dar un uso intensivo a nuestro sistema virtual.
Hay unas cuantas características más que nos proporcionan las guest additions, aunque de un carácter más técnico y que iremos viendo cuando yo mismo haya terminado de entenderlas. Con este rápido vistazo, eso sí, creo que queda claro que instalar estos añadidos es particularmente importante si queremos que nuestros invitados se encuentren "a gusto" y den su máximo rendimiento.

Instalación

El problema viene a la hora de la instalación. Teóricamente es tan sencillo como seleccionar el menú "dispositivos" en la ventana del sistema virtualizado, y en el hacer clic en "instalar guest additions":


Desgraciadamente, mi experiencia en este sentido es clara: este método funciona bastante bien en sistemas operativos de Microsoft, pero no tan bien en los del pingüino. No entiendo muy bien la razón; el caso es que generalmente tendremos que hacer más cosas, las cuales dependerán de los paquetes de compilación que tengamos instalados en nuestro sistema invitado.
Debo admitir que he visitado decenas de páginas buscando información consistente sobre este asunto. Al final lo que me he encontrado es una abigarrada colección de trucos y combinaciones de paquetes que los diferentes usuarios han tenido a bien compartir con la comunidad. En general el paquete que todo el mundo dice que hay que instalar es dkms, que es un programa que sirve para compilar módulos en el kernel. pero en muchas ocasiones con este paquete no es suficiente. Al final mi decisión ante cada nueva instalación (una por semana, como mínimo) es intentar instalar todos los paquetes que van diciendo por ahí; el resultado es el que indico en el vídeo:

linux-source linux-headers-generic dkms build-essential module-assistant
No pongo el típico "sudo apt-get update" porque se sobreentiende y porque en cada distro hay un gestor de paquetes propio, así que podríais necesitar yum, pacman, o cualquier otro. Otro paquete que necesitáis, pero que prácticamente viene de serie en todas las distros y por eso no incluyo en la lista es el compilador básico de GNU:
gcc
Que por supuesto tendréis que instalar si encontráis algún error. El siguiente paso que indico en el vídeo es una orden cuyo funcionamiento he comprobado en sistemas basados en Debian/Ubuntu y en otras no suele ser necesaria:
sudo m-a prepare
Tras todas estas tareas previas, deberíamos estar preparados por fin para la instalación propiamente dicha, que podemos hacer directamente al hacer clic sobre el menú señalado con anterioridad:


O también desde el navegador de archivos, si dispone de botón de autoejecución (no todos los navegadores lo tienen):


En el caso de que no aparezca en vuestra distro ninguna de estas opciones, tendremos que tirar de terminal, navegando a la carpeta correspondiente del directorio /media/cdrom (lo de "cdrom" puede cambiar, haced un dir para comprobar cuál es la correcta y siguiendo las instrucciones del vídeo. El proceso de instalación se hace en el terminal elijamos la opción que elijamos, así que podremos comprobar si ha ido todo bien. Si no sabéis inglés, al menos verificad que al final de cada línea pone "Done" (hecho) y no "fail" (fallo). Si nos sale lo segundo, es que ha habido algún error y tendremos que revisar todos los pasos anteriores.


Hasta aquí la primera parte de este repaso a los guest additions. En el siguiente tendremos que continuar con el mismo tema, pues aun instalando los controladores virtuales es posible que sigamos sin tener la resolución nativa de nuestro monitor disponible. De modo que en el próximo vídeo veremos cómo conseguirla, mediante una jugosa colección de comandos.

miércoles, 20 de marzo de 2013

¡La cara es el reflejo del alma!


¡La cara es el reflejo del alma!
Yo no sé si esto es verdad o no. No soy psicólogo ni lo pretendo (ya tengo bastante con lo mio), pero por lo visto, y no me preguntéis de donde he sacado tal información porque me niego rotundamente, el aprender a detectar como las expresiones faciales y corporales del resto de la gente puede ayudarte a un mayor control emocional propio. ¡Toma ya!
Yo, presto como siempre, me voy a poner manos a la obra he intentaré con los medios de los que dispongo, y con el poco intelecto con el que los dioses me han dotado, a buscar experimentos que no sólo sirvan para determinar si la afirmación es correcta sino que me ayuden, de serlo, a controlar también dichas emociones (cosa que por lo visto me hace falta).
Como no tengo monos, los experimentos forzosos con humanos no están bien vistos y no cuento con ningún voluntario para tal fin, me toca experimentar como un verdadero hombre del Renacimiento. Un verdadero naturalista, todo un B. Franklin de la psicología pero sin la calva de Chiquito.
Por eso, y para no destapar el secreto, puesto que la sapiencia del mismo determina en parte los resultados. El Lunes os "sorprendí" con un extrañísimo y críptico texto que hacia alusión a darle la vuelta al mundo del Gameplay y que culminaba con un vídeo en el que os pedía que adivinaseis a que juego estaba jugando.
La tesis que pretende refutar o confirmar este test nace del siguiente axioma: Los vídeojuegos transmiten emociones/sentimientos.
Seguimos con la exposición del argumento; si los vídeojuegos transmiten emociones y sentimientos, éstos, por mor de la información cuya fuente secreta nos ha revelado, deberán de tener su reflejo en determinados aspectos faciales tales como la expresión o sus movimientos. Ergo, si asumimos que los vídeojuegos son algo heterogéneo, diferentes estilos de vídeojuegos implicaran diferentes "caretos". ¿O no?
La Universidad de Wisconsin estáen negociaciones conmigo para que diseñe sus experimentos. Fuente: Seamp.net
Pues bien, el experimento es simple. Si me grabo la cara mientras juego a X juego, a través de la capacidad que se presupone en la gente de traducir las expresiones faciales, utilizando la empatía, en sentimientos, pues se debería poder adivinar que juego o estilo de juegos estoy jugando. EUREKA. 
Todavía es pronto para sacar conclusiones de dicho experimento, puesto que se necesitan más pruebas. Pero como comento en el vídeo, por ahora, las cosas pintan muy bien.

Vídeo-Distro #11: Trisquel Linux 6.0 Toutatis


¡Por fin una distro española! No es que falten ejemplos de sistemas Linux creados en el solar de los carpetos y betones, pero lo cierto es que este es el primer hueco que le dedico a una distro patria en nuestro blog. Mea culpa, desde luego. Pero si os esperáis toreros haciendo chicuelinas o chulapos bailando el chotis, este no es vuestro artículo; la distro que analizamos hoy tiene raíces galaicas, de niebla y granito, de misterio, morriña y saudade. Ya su propio nombre nos deja bien clara su raigambre norteña: Trisquel, un nombre que alude a un símbolo solar que, aunque se puede encontrar en culturas a lo largo y ancho del mundo, tiene especial relevancia en el norte de Europa, la pretendida Europa céltica (porque es céltica y muchas cosas más, me cabrea un poco el mito celta, qué le voy a hacer) y sus ancestrales creencias paganas.
Espero que me haya quedado suficientemente poética esta introducción a la versión 6.0 de Trisquel, apodada Tutatis; porque otro elemento característico de esta distribución es su romántico objetivo de proporcionar un sistema absolutamente libre, sin ningún tipo de cortapisa privativa o blob binario.


Tan libre es esta distro que durante su presentación en 2008 ocurrió uno de los advenimientos de Richard Stallman sobre tierras hispanas, momentos que aprovechó para su habitual apostolado, con aureola y todo según cuentan los cronistas.
Ya metiéndonos en terrenos técnicos, hay que señalar que Trisquel apuesta por lo seguro en cuanto a paquetería, pues desde 2008 ha optado por la vinculación a los repositorios Main y Universe de Ubuntu, con las autoimpuestas limitaciones relativas al mencionado software de código no abierto; como no podía ser de otra manera, el kernel ha sufrido las correspondientes alteraciones para eliminar todo rastro de controladores privativos, lo cual, sumado a lo anterior, le ha conferido a esta distribución cierta aura de santidad GNU, y la conveniente (y merecida) certificación por parte de la Free Software Foundation. Para los que no lo sepáis, esta fundación promovida por el mentado Stallman proporciona una estricta serie de pautas que se deben cumplir a rajatabla para que una distro pueda obtener el apelativo de "completamente libre" por su parte. El hecho de que sólo ocho distros cumplan estos requisitos dice mucho del mérito que los desarrolladores de Trisquel a la hora de mantener "limpio" a su retoño.

Instalación



Uno se esperaría que, con todos los antecedentes anteriores, el uso de Trisquel fuera complejo, sesudo, muy "terminalero". Nada más lejos. Se nota bastante el toque Ubuntero en algunos de esos aspectos; concretamente, en lo que atañe a la instalación, nos encontramos con Ubiquity, el instalador de Canonical, que facilita enormemente el proceso. Ya lo digo en el vídeo, pero insisto: Ubiquity es "el instalador" por excelencia en la actualidad. Al menos de los que he probado, que son unos cuantos. El procedimiento es limpio, seguro y, sobre todo, rápido. El modo live, además, funciona a la perfección y el hecho de que la ISO de Trisquel sea tan diminuta nos permite "llevarlo encima" en un pendrive o en una de esas cosas que parece que ya nadie usa y que se llamaban CD-ROM.

Y yo que me esperaba tener que sacarme una ingeniería para instalarte...

Lo negativo

Debo advertir, por si acaso no ha quedado claro después de 11 entregas de vídeo-distros, que mis opiniones valorativas sobre los sistemas GNU-Linux son precisamente eso: meras opiniones. Con todo lo que de subjetivo e injusto puedan tener. En este caso, además, resulta todavía más complicado encontrar una respuesta simple a la pregunta de qué no me ha gustado de Trisquel. El hecho de que no cuente por defecto con apoyos privativos, que, según su propio lema "vaya por libre" me produce cierta sensación de vértigo. Es un poco como aprender a andar en bicicleta. Llega un momento en el que hay que quitar los ruedines y te hace ilusión, pero al mismo tiempo acojona. El desarrollo de los drivers libres para las tarjetas de vídeo avanza lento pero seguro, al ritmo pausado que la aburridísima ingeniería inversa permite. Pero por lo que voy leyendo y he podido comprobar por mi mismo, siguen sin sacar todo el rendimiento a nuestras tarjetas. Esto no sería un problema si no nos interesa jugar a lo último de lo último pero me parece preocupante debido al protagonismo cada vez mayor de OpenGL en las tripas de muchos programas dedicados a otros menesteres. Sea como fuere, si el uso que le damos a nuestras máquinas no necesita de esta clase de aceleración gráfica optimizada, no creo que ningún usuario note la diferencia en este sentido. Otra cosa más peliaguda es la cuestión de los codecs de audio, vídeo y flash. Respecto a los codecs, la solución es la transcodificación mediante OGG convert, programa incluido de fábrica en la distro. Con flash la cosa es un poco más complicada, aunque desde la propia página del proyecto nos señalan alguna solución intermedia, al menos para ver vídeos en este formato.

Kernel 3.2. Un poquito anticuado, todo hay que decirlo

Lo que está claro es que el uso de Trisquel supone un grado de conciencia tecnológica que presupone la aceptación de ciertas limitaciones. Es así: usar Trisquel es una forma de activismo, una reivindicación en sí misma. Esto es en esencia bueno pero si nuestro planteamiento es el de usuarios "normales" (entrecomillado, por supuesto, normales somos casi todos, menos algunos que he visto que tienen plaza en el parlamento) quizá encontramos estas limitaciones demasiado incómodas.

Lo positivo

Lo que más me ha gustado es la sorpresa de comprobar que el sistema es absolutamente "humano". Todo está en el sitio que se espera, no es necesario tener grandes conocimientos ni empollar documentación; es una distro pensada para que la use todo el mundo si le apetece y sin encontrar problemas. ¡Incluso con un centro de software al estilo Ubuntero!

¡Un centro de software! ¡Mola!

Seguro que esta sorpresa que me he llevado está causada a pachas entre mis prejuicios y mi desconocimiento, pero me alegro mucho de haber aprendido la lección: el software libre, por el que me muevo aún de manera algo ambigua (aunque entre mis conocidos yo ya tengo el sambenito de ser un jipi antisistema y raruno), es mucho más amable de lo que pueda parecer, si en el lado de quienes desarrollan hay intención de que así sea. Este es otro mérito fundamental por parte de los programadores. Por si fuera poco todo esto, el aspecto es impecable y minimalista, consistente y atractivo. Os parecerá una tontería pero me ha encantado la fuente tipográfica empleada en el escritorio, limpia, ligera y pequeña, como a mi me gusta.

El escritorio tiene cierto aire a Elementary, ¿verdad?

En resumen

Esta es otra distro de las emocionantes. No por su especial capacidad de configuración (el escritorio es un fork de Gnome 2, así que hay pocas cosas sorprendentes aquí), ni por su increíble capacidad técnica, rendimiento o actualización (el kernel es una versión de 3.2, de nuevo poco excitante y el rendimiento es bueno pero no increíble al estilo CrunchBang). Es emocionante por todo lo que implica. Es posible tener un sistema operativo totalmente funcional, trabajar con el, tener una "vida informática" normal y sin ningún tipo de dependencia de software privativo. Trisquel es la demostración de esta utopía.