sábado, 30 de agosto de 2008

Resumen veraniego

Retomo el blog tras haberlo dejado de lado durante estos meses de verano. Con la llegada de los exámenes de Junio y el descanso posterior apenas he dedicado tiempo a la divulgación. Y es que, aunque parezca que escribir sobre temas básicos es fácil y sencillo la realidad es totalmente distinta, ya que hay que poner especial cuidado en no faltar a la rigurosidad científica. Esto implica contrastar los conocimientos previos con diversas fuentes y ampliarlos, para una vez conocido bien un tema sintetizarlo de la forma más adecuada para que llegue de forma adecuada al lector.

En esta desconexión bimestral me he centrado en la astronomía, ya que durante el curso se hace bastante difícil profundizar en ello (por un lado debido al escaso tiempo libre y por otro a la climatología invernal). Tras cerrar la temporada de Saturno empezaron las observaciones de Júpiter y sus 4 satélites más visibles (los galileanos), perfectamente accesibles por mis Celestron 15x70. La que no estuvo a la altura fue la cámara, por lo que no he podido sacar fotos del campo visual de los prismáticos. Las fotos que están aquí colgadas son los procesados de unos vídeos que grabamos en casa de un compañero de la ALA, con su Maksutov-Cassegrain SkyWatcher 102/1300 y la Philips spc 900 nc. Los vídeos son de 46-48 segundos, procesados con RegiStax 4.0 y Photoshop CS3. La verdad es que la noche empezó muy turbulenta, aunque al final mejoró y se pudo sacar algo decente (y si no, hubiera merecido la pena ya sólo por la cena que tuvimos XD).

En cuanto a mi serie lunar, mediante el adaptador Vixen para cámaras fotográficas y algunas mejoras en el enfoque he conseguido obtener imágenes algo más detalladas del terminador, aunque se nota mucho el pixelado y el mal tratamiento de la luz por parte de la cámara. Con Photoshop conseguí mejorar algo más las fotografías, aunque gracias al adaptador y al enfoque mejorado algunas no he llegado ni a procesarlas por no resultar necesario. He tirado varios días a la Luna y he obtenido resultados que no creo que pueda mejorar más con mi modesto equipo. Es lo que hay.

Donde sí que me hizo mucho servicio mi equipo fue en el eclipse parcial de Luna del día 16 de Agosto. Hicimos una sesión pública en el observatorio de la Asociación, al que acudió bastante gente interesada tanto por observar el eclipse como por aprender la mecánica que lo rige. Montamos 3 telescopios fuera y mis prismáticos, mientras que desde la cúpula conectamos una webcam al ETX y proyectamos la imagen a tiempo real en la sala de cursos y conferencias. Además se impartieron ciertas nociones teóricas antes del evento, aunque cualquier pregunta en cualquier momento era tanto agradecida como respondida. La gente mostró mucho interés y algunos se fueron con fotos realizadas mediante proyección por ocular, ya fuera por algún telescopio o por los prismáticos. Cuando la Luna se hizo visible en el horizonte ya estaba eclipsada en parte, por lo que no se pudo ver entero, pero aún así mereció la pena. Además, no tendremos unas condiciones tan buenas hasta 2012, por lo que había que aprovechar. Yo realicé mi primer mosaico de un eclipse con un resultado mediocre debido a la calidad del equipo, aunque como esperaba peores resultados la valoración final es bastante positiva. Las 4 "lunas" inferiores pretenten mostrar la zona eclipsada, pero la cámara no es demasiado sensible a la luz débil y no pude sacar bien el disco. Además me quedé sin pilas y no pude sacar el eclipse entero. El montaje está realizado con Photoshop.

Y el resto han sido prácticamente minucias. Hicimos una prueba de fotografía de campo amplio (a Sagitario) para cartografiar el cielo por constelaciones y el resultado fue positivo, por lo que este invierno esperamos tener preparado un equipo de fotografía motorizado que aporte mejores resultados. Intenté también sacar alguna HDR pero es algo que tengo que pulir bastante y mi fugaz visita a Segovia me motivó lo suficiente como para aprender generalidades sobre fotografía y procesado. La observación de las Perseidas nos dejó con mal sabor de boca ya que el cielo no estaba en sus mejores condiciones y nos perdimos las estrellas más débiles, pero el buen ambiente de la gente aportó lo que le faltaba a una noche de sobresaliente.

Estos días seguiré sin publicar nada consistente, ya que hasta finales de septiembre estaré bastante ocupado. De todas formas tengo ganas en volver a la rutina divulgadora y sentirme útil en la comunidad blogger. Además tengo que hacer algunas modificaciones en el blog y escribir algunas cosillas para MiGUi, por lo que pronto empezaré de nuevo a estar activo. Gracias a todos por vuestra paciencia en una época en la que necesitaba desconectar de forma tajante y dedicarme a otros quehaceres. Un cordial saludo.

miércoles, 11 de junio de 2008

Time-Lapse y YouTube

Pese al parón del blog durante estos meses finales del curso he estado realizando algunas cosillas en el escaso tiempo libre que poseo. Si añadimos que desde el 8 de abril sólo ha habido dos días que estuvieran despejados por la noche... La astronomía la tengo parada, si bien me he comprado un filtro solar para probarlo en julio y he observado Júpiter y sus satélites entre bancos de nubes enormes. Como tenía mono de grabar algo y un compañero de la asociación estaba en la misma situación descubrimos las grabaciones de tipo Time-Lapse y estuvimos varios días haciendo pruebas (grabando nubes... sí, es lo único que hay, jeje).

EL video Time-Lapse se basa en tomar fotografías de un objeto cada X tiempo, a intervalos iguales entre foto y foto, obteniendo así una sucesión de fotogramas que se puede apilar para crear un video visible de forma contínua y sin cortes para el ojo humano (se suelen montar a 30 fps, ya que el ojo tiene el límite en 26-27 fps).

¿Cuál es la gracia de hacer fotos y apilarlas en lugar de grabar un video en directo? Si realizamos fotografías de un objeto cada 10 segundos, en un video de 30 fps tendremos resumidos 300 segundos reales (5 minutos) en 1 segundo de video. Así pues nos encontramos ante una forma bastante sencilla de obtener grabaciones rápidas de movimientos muy lentos que requieren horas o incluso días de grabación. Por si aún no ha quedado claro es así como se graba la apertura de las flores por las mañanas, la evolución de las nubes, la construcción de un edificio o la estela de meteoros. El resultado final es un video a cámara rápida de un proceso muy lento.

Durante unos días estuve grabando nubes durante horas, y aunque algunos resultados no han sido óptimos las últimas grabaciones empiezan a ser más decentes. Nuevamente el factor limitante lo pone la calidad de mi webcam y el escaso tiempo del que dispongo para desarrollar estas técnicas, tanto de grabación como de procesado y edición de los videos. Existen bastantes aplicaciones informáticas que llevan a cabo este tipo de grabaciones. Yo utilizo la versión de prueba de 10 días de HandyAvi, con muy buenos resultados.

Para subir mis videos he creado una cuenta en YouTube donde espero ir almacenando más cosillas además de Time-Lapse's. Para este verano tenemos como objetivo grabar en Time-Lapse el eclipse de Luna del mes de agosto, mientras tanto habrá que seguir practicando y esperar a que se despeje una sóla noche para poder hacer algo útil, o al menos, quitar el mono.

En julio espero poder aumentar la actividad del blog con artículos más decentes sobre divulgación, que a fin de cuentas esa era la finalidad de este espacio cuando lo monté. Además estoy descubriendo también la fotografía HDR, por lo que cuando obtenga mejores resultados de los que obtengo ahora y sepa manejar un poco mejor la técnica escribiré un pequeño artículo sobre ello. Pido un poco de paciencia y comprensión, la 4ª dimensión me está poniendo contra las cuerdas.

lunes, 26 de mayo de 2008

La Phoenix llega a Marte

La pasada noche, sobre las 23:54 GMT (en España la 1:54 am), la sonda Phoenix aterrizó sobre la superficie marciana. Esta misión de la NASA en colaboración con la ESA está destinada a obtener datos del polo norte marciano, donde se han detectado capas de hielo bajo su superficie. Su finalidad es realizar mediciones de las condiciones geológicas y atmosféricas para determinar si este planeta (y más concretamente el polo norte) es una zona habitable o no. Además buscará rastros de posible vida en esta zona inexplorada hasta la fecha.

Su aterrizaje era una maniobra bastante complicada, ya que de las 15 misiones que se han enviado a la NASA sólo 6 han llegado con éxito, a saber, las dos Viking, la Pathfinder, la Spirit, la Opportunity y ahora la Phoenix. Durante la entrada en la atmósfera y el descenso se desplegó un paracaídas que fue frenando a la sonda, mientras que un escudo térmico realizaba la función de protección frente al rozamiento. Posteriormente se encendieron los cohetes de descenso que frenarían a la sonda hasta la toma de contacto con la superficie. Todos estos pasos fueron realizados gracias al radar que realizaba las mediciones de altura, inclinación, velocidad y otros parámetros.

Una vez en la superficie su primera acción fue desplegar los paneles solares para servirse de la energía proporcionada por el Sol. Durante la vida útil de la sonda un brazo robótico tomará muestras del suelo marciano y una estación meteorológica se encargará de los parámetros atmosféricos. El análisis de la composición del suelo se realizará mediante microscopía, electroquímica y análisis de conductividad, gracias a la instrumentación que incluye la sonda. Además, las cámaras que incorpora permiten sacar imágenes como las que incluyo en este artículo, que están llegando poco a poco a la Tierra desde su aterrizaje en el polo norte marciano.

Aunque la tecnología de esta sonda es muy avanzada hay varios parámetros que pueden modificar e imposibilitar ciertos experimentos. Un ejemplo es el diseño del brazo robótico ya que al recoger la muestra lo hace de la zona cercana al aterrizaje. Debido a los cohetes de aterrizaje dicha zona puede estar contaminada con componentes del combustible, generando bastante error en las mediciones. Otro factor influyente es el viento, ya que el sistema que utiliza el brazo robótico es bastante rudimentario. Si existen vientos fuertes es muy posible que al recoger la tierra y verterla en los instrumentos de medición haya problemas, ya que su funcionamiento es muy similar al de una pala escavadora. Por último, el hecho de que la sonda permanezca inmóvil en la zona de aterrizaje puede ser un problema si el terreno es inapropiado para los estudios que se van a llevar a cabo.

Habrá que prestar atención a los descubrimientos que se van realizando paulatinamente. Dejo aquí el link a la web de la misión, donde se pueden ver tanto vídeos explicativos como las imágenes que se van recibiendo desde Marte.

Web de la misión Phoenix


domingo, 18 de mayo de 2008

Luna 18-05-2008

Aprovechando que estaba despejado y la Luna tenía casi 13 días hice unas fotos para probar un adaptador que me prestó un compañero de la asociación. El resultado ha sido magnífico, se acopla perfectamente a mis Celestron SkyMaster 15x70, por lo que no descarto hacerme con uno este verano. De todos modos ahora el límite lo pone mi cámara, que a falta de algo mejor tengo que conformarme con una digital compacta de Sony bastante normalita. El adaptador (de Vixen) apenas supone una carga adicional de peso sobre el ocular, ya que es bastante ligero y tiene un buen agarre. Ofrece bastante estabilidad, aunque las fotos hay que tirarlas con unos segundos de retardo para conseguir resultados óptimos. Otra ventaja es que ahora puedo realizar fotografías con un zoom óptico de 3x (de la cámara, sin tener en cuenta el aumento de los Celestron 15x70) sin que salgan movidas, ya que a pulso era realmente difícil conseguir una foto nítida con tanto aumento. Además utilicé un toro para reducir la entrada de luz y evitar en cierta medida la aberración cromática de los prismáticos.

Tiré varias fotos tanto a color como en blanco y negro pero no se por qué razón en este último caso disminuye bastante la calidad. Una de color la procesé en B&N y aunque perdí varios detalles he conseguido destacar más los mares. No acabo de estar contento con mis procesados lunares en B&N, pero todo es cuestión de práctica. Esta es la foto original y la procesada:



Los datos de la fotografía original son los siguientes:

Cámara Sony DSC-S500
Long. focal: 16mm
Abertura: F/4'8
Tpo de exposición: 1/100 s
ISO-100
Zoom óptico: 3x

En apenas cinco minutos se nubló, y pese a que la Luna era inaccesible mereció la pena quedarse a ver el espectáculo que ofrecían las nubes que la rodeaban. Mi cámara apenas capta ambientes con muy poca luz, por lo que no pude sacar gran cosa, pero aún así obtuve varias fotos "artísticas" como esta:


Cada día tengo más ganas de hacerme con un equipo de astrofotografía en condiciones, pero tendré que conformarme con este equipo durante un tiempo. A ver si este verano puedo sacar las fases de la Luna y el eclipse de Agosto.

martes, 6 de mayo de 2008

Primeros Saturnos

El escaso tiempo del que dispongo actualmente no es suficiente para escribir algo decente para el blog, por lo que lo tengo un poco abandonado. Sin embargo estoy sacando algo de tiempo para ampliar mis modestos conocimientos sobre astronomía.

Lo último que hemos realizado en la ALA es un video de Saturno, grabado con el telescopio Celestron C14 (un Schmidt-Cassegrain de 14'' de apertura y 3910 mm de focal). Se utilizó la webcam Philips spc 900 nc y la duración del video fue de 30 segundos a 5 fps. El video lo realizó un compañero al que le agradezco que me pasara una copia para poder procesarla individualmente.

Las aplicaciones que he utilizado para el procesamiento son el Registax y el Photoshop CS3. El Registax básicamente apila los fotogramas del video uno encima de otro para obtener una fotografía, pudiendo conseguirse resultados muy buenos si se escogen buenos fotogramas y se ajustan bien los parámetros de procesamiento. El Photoshop no necesita explicación, es el gran coloso de la edición de imágenes.

En un primer procesado obtuve lo siguiente (hacer click en la imagen para ampliar):


La primera imágen es el resultado de apilar los mejores fotogramas del video, sin realizar ningún otro ajuste. A continuación ajusté los niveles y las curvas de color en el Photoshop, así como el contraste, brillo, saturación y demás parámetros habituales. El resultado fue la imagen central. Por otro lado intenté procesar las curvas de color separadas por canales pero obtuve un Saturno azulado que se aleja demasiado de la realidad.

Un segundo procesado del video dió el siguiente resultado (hacer click en la imagen para ampliar):


Aquí ajusté el brillo y el contraste en el Registax, antes de utilizar el Photoshop. Se puede observar que apenas hay diferencias entre ellos, por lo que podría decirse que el primer resultado es más que suficiente. De todos modos esta es una conclusión falsa, puesto que estoy seguro de que esa foto sería bastante mejorable en buenas manos.

Por último hice un tercer procesado que dió un resultado muy bueno, gracias a los consejos del autor del video (hacer click en la imagen para ampliar):


En este caso estuve jugando con los wavelets del Registax tras apilar los fotogramas. Ya en esta primera imagen se puede observar una notable diferencia con las anteriores, y no es precisamente que haya girado el ángulo. Tanteando a ojo he conseguido que se diferenciara la discontinuidad de Cassini (la separación entre los anillos) y que apareciesen algunas bandas atmosféricas del planeta. Aún así ajusté los niveles, curvas y demás en Photoshop, ganando luminosidad.

Edito la entrada para incluir un 4º procesado que acabo de realizar (hacer click para ampliar):


Esta vez fui más duro con los wavelets y pude definir algo más los detalles, aunque aumentó considerablemente el ruido de la imagen. A continuación hice los retoques rutinarios con el Photoshop.

Por último sólo quiero remarcar que las imágenes están subidas al blog en jpg, por lo que pierden bastante calidad y adquieren mucho ruido. La verdad es que estoy bastante contento con los resultados. Espero ir teniendo más ocasiones como esta para ir perfeccionando la técnica y aprender nuevos trucos, que no son pocos.

martes, 22 de abril de 2008

Tagboard

Informo de que he creado un Tagboard en la barra lateral. Para quien no lo conozca es una especie de chat donde dejar mensajes rápidos. Igual lo cambio de sitio y lo bajo o lo subo en la columna, pero de momento no lo voy a quitar (salvo que me de problemas). Como se autoactualiza es posible que me produzca errores en las estadísticas de visitas, por lo que lo tendré unos días de prueba para comprobar esto.

Y pronto volveré con algún artículo nuevo. Disculpad que no pueda actualizar el blog a intervalos constantes y las publicaciones vayan por rachas, pero la vida del estudiante es así. Espero poder escribir algo interesante en poco tiempo.
*NOTA: Introducía publicidad, por lo que lo he borrado, a ver si encuentro otro un poco curioso.

jueves, 17 de abril de 2008

Nos abandonan las grandes figuras.

Siempre hay alguna época en la que las malas noticias se suceden una tras otra, y actualmente se han dado tres que debería haber comentado en el blog pero que por falta de tiempo no he tenido ocasión de hacer. Parece que nos abandonan las grandes figuras de la ciencia y la divulgación, y es que nos acercamos a unas fechas que están en el límite de la capacidad vital de quienes han sido afamados a lo largo del siglo XX.

El primero en dejarnos fue Arthur C. Clark, el 19 de marzo a la edad de 90 años, científico de prestigio durante la Segunda Guerra Mundial y escritor de obras de ciencia ficción tan conocidas como El centinela o sus Odiseas, empezando con la famosa 2001: Una odisea espacial.

Casi un mes después falleció John Wheeler, el 13 de abril a la edad de 95 años. Es muy conocido entre los físicos y matemáticos por sus trabajos en física teórica, sobre todo por acuñar los términos Agujero negro y Agujero de gusano, dos estructuras de vital importancia en el estudio actual de la cosmología. Además participó en el Proyecto Manhattan y fue defensor del principio antrópico.

Por último, ayer mismo nos ha abandonado otra eminencia muy querida entre los científicos de la era moderna, Edward Lorenz, fallecido el 16 de abril a la edad de 90 años. El público puede conocerle más por el llamado Efecto mariposa. Este matemático realizó estudios climatológicos que le permitieron definir el Atractor de Lorenz, un sistema dinámico que ha servido como base para el desarrollo de parte de la Teoría del Caos, teoría de la que se le considera uno de los padres.

Por lo menos nos queda el consuelo de que vivieron muchos años y que disfrutaron del privilegio de sentir de cerca la ciencia, aportando trabajos fundamentales para el futuro desarrollo de la tecnología. Sin duda son tres personajes que se merecen más que una simple mención, por lo que no descarto escribir su bibliografía en alguna entrada posterior. Por el momento, seguiré peleándome con la cuarta dimensión.

miércoles, 9 de abril de 2008

SOHO

Estos días carezco del tiempo suficiente para escribir algún artículo más divulgativo o de mayor interés y complejidad, por ello estoy empleando el poco tiempo del que dispongo para retocar un poco el blog y organizar mi software. Hace unos días incluí la APOD en el menú lateral y, tras escribir una pequeña entrada sobre software astronómico, acabé por añadir algunas imágenes del SOHO debajo de la APOD. A continuación paso a explicar qué es el SOHO y qué muestran las imágenes que he añadido al blog.

El Solar and Heliosferic Observatory (SOHO) es una sonda espacial dedicada por completo al estudio del Sol, desde que empezó a emitir en mayo de 1996 hasta el día de hoy. Se fabricó en Europa, bajo la supervisión de la ESA, mientras que el lanzamiento, el 2 de diciembre de 1995, corrió a cargo de la NASA. Actualmente ambos organismos controlan su funcionalidad y se sirven de los datos enviados por la sonda. Una peculiaridad que es necesario destacar es que SOHO fue la primera sonda de observación solar que no orbita alrededor de la Tierra. Un inconveniente de las sondas antiguas es que durante ciertos periodos de tiempo la línea de observación entre el Sol y la sonda aparecía eclipsada por la Tierra, que se anteponía entre ambos y restringía la visión. En cambio, el SOHO está orbitando alrededor del punto de Lagrange L1, un punto situado en la línea que une a la Tierra con el Sol a una distancia suficiente de ambos como para que se anulen los efectos de la gravedad, generando una situación idónea de equilibrio dinámico que puede utilizarse para posicionar sondas u otro tipo de estructura espacial.

Pese a que se había estimado la duración del proyecto en 2 años, actualmente sigue funcionando casi a la perfección. En el año 2003 se produjo un fallo en el motor que orienta una de las antenas de transmisión de datos, provocando que cada 3 meses haya un bloqueo durante dos semanas en el envío de información hacia la Tierra. De todos modos, este bloqueo retrasa la transmisión de datos pero no los pierde, por lo que la información de la que se dispone es completa. El equipamiento de la sonda está formado por 12 instrumentos que miden desde las variaciones de temperatura y velocidad de los flujos de plasma en la corona hasta sus campos magnéticos, la composición del viento solar y las oscilaciones del disco y núcleo solar. Parte de los datos registrados son imágenes con diferentes filtros, como el H-alfa, que permite la observación de los flujos del viento solar, y se encuentran disponibles en la web del proyecto que he referenciado arriba.

Cuatro de estas imágenes son las que actualizo diariamente en este blog, concretamente 3 imágenes EIT y una MDI. Las imágenes EIT (Extreme ultraviolet Imaging Telescope) se registran a diferentes longitudes de onda, estando la imágen roja tomada a 314 Angstroms, la amarilla a 284 y la azul a 171. Las zonas brillantes de la EIT 314 muestran materiales que se encuentran entre 60.000 y 80.000 grados Kelvin, la EIT 171 muestra materiales a 1 millón de grados Kelvin y la EIT 284 a 2 millones de grados Kelvin. La imagen MDI Continuum (Michelson Doppler Imager) que he incluído en el menú lateral está tomada a 6768 Angstroms y, aunque ahora no muestra más que un disco naranja, dentro de un tiempo permitirá la observación de nuevas manchas solares (actualmente nos encontramos en el final de un ciclo solar y el inicio de uno nuevo, un periodo con actividad solar mínima). Esta última imagen es bastante útil ya que muestra una visión muy parecida a la que observa por los prismáticos o telescopios habituales con filtro solar (y las gafas que venden para ver los eclipses). Mejor ver el Sol mediante el SOHO que a ojo descubierto.

lunes, 7 de abril de 2008

Software astronómico básico

Ya que hace poco escribí una entrada sobre un planetario para los teléfonos móviles voy a aprovechar la ocasión para hablar de los programas más útiles para todo aquel aficionado que se esté iniciando en la astronomía. Desde luego, el apoyo que brinda tanto la informática en general como el mundo de internet a la astronomía amateur es amplio y lleno de posibilidades para todos los niveles. Hablaré de unas pocas aplicaciones sencillas de manejar pero con una cantidad de información más que suficiente como para iniciarse en esta disciplina.

En primer lugar hablaré del Stellarium, un planetario visualmente muy atractivo y sencillo de manejar. Es software libre y gratuito, además de permitir la modificación del código para incluir catálogos estelares, imágenes de cielo profundo, constelaciones o nuevas funciones. La puesta a punto es muy sencilla, ya que tan sólo hay que establecer la localización y el tiempo, así como las opciones básicas de visualización y otros parámetros opcionales, como dibujos de constelaciones, número de estrellas y etiquetas. Permite una observación a tiempo real, con posibilidad de ir hacia adelante o hacia atrás en el tiempo y estudiar la mecánica celeste. El programa corre en Linux, Mac OS X y Windows, pidiendo 512 Mb de memoria RAM y una tarjeta gráfica compatible con openGL. Sin duda es una aplicación que no debería dejarse de lado en el aprendizaje de la astronomía.

Un programa de tipo planetario mucho más potente que el Stellarium es el Cartes du Ciel, programa de código abierto que corre bajo Linux y bajo Windows (aunque en la web no dice nada de que funcione en XP doy fe de que funciona a la perfección, la web es un tanto antigua). Pese a los años que han pasado desde el nacimiento de este programa, hoy en día sigue siendo uno de los más utilizados por su versatilidad en cuanto al nivel de información. Los principiantes encontrarán en él un planetario más riguroso que Stellarium mientras que a medida que se ganan conocimientos se pueden implementar catálogos de objetos, plug-ins, herramientas y actualizaciones descargables desde la web. De este modo se puede tener un software muy potente totalmente personalizado. Además, el hecho de trabajar con cartas celestes a modo de atlas facilita la labor de campo, ya que se pueden imprimir con todo lujo de detalles.

Hay un objeto que la mayoría de las veces estorba en el cielo, pero que puede ofrecer unas visiones únicas y especiales. Obviamente me refiero a la Luna, accesible con cualquier equipo óptico. El Virtual Moon Atlas es un programa gratuíto que cuenta con la colaboración de uno de los creadores del Cartes du Ciel. Corre bajo Windows y para nada necesita unos requisitos prohibitivos, más bien lo contrario. El software nos ofrece una visión detallada de la Luna con información de cada accidente geográfico de su superficie. Es muy útil para el estudio de este objeto aunque a veces se observen diferencias entre la visión real y la del programa, en lo que a las sombras se refiere. Al principiante esto puede despistarle un poco, pero en muy poco tiempo aprenderá a orientarse por el atlas con una gran eficacia. Además, por unos 20€ se puede pedir un CD con una versión mucho más avanzada que la gratuita, aunque no se qué más se puede mejorar (añadir que la versión gratuita incluye tres modos de arranque, a saber, basic, light y expert, aunque recomiendo entrar directamente en la expert).

Un planetario similar al Stellarium es el Celestia. Con un atractivo visual muy superior al del primero permite viajar por el espacio saltando de estrella en estrella, llegando a dar la sensación de estar realmente viajando en un mundo 3D (como ejemplo, ver este video de un compañero forero en el que se muestra cómo la constelación de Orión tiene sus principales estrellas a distancias muy diferentes). El principal problema que le veo es que no hace la función clásica de planetario, ya que no he encontrado aún una función que permita una visualización al estilo Stellarium. Personalmente lo utilizo como simple software estético, ya que su manejo es algo complejo y no me aporta nada que no pueda obtener con los programas anteriores, pero es bastante potente a la hora de simular la mecánica celeste. Este software libre corre bajo Linux, Mac OS X y Windows y permite la implementación de add-ons que lo actualicen o personalicen.

Por último, un artículo sobre software astronómico no puede finalizar sin hacer mención al gran Starry Night, ahora en su última versión Pro Plus 6.2. En este caso el precio lo dice todo. Supera con creces a cualquier otro software astronómico, haciéndose casi imprescindible en astronomía amateur avanzada. La verdad, no puedo opinar objetivamente sobre esta aplicación ya que no la he probado, pero su popularidad es tal que aparece mencionado y comentado en numerosos foros y blogs de internet. Además, una cualidad muy interesante es que incluye un sistema GOTO para monturas motorizadas, permitiendo que nuestro telescopio siga las indicaciones que le damos desde el ordenador. Existen varios programas con esta función, pero el Starry integra varias aplicaciones en una sóla, consiguiendo un resultado sobresaliente.

Obviamente he dado las características más generales de las aplicaciones que le pueden interesar a quien se inicia en astronomía, pero hay que tener en cuenta que todos estos programas, exprimidos al máximo, son herramientas imprescindibles de los astrónomos más "curtidos". La posibilidad de aumentar sus catálogos, actualizarlos con los últimos datos y modificar el código fuente convierten a programas como el Cartes du Ciel o el Starry Night en herramientas imprescindibles para planear las observaciones y demás eventos astronómicos. Si a todo esto le sumamos la gran cantidad de ayuda, tutoriales y manuales que existen en internet sobre este tipo de software... habrá que sacar la luz roja para observar bajo techo en los días lluviosos.

sábado, 5 de abril de 2008

Mobile Planetarium

En uno de los foros que frecuento he encontrado una aplicación para los teléfonos móviles que simula un planetario al estilo de Stellarium (del que hablaré un día de estos). Así dicho puede parecer algo sin utilidad, pero para los que no tenemos portátil para llevarlo a las salidas de campo o para los que queremos más informacíon in situ de la que aporta un atlas de papel es un programa bastante asequible. El programa es Mobile Planetarium, software libre, descargable desde SourceForge, con una web en la que hay un manual muy básico para hacer la puesta a punto. El único requerimiento es que el teléfono móvil incorpore Java, pero para que tengáis una referencia os diré que en el Nokia 6131 funciona a la perfección aún forzándolo al máximo.

Su manejo es realmente sencillo. Para hacer la puesta a punto sólo se necesitan saber las coordenadas geográficas, el huso horario en función del GMT y la hora local. A continuación se hacen los ajustes de orientación visual, magnitud estelar (el máximo es 6), color (rojo para visión nocturna) y lo que queremos ver por pantalla, desde las figuras y nombres de las constelaciones hasta los objetos Messier, planetas y estrellas más brillantes. Respecto a los cuerpos del Sistema Solar, incluye las predicciones de los 7 planetas (sin contar la Tierra) más Plutón, el Sol y la Luna. Por último, se pueden cambiar varios parámetros durante la visualización, como aumentar/disminuir el número de estrellas que se quieren ver, cambiar las etiquetas de los objetos o manejar el zoom hasta una FOV de 10º. Además, la aplicación cuenta con una ayuda y mucha información de los objetos, así como con una función de búsqueda y GOTO.

El chico que lo ha diseñado es un estudiante graduado que trabaja en el departamento de Ciencia Computacional e Ingeniería de las Telecomunicaciones en la National Cheng Kung University, en Taiwan. Desde luego ha realizado un proyecto muy útil para todos aquellos que como yo se encuentran aprendiendo la mecánica celeste en diversas observaciones y no disponen de un ordenador a mano. Es un buen trabajo.

APOD - Astronomy Picture of the Day

Después de mucho tiempo de visitar APOD (y motivado por la lectura de un artículo del compañero Manuel Fernández en el número 86 de la revista LEO) me he decidido a hacer una pequeña mención a esta web en el blog. APOD, o lo que es lo mismo, Astronomy Picture of the Day, es una sección de astrofotografía de la web de la NASA, donde diariamente muestran y comentan la que llaman "Fotografía Astronómica del Día". Su nacimiento se produjo el 16 de junio de 1995 de la mano de Robert Nemiroff y Jerry Bonnell, dos astrónomos profesionales que ejercen de profesores e investigadores en las universidades de Michigan y Maryland respectivamente. Desde esa fecha han ido colgando una foto astronómica al día, empezando con una imagen computerizada de una estrella de neutrones y llegando al día de hoy con los estratos de Aureum Chaos, una región de Marte.

Aunque el diseño de la página no es todo lo visualmente atractivo que se pudiera desear, la calidad de las fotografías y los comentarios profesionales son motivo más que suficiente para hacer de esta web una sección muy interesante para los amantes de la astronomía. Su estructura es simple pero eficaz, ya que contiene tanto un archivo como un calendario con las fotos publicadas día a día, además de un buscador para facilitar el filtrado de imágenes. Una característica a destacar es que, además de publicar fotos del Hubble y de otras misiones de la NASA, también se publica una gran cantidad de material amateur, por lo que muchos astrónomos aficionados mandan sus fotografías con la esperanza de que las incluyan en la galeria de APOD.

Por último decir que he añadido una sección de la APOD en el menú lateral del blog, con un link directo a la web oficial de la NASA donde aparece el comentario de la fotografía. Espero que funcione bien, lo vigilaré estos días para comprobarlo. Además, por si alguien quiere probar un fondo de escritorio con la APOD que se actualiza diariamente dejo aquí el link de descarga del software que lo realiza, obtenido del artículo de la revista LEO anteriormente mencionado. También lo tengo en fase de pruebas, por lo que si da algún fallo lo haré saber.

jueves, 3 de abril de 2008

Adiós a Ciencia@MiGUi, bienvenidos a Joomla.

Tras el parón que hice durante el mes de marzo, con unas vacaciones de por medio, he vuelto a entrar en el blog para ponerlo al día y comenzar a escribir de nuevo. Además quiero aprovechar para agradecer a cierta persona que se interesara por mi blog y mi forma de escribir, ya que eso siempre anima a seguir.

La vuelta ha traído una novedad que creo necesaria mencionar. Como se preveía desde hacía tiempo, el blog en el que colaboro, Ciencia@MiGUi, ha decidido migrar de servidor, quedando por tanto obsoletos todos los links que tenía en mi blog referenciados a dicha web. La verdad es que dichos links no funcionaban por una cuestión de seguridad informática, por lo que no servían de gran cosa. Comento esto porque tras la migración al nuevo servidor he editado todos los links erróneos y actualmente funcionan a la perfección.

La nueva web, MiGUi.com, utiliza Joomla, un sistema de gestión de contenido (CMS) de código abierto bajo licencia GPL, permitiendo publicar artículos y otros textos en una base de datos MySQL. El dinamismo y las nuevas posibilidades de este sistema lo convierten en un buen modelo para desarrollar un conjunto de foros, blogs, etc... Sobre esta estructura ha nacido la nueva web, que albergará contenidos tanto científicos como culturales, si es que ambas categorías pueden separarse.

De momento dejo el enlace a Ciencia@MiGUi, ya que aún está activo pese a que no se publique nada más allí. Esperemos que poco a poco vaya cuajando la nueva web y llegue a convertirse en lo que se ha convertido el foro. Seguro que así será.

martes, 25 de marzo de 2008

Libro - Una breve historia de casi todo

Llevo una temporada ausente del mundillo de la divulgación, abandonando este blog y algún otro proyecto que tengo pendiente. Me estoy tomando un descanso que creo que necesito, aunque dudo merecerlo. La verdad, últimamente estaba demasiado metido en temas científicos de divulgación, un poco por aquí un poco por allá, y he llegado a saturarme hasta el punto de no terminar un par de artículos que sólo necesitan unos retoques mínimos. Esta semana que me queda de descanso la voy a tomar como tal, y espero empezar abril con las ganas de hace un tiempo, no sin descuidar con ello el resto de actividades. Por el momento utilizo como excusa el último libro que he leído para escribir esta entrada e intentar reflotar el blog.

Una breve historia de casi todo, de Bill Bryson, es una obra de divulgación básica y carente de tecnicismos, muy útil para un lector que apenas tenga conocimientos científicos y que quiera tener una idea general de qué es esto de la ciencia y cómo se ha desarrollado hasta el día de hoy. Inicia la narración dando una visión simplista del Sistema Solar y del Universo en general, recurriendo a la teoría del Big Bang, para acabar, después de unas 500 páginas (según la edición), con lo poco que se conoce sobre la evolución del hombre moderno. Entre estos dos puntos que pueden calificarse como extremos de la historia conocida se desarrollan capítulos que tratan la historia de la química, la física, la cosmología y otras materias afines a la vida. Abarca desde una visión muy somera de las partículas subatómicas hasta la dinámica de la climatología, desde el descubrimiento de los elementos de la tabla periódica hasta la tectónica de placas.

Toda la obra está muy bien documentada, con bibliografía específica en cada capítulo y referenciada en el texto. A veces se incluyen notas aclaratorias y en la versión "no de bolsillo" aparecen diversas imágenes que no he podido ver. Además, la redacción del libro está muy cuidada, acercándose numerosas veces al lector no experimentado con un humor y una ironía que provocarán la aparición de más de una sonrisa (sobre todo al hacer referencia a peleas entre científicos, descubrimientos casuales, etc...).

Algo negativo que tengo que destacar es cierta falta de rigurosidad en el capítulo dedicado a la genética, aunque lo achaco en parte a la traducción de la edición original. He observado ciertos fallos de traducción, así como fallos en la conversión del billón americano al billón europeo, lo que lleva a alguna incoherencia en ciertos datos. Desde luego este fallo no se debe al autor sino a la traducción, por lo que no debe tenerse demasiado en cuenta. Por otro lado, el excesivo simplismo del capítulo referido al DNA me llevó a pensar que me encontraba frente a una obra carente de rigurosidad en todos los sentidos... nada más alejado de la realidad.

Si tengo que elegir un capítulo me quedo con el último, que si bien tiene un final un poco pobre (deja con ganas de más) muestra de una manera muy cruda la plaga que supone la presencia del ser humano sobre la Tierra. Nos acerca sin pretenderlo a la realidad de nuestra naturaleza animal y nos aleja de las ideas de superioridad que nos abordan. Por supuesto no puedo quedarme con un sólo capítulo, es prácticamente obligatorio hacer mención a la parte del desarrollo de la química, el capítulo sobre Yellowstone y la tectónica de placas, el capítulo del mundo microscópico y las narraciones sobre la historia de la paleontología. La parte final se dedica al origen de la vida y, en último término, del hombre moderno, dando una visión básica y completa de la posición actual de la antropología.

Desde luego, este es un libro que recomiendo a todo aquél que tenga curiosidad por saber un poco de nuestra historia, tanto del planeta Tierra como de la especie humana, de la vida y de las ciencias en general. Es un libro que bien puede considerarse una obra básica de divulgación a nivel general. Apto para todos los lectores, parada obligatoria en la divulgación científica.

martes, 11 de marzo de 2008

Nueva cabecera II

Gracias al pique surgido entre el anterior artista y el primo, este último decidió hacer por libre la cabecera que tengo puesta en este momento. A mi me gusta más, pero para zanjar definitivamente el asunto pondré la encuesta que algunos ya me han pedido. Desde luego darles las gracias a los dos, que son unos cracks del photoshop XD.

La anterior imagen se puede ver aquí.

P.D: no descarto hacer otros cambios de color en el fondo y en alguna barra... iré probando, se admiten sugerencias.

domingo, 9 de marzo de 2008

Nueva cabecera

He cambiado la imagen de la cabecera del blog, ahora ya está más personalizado. Lo realizó un amigo que prefiere mantenerse en el anonimato porque no le acaba de convencer el resultado. La verdad es que a mi me ha gustado mucho y pasa a quedarse fija en el blog. Incluye varias imágenes símbolicas, como el busto de Galileo, la doble hélice de DNA, la nebulosa de Orión y el Teorema de Taylor. Además he incluido mi propio cariotipo, para completar la imagen. Espero que os guste tanto o más que a mi.

lunes, 3 de marzo de 2008

AIA-IYA2009

Con este título tan expresivo hago referencia al Año Internacional de la Astronomía - International Year of Astronomy 2009, declarado así por la UNESCO el 27 de octubre de 2006 y anunciado por la IAU (Unión Astronómica Internacional), con motivo de los 400 años que han pasado desde la fabricación del telescopio de Galileo. El número de países participantes asciende a 105, siendo 50 de ellos los que ya cuentan con una web nacional sobre el proyecto. La idea es la habitual en estos casos: acercar a modo divulgativo-técnico la astronomía a la sociedad, despertarles cierto interés hacia este ámbito, implantar cierta educación carente en la actualidad y fomentar el desarrollo de comunidades astronómicas pequeñas. Además de todo ello se destinarán fondos a diversas tareas humanitarias en países subdesarrollados, encaminados a mejorar sectores como la educación y la accesibilidad a recursos básicos.

La estructura organizativa se distribuye en varios niveles, a saber, local, regional, nacional e internacional, dependiendo todas ellas de la IAU. El nodo nacional estará regulado en segundo lugar por el Comité Nacional de Astronomía (CNA) bajo el que se establece una red muy amplia de organizadores que van desde asociaciones astronómicas fuertes hasta centros de investigación, universidades, museos, observatorios y planetarios. Además de este amplio grupo de organizadores principales hay una red más pequeña de asociaciones colaboradoras que desarrollarán voluntariamente actividades a nivel local.

De momento existen 11 proyectos pilares a realizar en el 2009, entre los que figuran 100 horas de observaciones astronómicas, exposiciones de astrofotografías en lugares públicos, establecimiento de portales divulgativos y concienciación sobre los problemas que genera la creciente contaminación lumínica en las ciudades. Además existen proyectos sobre el papel a nivel global, internacional y nacional que están siendo analizados por los organizadores para ver cómo llevarlos a cabo, incluyendo una sección en la que cualquiera puede enviar una idea que será amablemente respondida (lo digo por experiencia) y posiblemente analizada.

Para el que le interese he dejado un icono con el enlace a la web internacional en el menú lateral del blog. Para visitar la página nacional hacer click aquí.

domingo, 2 de marzo de 2008

Nace EOL

Hoy se ha abierto al público la Encyclopedia of Life, un proyecto que, al más puro estilo wiki, pretende abarcar cantidades ingentes de información sobre todas y cada una de las especies vivas que habitan sobre la Tierra. El proyecto lo sugirió E. O. Wilson, un profesor de la Universidad de Harvard, que contó con el apoyo financiero de la fundación A. P. Sloan y la fundación John D. and Catherine T. MacArthur para ir desarrollándose. Esperan conseguir suficiente financiación mientras van creciendo pero no descartan colgar publicidad en la web si careciesen de estabilidad económica en un momento dado.

Actualmente cuentan con 30.000 páginas con algo de información y pretenden alcanzar la cifra de 1.800.000 especies catalogadas, consiguiendo terminar el proyecto en el 2017. Si bien es comparada con la famosa Wikipedia, existe una diferencia crucial que convierte a EOL en una enciclopedia de un nivel superior. La principal característica es que tan sólo los expertos en la materia puedan editar las entradas y la información, avalando así indirectamente el resultado final. Los usuarios que no cumplan los requisitos académicos solicitados no podrán editar directamente las entradas pero sí podrán enviar información que será corregida y revisada por los expertos antes de ser publicada, asegurando así una rigurosidad más que aceptable. Un tipo de aportación muy útil que pueden realizar los no expertos es enviar imágenes de las diferentes especies, ya que muchas imágenes actuales se encuentran protegidas por derechos de propiedad intelectual restringidos que impiden su utilización en esta enciclopedia libre. Por otro lado, los investigadores y profesores del mundo científico no siempre disponen de tiempo libre para desarrollar estas tareas "por amor al arte", por lo que se está buscando algún incentivo como que las aportaciones que realicen sean equiparables a las publicaciones científicas en revistas.

Los temas que se tratarán en cada especie van desde su taxonomía y estructura hasta su hábitat, biología molecular y genética. Además colgarán referencias a otros textos o publicaciones en la red para poder ampliar el tema. De momento sólo se puede consultar en inglés y en francés, pero eso no es un gran problema. Además, por lo poco que he podido ver (ya que hoy está demasiado saturada la página) existen filtros que puedes modificar para obtener la información a un nivel divulgativo o a un nivel más técnico. Desde luego, si se convierte en lo que se ha convertido hoy la Wikipedia, será una gran base de datos muy útil para divulgación, educación e investigación. Por mi parte ya he colgado en este blog el logo de EOL. Esperemos que sigan creciendo y cumplan las expectativas.

viernes, 29 de febrero de 2008

Biografía: Galileo Galilei

Me gustaría inaugurar una sección de biografías periódicas y qué mejor manera de hacerlo que hablando del científico con el que inicié la escritura de este blog y cuyo título se le atribuye a modo de cita. Mi intención para las biografías no es aportar gran cantidad de fechas ni de hechos, únicamente quiero dar una visión general del indivíduo. Su realización es laboriosa y lleva cierto tiempo por lo que intentaré sacar una biografía cada dos semanas o así, aunque posiblemente no siempre lo cumpla. Espero que sea de vuestro agrado y que le pueda dar continuidad en el tiempo, ya que autores nunca faltan. Sin más preámbulos paso a relatar la biografía del científico que he elegido para encabezar la sección.

Galileo Galilei nace en Pisa el 15 de febrero de 1564 en el seno de una familia de la baja nobleza cuya fuente de ingresos era el comercio. En un principio Galileo obtuvo una educación religiosa y, aunque en 1581 inicia estudios de medicina y filosofía, acaba descubriendo que su verdadero interés se dirige hacia las matemáticas. Desde muy temprano Galileo se consideró seguidor de Pitágoras, Arquímedes y Platón, mientras que mostraba una gran disconformidad con el modelo aristotélico. Además cabe destacar que es en su época de estudiante cuando descubre la ley de isocronía de los péndulos, principio que le será muy útil para sus estudios posteriores de mecánica. Debido a las asperezas que genera con sus críticas al profesorado abandona los estudios sin haber conseguido el título, pero con ganas de dedicarse a la ciencia por su propia cuenta.

Los primeros trabajos que realiza versan sobre los centros de gravedad de diversos cuerpos sólidos, aunque continúa con sus estudios de oscilaciones pendulares. Además, descubre la cicloide (una curva muy útil en matemáticas) e inicia modestas investigaciones relacionadas con la caída de los cuerpos, llegando a escribir una primera obra sobre mecánica. En esta época ejerce también como profesor y catedrático en la universidad de Pisa, cobrando un sueldo bastante modesto y dando clases sobre el modelo ptolemaico con el que empezaba a estar en desacuerdo.

Posteriormente se dedica a dar clase de geometría, mecánica, astronomía y matemáticas en la Universidad de Padua, un lugar idóneo para desarrollar nuevas teorías ya que la Inquisición carecía de influencia en esa zona. En esta época muere su padre y Galileo mantiene a su familia dando clases particulares. Además, en el año 1599 conoce a Marina Gamba con la que, sin casarse ni vivir con ella, tiene tres hijos de los que cuidará tras la posterior separación. Más tarde, en 1604, descubre la ley del movimiento rectilíneo uniformemente acelerado, defiende que los proyectiles lanzados en el vacío siguen una trayectoria parabólica y se centra en el estudio de los imanes.

"En temas de ciencia, la autoridad de mil no vale ni la mitad que el razonamiento de uno"

Y llega 1609, el año de la invención del telescopio. Tras recibir noticias de un telescopio construido en Holanda, Galileo se dispone a construir uno propio sin apenas información, obteniendo un aparato que no deforma las imágenes y que supera en aumentos al holandés. A continuación construye otro que mejora al anterior y que presentará en Venecia, llamando la atención del Senado de esta ciudad, cuyos intereses eran de índole militar. Como pago le hacen fijo en Padua, mejorando por tanto la situación económica de Galileo. Durante muchos años se dedica a construir un gran número de telescopios, pero tan sólo un número muy reducido aporta la calidad suficiente como para utilizarse en astronomía. Galileo realiza observaciones lunares importantes que le llevan a reafirmar su opinión contra el modelo aristotélico, observa la Vía Lactea y determina ciertos cúmulos estelares, pero sin duda su observación más reconocida es la de los cuatro satélites de Júpiter, conocidos en la actualidad como satélites galileanos, a los que utiliza para apoyar ciertas ideas de la estructura copernicana en detrimento del modelo aristotélico. Cabe destacar que contaría con la colaboración de Kepler en el asunto de Júpiter y sus satélites. Posteriormente se traslada a la Universidad de Pisa donde tiene un puesto privilegiado que le permite compaginar clases con observaciones, llegando a atisbar los anillos de Saturno, las manchas solares y las fases de venus (utilizándolas para reforzar el heliocentrismo). Poco a poco Galileo va aumentando su popularidad, llegando al máximo cuando el jesuita Christopher Clavius y su grupo confirman sus cálculos.

Defender el heliocentrismo mediante la "simple" observación y rechazar los argumentos de autoridad de los aristotélicos en aquella época era algo notablemente peligroso. Galileo empieza a sufrir ataques de los geocentristas y, como viene siendo costumbre desde hace varios siglos, la iglesia se entrometerse debido a que en la Biblia (que escribo con mayúscula por obligación de la RAE) se hace referencia al geocentrismo. Al principio eran ataques aislados pero pronto se intensifican y se dirigen contra la mayoría de sus teorías, llegando a un punto muy tenso en el que interviene el cardenal Berlarmino, organizando una inspección por parte de la Inquisición (que también debo escribir con mayúscula por obligación de la RAE). Tras una lucha intensa se acaba condenando al sistema copernicano y se obliga a Galileo a presentarlo como hipótesis en lugar de como teoría, censura que él rechaza.

"Nunca he encontrado una persona tan ignorante de la que no pueda aprender algo"

Los siguientes años son menos prolíficos ya que cursa ciertas enfermedades que le dejan sin fuerzas para continuar con sus trabajos con la intensidad previa. Cuando se recupera sigue desarrollando investigaciones previas y recibe algunos ataques, pero por lo general vive una época algo más tranquila.


El detonante final bien puede ser la publicación de su Massimi sistemi en Florencia en 1632 , un diálogo avalado por el papa Urbano VIII en el que apoya con firmeza el sistema copernicano y critica con dureza, incluso con ironía y burla, el modelo ptolemaico. El propio Urbano VIII se sitúa en contra de Galileo, alegando que su encargo debía ser una visión objetiva de ambos modelos y no una parcialidad a favor del heliocentrismo. Por ello se le convoca frente al Santo Oficio donde se le amenaza con la tortura si no deja de "molestar" con sus teorías. Finalmente, el 22 de junio de 1633 se prohibe su obra y es condenado a prisión de por vida, sentencia que posteriormente Urbano VIII modificará a residencia de por vida. Además se le obliga a pronunciar la fórmula de abjuración que el Santo Oficio había preparado, aunque nunca llega a pronunciar el famoso Eppur si muove, cita que siempre se le ha atribuído como una rebelión frente a la injusticia que cometió la Iglesia.

Desde ese día hasta su muerte permanece retenido en su domicilio, donde a duras penas continua con algunas de sus obras, ya que llega a perder la vista en ambos ojos. Conocida su sentencia, ciertos científicos y filósofos europeos (como Descartes) se niegan a publicar sus obras por miedo a que la Iglesia les censure o les retenga de por vida como hizo con Galileo. El 8 de enero de 1642 fallece Galileo Galilei, a la edad de 78 años, en la ciudad de Arcetri.

Desgraciadamente hemos tenido que esperar a finales del siglo XX para que el papa Juan Pablo II se pronunciase sobre el asunto de Galileo, sucedido 300 años atrás (lo cual me atrevo a decir que tuvo que costarle un gran trabajo). Sorprende que no fue hasta 1981 cuando este papa abrió una comisión para el estudio de la controversia Ptolomeo-Copérnico. De todos modos sorprende aún más que tardase 10 años en reconocer los errores cometidos con Galileo, si es que se pueden llamar tan sólo errores. Falta mucho para que la siguiente cita del gran científico italiano sea comprendida y considerada por todos y cada uno de los seres humanos que mueven el planeta.

"El gran libro de la naturaleza está escrito en símbolos matemáticos"

sábado, 23 de febrero de 2008

Efecto Doppler

El efecto Doppler es algo que todos experimentamos a diario pero muy pocos conocen. Formalmente, el efecto Doppler es la variación de la longitud de onda de cualquier tipo de onda emitida por un dispositivo que se desplace. Para que se entienda desde un principio recurriré al ejemplo de la ambulancia. Al cruzarse con una ambulancia que se desplaza hacia nosotros en la misma dirección pero en sentido opuesto y a una velocidad muy elevada (obviamente con la sirena emitiendo el sonido característico) a medida que se acerca escuchamos el sonido más agudo y en el momento en que nos alcanza experimentamos una deformación del sonido que deriva hacia un tono más grave al alejarse.

El efecto se produce cuando o la fuente emisora o el receptor se encuentran en movimiento (o ambos a la vez pero con desplazamientos distintos al menos en velocidad). Al acercarse o alejarse de la fuente emisora la frecuencia se modifica y provoca que oigamos el sonido con diferente tono. Este efecto lo propuso por primera vez Christian Andreas Doppler en 1842, en un trabajo titulado "Sobre el color de la luz en estrellas binarias y otros astros", y es que el efecto Doppler no sólo se produce en ondas sonoras, sino en cualquier tipo de onda (incluyendo a las electromagnéticas del espectro visible). La hipótesis del efecto Doppler en ondas sonoras la confirmó Christoph Hendrik Diederik Buys Ballot en 1845 y en ondas electromagnéticas Hippolyte Fizeau en 1848.

Este efecto bastante curioso tiene gran número de aplicaciones basado en el estudio de ondas. Un dispositivo muy conocido que utiliza el efecto Doppler es el Radar, aparato que emite las ondas hacia un objeto y las recibe rebotadas, calculando su distancia por el tiempo que tardan en llegar dichas ondas desde que son emitidas. Si el objeto a medir se encuentra en movimiento se producirá una variación en la frecuencia de llegada de las ondas al radar y se podrá calcular la velocidad a la que el objeto se desplaza (así es como funcionan los equipos de radar de tráfico). Lo mismo sucede con el Sonar de barcos y otros dispositivos de medición más complejos.

En medicina se utiliza el efecto Doppler en algunos diagnósitos por ultrasonidos. Las ecografías realizadas con este principio sirven para medir de forma no invasiva el flujo y la velocidad circulatoria en un vaso u órgano. Además mediante ordenador se puede asignar el color azul para flujos que se acercan y el rojo para flujos que se alejan, obteniendo una imagen más precisa que en la técnica normal.

En lo que respecta al espectro visible, el efecto Doppler de las ondas electromagnéticas emitidas por una gran variedad y cantidad de objetos astronómicos indica que el universo está en expansión. Abunda el denominado "corrimiento al rojo" del espectro de emisión del objeto a analizar respecto a alguno de composición similar tomado como referencia (que se encuentre en reposo relativo respecto a la Tierra). El hecho de que un gran porcentaje de objetos se desplace hacia el rojo implica que el universo se encuentra teóricamente en expansión. De todos modos, según la teoría de la Relatividad, el efecto Doppler de la luz presenta ciertas discrepancias respecto al efecto en el sonido, ya que la velocidad de la luz es constante y la del sonido no.

Como anécdota o hecho curioso cabe destacar la sonoridad de los aviones que viajan a la velocidad del sonido. Debido a que el avión y el frente de ondas viajan a la misma velocidad no se escucha sonido por delante y sí por detras. Además aquí existe una relación importante con las ondas de choque, más conocidas como ondas de Mach, de las que hablaré en otra ocasión. Por último, para quien aún tenga dudas que recuerde este comentario irónico que se suele hacer: "De noche, las luces de los coches que se acercan son blancas mientras que al alejarse se ven rojas" :)

lunes, 18 de febrero de 2008

Organismos modelo

Una de las preguntas que se hace la gente con relativa frecuencia es por qué se destina tanto tiempo y dinero a experimentación animal y no se llevan a cabo los progresos directamente en el hombre. Una de las respuestas obvias es que experimentar con el hombre puede llevar a grandes problemas éticos, tema que no pretendo discutir aquí. La otra respuesta no tan obvia y que mucha gente desconoce es que gracias a la experimentación con animales podemos desarrollar trabajos extrapolables al hombre con un mínimo de seguridad, evitando así desastres médicos y muertes innecesarias. Pero, ¿hasta que punto podemos equipararnos a un ratón de laboratorio? ¿por qué se hacen simulacros y ensayos clínicos en conejos?. (El artículo más extenso y riguroso continúa aquí).

La verdad es que a lo largo de la historia de la biología se han ido estudiando más a fondo ciertos organismos que, debido a sus características, se han convertido en modelos a partir de los cuales se puede obtener una gran cantidad de información. No estoy hablando de nada extraño, todos conocemos el típico ratón de laboratorio, la mosca de la fruta y la bacteria E. coli como objetos de estudio o herramientas habituales en investigaciones médicas y biológicas. En efecto estos tres son de los más usados, pero existen algunos más. El ratón común es muy útil para simular enfermedades ya que, aunque su apariencia física difiera en alto grado de la nuestra, genéticamente nos parecemos en un 99%, por lo que muchos de los estudios realizados sobre ratón son "fácilmente" aplicables al hombre. Con la mosca de la fruta (la famosa Drosophila melanogaster) tenemos, a muy grandes rasgos, una similitud relativa del 70%, por lo que se pueden experimentar ciertos fármacos en ella.

En el mundo microscópico es ampliamente usada la bacteria E. coli y la levadura del pan y la cerveza (S. cerevisiae), que actúan muy bien como modelos celulares de procariotas y eucariotas respectivamente. En plantas también se ha encontrado un modelo bastante óptimo hacia el que dirigir los estudios pero, sin duda alguna, uno de los organismos más útiles ha sido el nemátodo Caenorhabditis elegans, un gusano compuesto por 959 en su forma adulta que se rige por unos patrones de proliferación y suicidio celular muy bien controlados.

Gracias a los trabajos realizados sobre estos organismos y sobre algunos más se han dado grandes pasos en áreas como biología molecular, genética e incluso medicina. Induciendo enfermedades a mamíferos similares al hombre podemos estudiar más a fondo sus mecanismos de acción y probar diversos fármacos que en el hombre no podríamos realizar tan a la ligera (con esto no quiero decir que la experimentación animal se haga a la ligera ya que requiere la aprobación de un comité ético, pero obviamente no es lo mismo una muerte humana que en un ratón).

Al que le interese conocer un poco más de cada organismo modelo típico le recomiendo que lea el link marcado arriba ya que contiene información más precisa y no simple y llana divulgación básica.


viernes, 15 de febrero de 2008

Catálogo Messier

Pese a que los cometas se desplazan a velocidades vertiginosas por el firmamento muchas veces aparentan estar fijos e inmóviles. El tiempo que tarda un cometa en cruzar de punta a punta el cielo visible desde la Tierra puede durar desde días o semanas hasta varios meses, lo que provoca que durante las observaciones parezcan puntos sin movimiento. Además, no siempre presentan la cola característica con que se identifican en muchas ilustraciones, sino que más bien se observan como puntos difusos entre las estrellas. Por ello pueden confundirse con otros objetos con características visuales similares, a saber, nebulosas, galaxias o cúmulos estelares.

El astrónomo francés Charles Messier era un cazador de cometas, de los pocos que ha habido en la historia de la astronomía (y todavía hoy escasean, aunque su número se ha visto aumentado en los últimos años). Su principal problema era poder distinguir los cometas de los objetos mencionados anteriormente, los cuales no varían su posición a lo largo del tiempo (o al menos aparentan no moverse en el breve periodo en que nos mantenemos con vida). De esta forma se puso a catalogar los objetos fijos con características visuales parecidas a las de los cometas errantes que aparecían cada cierto tiempo, pudiendo así diferenciar un caso de otro. Su obra se publicó en 1774 bajo el simple título de Catalogue des Nébuleuses & des amas d'Étoiles, que l'on découvre parmi les Étoiles fixes sur l'horizon de Paris.

Dicho catálogo inicial contenía 45 objetos, desde M1 hasta M45, siendo la M la inicial de Messier. Estos objetos pertenecen exclusivamente al hemisferio norte, ya que Messier efectuaba sus observaciones en Francia. Se dice que el primer objeto que observó fue la nebulosa del cangrejo (catalogada obviamente como M1) mientras que intentaba localizar el cometa Halley que estaba de paso. Apuntó su localización para no confundirse en sucesivos días y a partir de ahí fue desarrollando el resto del catálogo. Tras los 45 objetos iniciales se fueron añadiendo más hasta llegar a los 110 que componen el Catálogo Messier definitivo, publicado en 1781.

No deja de sorprender que fuese capaz de observar (que no siempre descubrir) 45 objetos utilizando telescopios de baja calidad. Se servía de refractores con medidas bastante modestas y calidades ópticas que dejaban mucho que desear, pero disponía de unos cielos desgraciadamente casi inaccesibles en la actualidad. Así pues, lo que perdía en calidad del instrumental lo ganaba en limpieza de cielo y oscuridad, llegando a observar objetos con magnitudes mayores de 6.00.

Para finalizar, a modo de anécdota, cabe destacar que desde hace unas pocas décadas se realizan los denominados "maratones Messier", en los que en una sóla noche se intenta localizar el máximo número posible de objetos Messier (del catálogo actual, con 110 objetos). Se suele realizar a finales de marzo, cerca del equinoccio de primavera y aprovechando la Luna nueva, optimizando así la cantidad de objetos accesibles y la calidad de la observación. De momento he visto tres, M5, M42 y M101, pero espero poder realizar algún día el maratón completo.

sábado, 9 de febrero de 2008

Predicción climatológica numérica

Desde que empecé a dedicarme a esto de la astronomía como aficionado no he tenido más remedio que fijarme en el estudio de la climatología. Más de un día de cielos despejados me he desplazado a algún lugar específico o he montado el equipo en casa para que en cuestión de 5 minutos se cubriese todo de nubes y tuviese que desistir. Es más desesperante ver que en cuanto recoges el equipo y regresas a casa se vuelve a despejar, pero por no volver...

Además de la cantidad y densidad de nubes también influyen, principalmente, el viento, la humedad y la temperatura. Hay otros factores importantes que afectan al seeing, pero para el modesto instrumental que manejo actualmente (los Celestron 15x70) los que he mencionado son los más importantes. El seeing es el término con el que se denomina a la visibilidad existente en función del estado de la atmósfera y sus turbulencias. Un cielo despejado no siempre es el idóneo para realizar observaciones mientras que un cielo ligeramente nublado puede ofrecer mejor visibilidad por proteger de las heladas u otros factores influyentes.

Al iniciarse en la astronomía sólo se piensa en encontrar un cielo despejado para poder observar durante horas, y cuando se encuentra puede uno llevarse la sorpresa de que las lentes se empañen, que haya excesiva condensación, que el viento genere demasiadas vibraciones en la imagen o que la irradiación de calor desde el suelo y paredes provoque turbulencias y ondulaciones en la visión. Así pues, se hace prácticamente imprescindible el uso de alguna herramienta de medición. Y no sólo de medición, sino también de predicción.

Cuando se hace una salida ocasional para realizar alguna observación es importante llevarse algún instrumento de medición básico que ofrezca el estado atmosférico en el momento. De esta forma se puede elegir una ubicación mejor, saber el tiempo que vas a poder estar observando, etcétera. El problema surge cuando se intenta planear alguna salida astronómica puntual para un día concreto, ya que ahí se requiere cierta predicción climatológica. No es del agrado de nadie preparar una salida en tres o cuatro días y que al final acabe lloviendo, por lo que la observación del clima durante esos días es fundamental. Muchos sistemas de predicción se basan en las observaciones climáticas de días previos y tratan de deducir el tiempo que hará al día siguiente, pero poco más, y aún así tienen fallos.

Sin lugar a dudas una muy buena opción es la predicción numérica de la climatología, basándose en modelizaciones de sistemas dinámicos. Esto no es nuevo ya que, en 1904, el científico noruego Vilhelm Bjerknes propuso siete ecuaciones en derivadas parciales (usando el Cálculo Diferencial, una rama de las matemáticas sobre la que ya escribiré algo) con siete incógnitas variables, a saber, las tres componentes de dirección del viento, la presión, la densidad, la temperatura y la humedad específica. Su resolución es tan compleja que el modelo no ha podido ponerse a prueba hasta el inicio de la era informática moderna. En 1963, Edward Lorenz obtuvo un sistema no lineal a partir del cual se dedujo, a grandes rasgos, que la dinámica del clima presenta un caracter caótico, que hace imposible realizar predicciones con más de dos semanas de adelanto (para enteder un poco mejor lo que es la Teoría del Caos recomiendo leer este artículo). Si bien a partir de 5 ó 6 días la fiabilidad de las predicciones decae, durante ese tiempo los resultados obtenidos son muy acertados.

Actualmente hay algunas aplicaciones informáticas que se nutren de los datos recopilados por varias estaciones meteorológicas mundiales y, aplicando el modelo matemático, ofrecen una predicción muy completa sobre la climatología de la primera semana (aunque es recomendable fiarse únicamente de los 4 o 5 primeros días). El servicio que yo uso es el myMap Server que ofrece Meteoblue, una aplicación en fase de prueba muy eficiente y muy completa. Llevo un mes utilizándolo y no acostumbra a fallar (de hecho aún no ha fallado, habiendo desde días soleados hasta días lluviosos o nublados). Para acceder al myMap Server tienes que hacer una cuenta que tiene un periodo útil de 30 días. Tras los 30 días te piden una reactivación, borrando así las cuentas creadas inactivas del servidor. El servicio es totalmente gratuito y abarca prácticamente la totalidad mundial, salvo algunas latitudes o lugares limítrofes de los mapas y demás, donde o la predicción está alterada por falta de datos o son zonas donde el sistema aún no trabaja (en España funciona en su totalidad). Su manejo es fácil e intuitivo, tan sólo hay que tener en cuenta que se rige por el UTC, y nosotros en invierno estamos en el UTC+1 (en verano UTC+2). Por último, decir que las imágenes de esta entrada están hechas con esta aplicación.

miércoles, 6 de febrero de 2008

Evaluaciones pésimas

Ahora que me encuentro en la típica época de exámenes me vienen a la mente ciertas reflexiones acerca de las evaluaciones que siempre he querido reunir en un texto, por lo que aprovecharé para desahogarme escribiendo aquí dichas opiniones.

La educación se puede dividir en dos componentes, por un lado la enseñanza y por otro lado la evaluación. Ambas partes se pueden considerar totalmente independientes la una de la otra o puede observarse cierta correlación, pero lo que es conocido por todos es que una buena enseñanza no garantiza una buena evaluación y una buena evaluación no conlleva que se haya conseguido una buena enseñanza. Muchos son los profesores que imparten unas clases totalmente pésimas con exámenes finales de quitarse el sombrero pero abundan los docentes que imparten unas clases maravillosas y no son capaces de evaluar con rigurosidad. Sobre qué es preferible para el alumno... personalmente prefiero al profesor inepto dando clase pero justo y correcto a la hora de realizar una evaluación, pero esto lo aclararé al final del artículo.

Actualmente el sistema universitario se basa en una estructura cuatrimestral, estructura que criticaré otro día ya que ofrece tema para hablar largo y tendido. La evaluación predominante de estas asignaturas se basa en la realización de exámenes, sistema con el que muchos innovadores no están de acuerdo ya que abogan por una evaluación contínua. Este es otro tema que, debido a la entrada del plan de Bolonia, tendré ocasión de criticar.

Desde el punto de vista de muchos profesores y alumnos, grupo en el que me incluyo, los exámenes son la mejor forma de conocer si una persona presenta el nivel mínimo exigido para aprobar una asignatura. Tras el estudio de la materia la mejor forma de demostrar que ésta se domina es respondiendo a diversas preguntas que, formuladas aleatoriamente, abarquen la mayor parte posible del temario. Así pues, un examen homogéneo, coherente y riguroso puede dar una visión bastante real del nivel del estudiante. Pero los exámenes de este tipo tristemente escasean, y muchos profesores se decantan por realizar evaluaciones pésimas que pueden dar resultados muy dispares. Esto se consigue gracias a la gran variedad de modelos de examen que existen en la actualidad.

Uno de los modelos pésimos más socorridos en asignaturas teóricas densas es aquel en el que se plantean 2 ó 3 preguntas a desarrollar, necesitándose aproximadamente una hora para redactar cada pregunta. Las ventajas de estos exámenes es que su corrección se hace sencilla por basarse en lecturas por encima mientras que los inconvenientes surgen cuando al corregir a la ligera se supone que el alumno no dice lo que debería decir. Abundan los casos de suspensos que tras una corrección más detallada han llegado a sobrepasar el notable. Y no sólo eso, sino que más vale rezar para que controles las 2 o 3 preguntas a la perfección ya que como falles en alguna la probabilidad de no llegar al 5 es muy elevada.

Luego tenemos el caso opuesto, una gran cantidad de preguntas cortas con una puntuación individual muy baja. En este caso el alumno puede estar más tranquilo porque no saberse alguna pregunta no repercute seriamente en la nota final, pero tampoco repercute el saberse alguna a la perfección. De todos modos es un modelo que agrada bastante y que yo en parte defiendo, pero sólo en parte. Por lo general la desilusión llega cuando te restringen el espacio de respuesta. Ya que se trata de cuestiones cortas te dejan un espacio muy reducido entre pregunta y pregunta para que escribas la respuesta, y es ahí cuando te das cuenta de que una "respuesta corta" también requiere cierto desarrollo y deja de ser "corta". Tras las insistencias del profesorado de que el alumno debe ceñirse a los márgenes que se le han dado y que toda línea que sobrepase el límite no será leída, se tiende a reducir la letra lo máximo posible, hecho que en la corrección sirve de excusa para no calificar con la máxima puntuación cada pregunta. En casos extremos tienes que escuchar la famosa frase de "no tienes la máxima puntuación porque te falta por decir esto y lo otro y lo de mas allá", ante lo cual piensas "¿y dónde lo escribo?¿en el canto del folio?".

Puestos a hablar de exámenes de desarrollo teórico, hay un modelo de examen que nunca hubiera llegado a imaginar. Con 15 ó 20 días de antelación te dan un tema versátil a desarrollar, lo preparas y el día del examen lo escribes en folios sellados (para que no lo lleves preparado de casa, que irónico...). Ventajas del modelo: el alumno tiene que conocer la asignatura bastante bien para desarrollar un trabajo en ese espacio de tiempo. Inconvenientes: todos... El alumno puede no haber hecho su trabajo, el alumno puede haberlo memorizado sin más y el profesor tiene que leer un gran número de exámenes distintos, ya que cada alumno hace la exposición con total libertad. El criterio de corrección es totalmente subjetivo, y por tanto la evaluación resultante carecerá de criterio.

Por otro lado están los exámenes tipo test, uno de los sistemas más útiles para comprobar si un alumno tiene conocimientos generales y profundos de una materia. Hay varios tipos, a saber, el típico de verdadero o falso, el de respuesta única, el de respuesta múltiple, el de rellenar huecos en frases con una o dos palabras ( si es que se le puede considerar a eso un test), etcétera. Bueno, de ahí se puede sacar una evaluación más o menos rigurosa y objetiva, pero... ¿qué pasa cuando empiezan a modificar los modelos básicos? Te puedes encontrar de todo. En algunos casos tienes que acertar un número predeterminado de preguntas para que empiecen a corregirte (por ejemplo, de 100 preguntas tienes que acertar 50 para que empiecen a sumarte el resto de aciertos), o el modelo tan lamentablemente famoso en el que 1 ó 2 preguntas erróneas restan el equivalente en puntos a una pregunta bien contestada (además de obviamente no sumar por estar mal te penalizan por ello, suspendiendo exámenes con resultados de 15/20 o similares). La puntuación en test de respuesta múltiple no la analizo porque realmente no he llegado a entenderla... yo hago el examen y que me califiquen como más les guste.

Si el grado de desesperación ya es demasiado elevado al ver cualquiera de estos modelos de examen sobre la mesa la frustración aumenta considerablemente al presentársenos una combinación de modelos. Se tiende a realizar el modelo de "test+preguntas cortas", multiplicando por tanto los problemas (uno de puntuación del test y otro de falta de espacio para responder con cierto nivel). También hay casos de "test+preguntas largas" y de "preguntas cortas+preguntas largas".

Si además de teoría hay que realizar problemas la cosa se complica aún más. Por lo general hay que aprobar teoría y problemas por separado, lo que implica que las 2 preguntas de teoría hay que saberselas a la perfección y que los 2 problemas hay que sacarlos sin un fallo para poder optar a algo decente. Como un problema no te salga bien... olvídate del aprobado, por muy bien que tengas todo lo demás. Lo de separar un examen por partes y obligar a aprobarlas con independencia no tiene demasiada lógica, ya que muchos problemas no se pueden realizar sin conocer la teoría. Para solucionar el que la gente apruebe sólo sabiendo teoría se pueden utilizar 3 puntos de los 10 totales para teoría y los 7 restantes para problemas, asegurándose así de que al menos algún problema se ha resuelto bien.

Por último, una crítica a los ejercicios y problemas con varios apartados. ¿Por qué esa manía de hacer que el resultado de un apartado derive necesariamente del resultado del apartado anterior? Puedes conocer a la perfección el prodecimiento a seguir en un problema para resolver todos sus pasos, pero, si se introduce algún error numérico o conceptual en algún apartado inicial, será imposible resolver los demás. De esta forma disminuyen las probabilidades de aprobar, aún conociendo la materia lo suficiente como para sobrepasar el 5.

Seguro que hay más modelos desastrosos de evaluación por examen, pero he querido plasmar los más habituales. ¿Tanto trabajo cuesta hacer un examen homogéneo? ¿Por qué no 10 preguntas a 1 punto por pregunta? ¿Por qué no tiempo y espacio ilimitado? Con modelos simples se puede llegar a un diseño muy objetivo y fiable. De nada sirve que un profesor brillante en sus seminarios no tenga la capacidad para evaluar a sus alumnos con rigurosidad. Por eso, si me dan a elegir entre un profesor que ponga buenos exámenes o uno que de buenas clases me decanto por el primero. De la enseñanza por un tercero se puede prescindir... de la evaluación no.