viernes, 29 de febrero de 2008

Biografía: Galileo Galilei

Me gustaría inaugurar una sección de biografías periódicas y qué mejor manera de hacerlo que hablando del científico con el que inicié la escritura de este blog y cuyo título se le atribuye a modo de cita. Mi intención para las biografías no es aportar gran cantidad de fechas ni de hechos, únicamente quiero dar una visión general del indivíduo. Su realización es laboriosa y lleva cierto tiempo por lo que intentaré sacar una biografía cada dos semanas o así, aunque posiblemente no siempre lo cumpla. Espero que sea de vuestro agrado y que le pueda dar continuidad en el tiempo, ya que autores nunca faltan. Sin más preámbulos paso a relatar la biografía del científico que he elegido para encabezar la sección.

Galileo Galilei nace en Pisa el 15 de febrero de 1564 en el seno de una familia de la baja nobleza cuya fuente de ingresos era el comercio. En un principio Galileo obtuvo una educación religiosa y, aunque en 1581 inicia estudios de medicina y filosofía, acaba descubriendo que su verdadero interés se dirige hacia las matemáticas. Desde muy temprano Galileo se consideró seguidor de Pitágoras, Arquímedes y Platón, mientras que mostraba una gran disconformidad con el modelo aristotélico. Además cabe destacar que es en su época de estudiante cuando descubre la ley de isocronía de los péndulos, principio que le será muy útil para sus estudios posteriores de mecánica. Debido a las asperezas que genera con sus críticas al profesorado abandona los estudios sin haber conseguido el título, pero con ganas de dedicarse a la ciencia por su propia cuenta.

Los primeros trabajos que realiza versan sobre los centros de gravedad de diversos cuerpos sólidos, aunque continúa con sus estudios de oscilaciones pendulares. Además, descubre la cicloide (una curva muy útil en matemáticas) e inicia modestas investigaciones relacionadas con la caída de los cuerpos, llegando a escribir una primera obra sobre mecánica. En esta época ejerce también como profesor y catedrático en la universidad de Pisa, cobrando un sueldo bastante modesto y dando clases sobre el modelo ptolemaico con el que empezaba a estar en desacuerdo.

Posteriormente se dedica a dar clase de geometría, mecánica, astronomía y matemáticas en la Universidad de Padua, un lugar idóneo para desarrollar nuevas teorías ya que la Inquisición carecía de influencia en esa zona. En esta época muere su padre y Galileo mantiene a su familia dando clases particulares. Además, en el año 1599 conoce a Marina Gamba con la que, sin casarse ni vivir con ella, tiene tres hijos de los que cuidará tras la posterior separación. Más tarde, en 1604, descubre la ley del movimiento rectilíneo uniformemente acelerado, defiende que los proyectiles lanzados en el vacío siguen una trayectoria parabólica y se centra en el estudio de los imanes.

"En temas de ciencia, la autoridad de mil no vale ni la mitad que el razonamiento de uno"

Y llega 1609, el año de la invención del telescopio. Tras recibir noticias de un telescopio construido en Holanda, Galileo se dispone a construir uno propio sin apenas información, obteniendo un aparato que no deforma las imágenes y que supera en aumentos al holandés. A continuación construye otro que mejora al anterior y que presentará en Venecia, llamando la atención del Senado de esta ciudad, cuyos intereses eran de índole militar. Como pago le hacen fijo en Padua, mejorando por tanto la situación económica de Galileo. Durante muchos años se dedica a construir un gran número de telescopios, pero tan sólo un número muy reducido aporta la calidad suficiente como para utilizarse en astronomía. Galileo realiza observaciones lunares importantes que le llevan a reafirmar su opinión contra el modelo aristotélico, observa la Vía Lactea y determina ciertos cúmulos estelares, pero sin duda su observación más reconocida es la de los cuatro satélites de Júpiter, conocidos en la actualidad como satélites galileanos, a los que utiliza para apoyar ciertas ideas de la estructura copernicana en detrimento del modelo aristotélico. Cabe destacar que contaría con la colaboración de Kepler en el asunto de Júpiter y sus satélites. Posteriormente se traslada a la Universidad de Pisa donde tiene un puesto privilegiado que le permite compaginar clases con observaciones, llegando a atisbar los anillos de Saturno, las manchas solares y las fases de venus (utilizándolas para reforzar el heliocentrismo). Poco a poco Galileo va aumentando su popularidad, llegando al máximo cuando el jesuita Christopher Clavius y su grupo confirman sus cálculos.

Defender el heliocentrismo mediante la "simple" observación y rechazar los argumentos de autoridad de los aristotélicos en aquella época era algo notablemente peligroso. Galileo empieza a sufrir ataques de los geocentristas y, como viene siendo costumbre desde hace varios siglos, la iglesia se entrometerse debido a que en la Biblia (que escribo con mayúscula por obligación de la RAE) se hace referencia al geocentrismo. Al principio eran ataques aislados pero pronto se intensifican y se dirigen contra la mayoría de sus teorías, llegando a un punto muy tenso en el que interviene el cardenal Berlarmino, organizando una inspección por parte de la Inquisición (que también debo escribir con mayúscula por obligación de la RAE). Tras una lucha intensa se acaba condenando al sistema copernicano y se obliga a Galileo a presentarlo como hipótesis en lugar de como teoría, censura que él rechaza.

"Nunca he encontrado una persona tan ignorante de la que no pueda aprender algo"

Los siguientes años son menos prolíficos ya que cursa ciertas enfermedades que le dejan sin fuerzas para continuar con sus trabajos con la intensidad previa. Cuando se recupera sigue desarrollando investigaciones previas y recibe algunos ataques, pero por lo general vive una época algo más tranquila.


El detonante final bien puede ser la publicación de su Massimi sistemi en Florencia en 1632 , un diálogo avalado por el papa Urbano VIII en el que apoya con firmeza el sistema copernicano y critica con dureza, incluso con ironía y burla, el modelo ptolemaico. El propio Urbano VIII se sitúa en contra de Galileo, alegando que su encargo debía ser una visión objetiva de ambos modelos y no una parcialidad a favor del heliocentrismo. Por ello se le convoca frente al Santo Oficio donde se le amenaza con la tortura si no deja de "molestar" con sus teorías. Finalmente, el 22 de junio de 1633 se prohibe su obra y es condenado a prisión de por vida, sentencia que posteriormente Urbano VIII modificará a residencia de por vida. Además se le obliga a pronunciar la fórmula de abjuración que el Santo Oficio había preparado, aunque nunca llega a pronunciar el famoso Eppur si muove, cita que siempre se le ha atribuído como una rebelión frente a la injusticia que cometió la Iglesia.

Desde ese día hasta su muerte permanece retenido en su domicilio, donde a duras penas continua con algunas de sus obras, ya que llega a perder la vista en ambos ojos. Conocida su sentencia, ciertos científicos y filósofos europeos (como Descartes) se niegan a publicar sus obras por miedo a que la Iglesia les censure o les retenga de por vida como hizo con Galileo. El 8 de enero de 1642 fallece Galileo Galilei, a la edad de 78 años, en la ciudad de Arcetri.

Desgraciadamente hemos tenido que esperar a finales del siglo XX para que el papa Juan Pablo II se pronunciase sobre el asunto de Galileo, sucedido 300 años atrás (lo cual me atrevo a decir que tuvo que costarle un gran trabajo). Sorprende que no fue hasta 1981 cuando este papa abrió una comisión para el estudio de la controversia Ptolomeo-Copérnico. De todos modos sorprende aún más que tardase 10 años en reconocer los errores cometidos con Galileo, si es que se pueden llamar tan sólo errores. Falta mucho para que la siguiente cita del gran científico italiano sea comprendida y considerada por todos y cada uno de los seres humanos que mueven el planeta.

"El gran libro de la naturaleza está escrito en símbolos matemáticos"

sábado, 23 de febrero de 2008

Efecto Doppler

El efecto Doppler es algo que todos experimentamos a diario pero muy pocos conocen. Formalmente, el efecto Doppler es la variación de la longitud de onda de cualquier tipo de onda emitida por un dispositivo que se desplace. Para que se entienda desde un principio recurriré al ejemplo de la ambulancia. Al cruzarse con una ambulancia que se desplaza hacia nosotros en la misma dirección pero en sentido opuesto y a una velocidad muy elevada (obviamente con la sirena emitiendo el sonido característico) a medida que se acerca escuchamos el sonido más agudo y en el momento en que nos alcanza experimentamos una deformación del sonido que deriva hacia un tono más grave al alejarse.

El efecto se produce cuando o la fuente emisora o el receptor se encuentran en movimiento (o ambos a la vez pero con desplazamientos distintos al menos en velocidad). Al acercarse o alejarse de la fuente emisora la frecuencia se modifica y provoca que oigamos el sonido con diferente tono. Este efecto lo propuso por primera vez Christian Andreas Doppler en 1842, en un trabajo titulado "Sobre el color de la luz en estrellas binarias y otros astros", y es que el efecto Doppler no sólo se produce en ondas sonoras, sino en cualquier tipo de onda (incluyendo a las electromagnéticas del espectro visible). La hipótesis del efecto Doppler en ondas sonoras la confirmó Christoph Hendrik Diederik Buys Ballot en 1845 y en ondas electromagnéticas Hippolyte Fizeau en 1848.

Este efecto bastante curioso tiene gran número de aplicaciones basado en el estudio de ondas. Un dispositivo muy conocido que utiliza el efecto Doppler es el Radar, aparato que emite las ondas hacia un objeto y las recibe rebotadas, calculando su distancia por el tiempo que tardan en llegar dichas ondas desde que son emitidas. Si el objeto a medir se encuentra en movimiento se producirá una variación en la frecuencia de llegada de las ondas al radar y se podrá calcular la velocidad a la que el objeto se desplaza (así es como funcionan los equipos de radar de tráfico). Lo mismo sucede con el Sonar de barcos y otros dispositivos de medición más complejos.

En medicina se utiliza el efecto Doppler en algunos diagnósitos por ultrasonidos. Las ecografías realizadas con este principio sirven para medir de forma no invasiva el flujo y la velocidad circulatoria en un vaso u órgano. Además mediante ordenador se puede asignar el color azul para flujos que se acercan y el rojo para flujos que se alejan, obteniendo una imagen más precisa que en la técnica normal.

En lo que respecta al espectro visible, el efecto Doppler de las ondas electromagnéticas emitidas por una gran variedad y cantidad de objetos astronómicos indica que el universo está en expansión. Abunda el denominado "corrimiento al rojo" del espectro de emisión del objeto a analizar respecto a alguno de composición similar tomado como referencia (que se encuentre en reposo relativo respecto a la Tierra). El hecho de que un gran porcentaje de objetos se desplace hacia el rojo implica que el universo se encuentra teóricamente en expansión. De todos modos, según la teoría de la Relatividad, el efecto Doppler de la luz presenta ciertas discrepancias respecto al efecto en el sonido, ya que la velocidad de la luz es constante y la del sonido no.

Como anécdota o hecho curioso cabe destacar la sonoridad de los aviones que viajan a la velocidad del sonido. Debido a que el avión y el frente de ondas viajan a la misma velocidad no se escucha sonido por delante y sí por detras. Además aquí existe una relación importante con las ondas de choque, más conocidas como ondas de Mach, de las que hablaré en otra ocasión. Por último, para quien aún tenga dudas que recuerde este comentario irónico que se suele hacer: "De noche, las luces de los coches que se acercan son blancas mientras que al alejarse se ven rojas" :)

lunes, 18 de febrero de 2008

Organismos modelo

Una de las preguntas que se hace la gente con relativa frecuencia es por qué se destina tanto tiempo y dinero a experimentación animal y no se llevan a cabo los progresos directamente en el hombre. Una de las respuestas obvias es que experimentar con el hombre puede llevar a grandes problemas éticos, tema que no pretendo discutir aquí. La otra respuesta no tan obvia y que mucha gente desconoce es que gracias a la experimentación con animales podemos desarrollar trabajos extrapolables al hombre con un mínimo de seguridad, evitando así desastres médicos y muertes innecesarias. Pero, ¿hasta que punto podemos equipararnos a un ratón de laboratorio? ¿por qué se hacen simulacros y ensayos clínicos en conejos?. (El artículo más extenso y riguroso continúa aquí).

La verdad es que a lo largo de la historia de la biología se han ido estudiando más a fondo ciertos organismos que, debido a sus características, se han convertido en modelos a partir de los cuales se puede obtener una gran cantidad de información. No estoy hablando de nada extraño, todos conocemos el típico ratón de laboratorio, la mosca de la fruta y la bacteria E. coli como objetos de estudio o herramientas habituales en investigaciones médicas y biológicas. En efecto estos tres son de los más usados, pero existen algunos más. El ratón común es muy útil para simular enfermedades ya que, aunque su apariencia física difiera en alto grado de la nuestra, genéticamente nos parecemos en un 99%, por lo que muchos de los estudios realizados sobre ratón son "fácilmente" aplicables al hombre. Con la mosca de la fruta (la famosa Drosophila melanogaster) tenemos, a muy grandes rasgos, una similitud relativa del 70%, por lo que se pueden experimentar ciertos fármacos en ella.

En el mundo microscópico es ampliamente usada la bacteria E. coli y la levadura del pan y la cerveza (S. cerevisiae), que actúan muy bien como modelos celulares de procariotas y eucariotas respectivamente. En plantas también se ha encontrado un modelo bastante óptimo hacia el que dirigir los estudios pero, sin duda alguna, uno de los organismos más útiles ha sido el nemátodo Caenorhabditis elegans, un gusano compuesto por 959 en su forma adulta que se rige por unos patrones de proliferación y suicidio celular muy bien controlados.

Gracias a los trabajos realizados sobre estos organismos y sobre algunos más se han dado grandes pasos en áreas como biología molecular, genética e incluso medicina. Induciendo enfermedades a mamíferos similares al hombre podemos estudiar más a fondo sus mecanismos de acción y probar diversos fármacos que en el hombre no podríamos realizar tan a la ligera (con esto no quiero decir que la experimentación animal se haga a la ligera ya que requiere la aprobación de un comité ético, pero obviamente no es lo mismo una muerte humana que en un ratón).

Al que le interese conocer un poco más de cada organismo modelo típico le recomiendo que lea el link marcado arriba ya que contiene información más precisa y no simple y llana divulgación básica.


viernes, 15 de febrero de 2008

Catálogo Messier

Pese a que los cometas se desplazan a velocidades vertiginosas por el firmamento muchas veces aparentan estar fijos e inmóviles. El tiempo que tarda un cometa en cruzar de punta a punta el cielo visible desde la Tierra puede durar desde días o semanas hasta varios meses, lo que provoca que durante las observaciones parezcan puntos sin movimiento. Además, no siempre presentan la cola característica con que se identifican en muchas ilustraciones, sino que más bien se observan como puntos difusos entre las estrellas. Por ello pueden confundirse con otros objetos con características visuales similares, a saber, nebulosas, galaxias o cúmulos estelares.

El astrónomo francés Charles Messier era un cazador de cometas, de los pocos que ha habido en la historia de la astronomía (y todavía hoy escasean, aunque su número se ha visto aumentado en los últimos años). Su principal problema era poder distinguir los cometas de los objetos mencionados anteriormente, los cuales no varían su posición a lo largo del tiempo (o al menos aparentan no moverse en el breve periodo en que nos mantenemos con vida). De esta forma se puso a catalogar los objetos fijos con características visuales parecidas a las de los cometas errantes que aparecían cada cierto tiempo, pudiendo así diferenciar un caso de otro. Su obra se publicó en 1774 bajo el simple título de Catalogue des Nébuleuses & des amas d'Étoiles, que l'on découvre parmi les Étoiles fixes sur l'horizon de Paris.

Dicho catálogo inicial contenía 45 objetos, desde M1 hasta M45, siendo la M la inicial de Messier. Estos objetos pertenecen exclusivamente al hemisferio norte, ya que Messier efectuaba sus observaciones en Francia. Se dice que el primer objeto que observó fue la nebulosa del cangrejo (catalogada obviamente como M1) mientras que intentaba localizar el cometa Halley que estaba de paso. Apuntó su localización para no confundirse en sucesivos días y a partir de ahí fue desarrollando el resto del catálogo. Tras los 45 objetos iniciales se fueron añadiendo más hasta llegar a los 110 que componen el Catálogo Messier definitivo, publicado en 1781.

No deja de sorprender que fuese capaz de observar (que no siempre descubrir) 45 objetos utilizando telescopios de baja calidad. Se servía de refractores con medidas bastante modestas y calidades ópticas que dejaban mucho que desear, pero disponía de unos cielos desgraciadamente casi inaccesibles en la actualidad. Así pues, lo que perdía en calidad del instrumental lo ganaba en limpieza de cielo y oscuridad, llegando a observar objetos con magnitudes mayores de 6.00.

Para finalizar, a modo de anécdota, cabe destacar que desde hace unas pocas décadas se realizan los denominados "maratones Messier", en los que en una sóla noche se intenta localizar el máximo número posible de objetos Messier (del catálogo actual, con 110 objetos). Se suele realizar a finales de marzo, cerca del equinoccio de primavera y aprovechando la Luna nueva, optimizando así la cantidad de objetos accesibles y la calidad de la observación. De momento he visto tres, M5, M42 y M101, pero espero poder realizar algún día el maratón completo.

sábado, 9 de febrero de 2008

Predicción climatológica numérica

Desde que empecé a dedicarme a esto de la astronomía como aficionado no he tenido más remedio que fijarme en el estudio de la climatología. Más de un día de cielos despejados me he desplazado a algún lugar específico o he montado el equipo en casa para que en cuestión de 5 minutos se cubriese todo de nubes y tuviese que desistir. Es más desesperante ver que en cuanto recoges el equipo y regresas a casa se vuelve a despejar, pero por no volver...

Además de la cantidad y densidad de nubes también influyen, principalmente, el viento, la humedad y la temperatura. Hay otros factores importantes que afectan al seeing, pero para el modesto instrumental que manejo actualmente (los Celestron 15x70) los que he mencionado son los más importantes. El seeing es el término con el que se denomina a la visibilidad existente en función del estado de la atmósfera y sus turbulencias. Un cielo despejado no siempre es el idóneo para realizar observaciones mientras que un cielo ligeramente nublado puede ofrecer mejor visibilidad por proteger de las heladas u otros factores influyentes.

Al iniciarse en la astronomía sólo se piensa en encontrar un cielo despejado para poder observar durante horas, y cuando se encuentra puede uno llevarse la sorpresa de que las lentes se empañen, que haya excesiva condensación, que el viento genere demasiadas vibraciones en la imagen o que la irradiación de calor desde el suelo y paredes provoque turbulencias y ondulaciones en la visión. Así pues, se hace prácticamente imprescindible el uso de alguna herramienta de medición. Y no sólo de medición, sino también de predicción.

Cuando se hace una salida ocasional para realizar alguna observación es importante llevarse algún instrumento de medición básico que ofrezca el estado atmosférico en el momento. De esta forma se puede elegir una ubicación mejor, saber el tiempo que vas a poder estar observando, etcétera. El problema surge cuando se intenta planear alguna salida astronómica puntual para un día concreto, ya que ahí se requiere cierta predicción climatológica. No es del agrado de nadie preparar una salida en tres o cuatro días y que al final acabe lloviendo, por lo que la observación del clima durante esos días es fundamental. Muchos sistemas de predicción se basan en las observaciones climáticas de días previos y tratan de deducir el tiempo que hará al día siguiente, pero poco más, y aún así tienen fallos.

Sin lugar a dudas una muy buena opción es la predicción numérica de la climatología, basándose en modelizaciones de sistemas dinámicos. Esto no es nuevo ya que, en 1904, el científico noruego Vilhelm Bjerknes propuso siete ecuaciones en derivadas parciales (usando el Cálculo Diferencial, una rama de las matemáticas sobre la que ya escribiré algo) con siete incógnitas variables, a saber, las tres componentes de dirección del viento, la presión, la densidad, la temperatura y la humedad específica. Su resolución es tan compleja que el modelo no ha podido ponerse a prueba hasta el inicio de la era informática moderna. En 1963, Edward Lorenz obtuvo un sistema no lineal a partir del cual se dedujo, a grandes rasgos, que la dinámica del clima presenta un caracter caótico, que hace imposible realizar predicciones con más de dos semanas de adelanto (para enteder un poco mejor lo que es la Teoría del Caos recomiendo leer este artículo). Si bien a partir de 5 ó 6 días la fiabilidad de las predicciones decae, durante ese tiempo los resultados obtenidos son muy acertados.

Actualmente hay algunas aplicaciones informáticas que se nutren de los datos recopilados por varias estaciones meteorológicas mundiales y, aplicando el modelo matemático, ofrecen una predicción muy completa sobre la climatología de la primera semana (aunque es recomendable fiarse únicamente de los 4 o 5 primeros días). El servicio que yo uso es el myMap Server que ofrece Meteoblue, una aplicación en fase de prueba muy eficiente y muy completa. Llevo un mes utilizándolo y no acostumbra a fallar (de hecho aún no ha fallado, habiendo desde días soleados hasta días lluviosos o nublados). Para acceder al myMap Server tienes que hacer una cuenta que tiene un periodo útil de 30 días. Tras los 30 días te piden una reactivación, borrando así las cuentas creadas inactivas del servidor. El servicio es totalmente gratuito y abarca prácticamente la totalidad mundial, salvo algunas latitudes o lugares limítrofes de los mapas y demás, donde o la predicción está alterada por falta de datos o son zonas donde el sistema aún no trabaja (en España funciona en su totalidad). Su manejo es fácil e intuitivo, tan sólo hay que tener en cuenta que se rige por el UTC, y nosotros en invierno estamos en el UTC+1 (en verano UTC+2). Por último, decir que las imágenes de esta entrada están hechas con esta aplicación.

miércoles, 6 de febrero de 2008

Evaluaciones pésimas

Ahora que me encuentro en la típica época de exámenes me vienen a la mente ciertas reflexiones acerca de las evaluaciones que siempre he querido reunir en un texto, por lo que aprovecharé para desahogarme escribiendo aquí dichas opiniones.

La educación se puede dividir en dos componentes, por un lado la enseñanza y por otro lado la evaluación. Ambas partes se pueden considerar totalmente independientes la una de la otra o puede observarse cierta correlación, pero lo que es conocido por todos es que una buena enseñanza no garantiza una buena evaluación y una buena evaluación no conlleva que se haya conseguido una buena enseñanza. Muchos son los profesores que imparten unas clases totalmente pésimas con exámenes finales de quitarse el sombrero pero abundan los docentes que imparten unas clases maravillosas y no son capaces de evaluar con rigurosidad. Sobre qué es preferible para el alumno... personalmente prefiero al profesor inepto dando clase pero justo y correcto a la hora de realizar una evaluación, pero esto lo aclararé al final del artículo.

Actualmente el sistema universitario se basa en una estructura cuatrimestral, estructura que criticaré otro día ya que ofrece tema para hablar largo y tendido. La evaluación predominante de estas asignaturas se basa en la realización de exámenes, sistema con el que muchos innovadores no están de acuerdo ya que abogan por una evaluación contínua. Este es otro tema que, debido a la entrada del plan de Bolonia, tendré ocasión de criticar.

Desde el punto de vista de muchos profesores y alumnos, grupo en el que me incluyo, los exámenes son la mejor forma de conocer si una persona presenta el nivel mínimo exigido para aprobar una asignatura. Tras el estudio de la materia la mejor forma de demostrar que ésta se domina es respondiendo a diversas preguntas que, formuladas aleatoriamente, abarquen la mayor parte posible del temario. Así pues, un examen homogéneo, coherente y riguroso puede dar una visión bastante real del nivel del estudiante. Pero los exámenes de este tipo tristemente escasean, y muchos profesores se decantan por realizar evaluaciones pésimas que pueden dar resultados muy dispares. Esto se consigue gracias a la gran variedad de modelos de examen que existen en la actualidad.

Uno de los modelos pésimos más socorridos en asignaturas teóricas densas es aquel en el que se plantean 2 ó 3 preguntas a desarrollar, necesitándose aproximadamente una hora para redactar cada pregunta. Las ventajas de estos exámenes es que su corrección se hace sencilla por basarse en lecturas por encima mientras que los inconvenientes surgen cuando al corregir a la ligera se supone que el alumno no dice lo que debería decir. Abundan los casos de suspensos que tras una corrección más detallada han llegado a sobrepasar el notable. Y no sólo eso, sino que más vale rezar para que controles las 2 o 3 preguntas a la perfección ya que como falles en alguna la probabilidad de no llegar al 5 es muy elevada.

Luego tenemos el caso opuesto, una gran cantidad de preguntas cortas con una puntuación individual muy baja. En este caso el alumno puede estar más tranquilo porque no saberse alguna pregunta no repercute seriamente en la nota final, pero tampoco repercute el saberse alguna a la perfección. De todos modos es un modelo que agrada bastante y que yo en parte defiendo, pero sólo en parte. Por lo general la desilusión llega cuando te restringen el espacio de respuesta. Ya que se trata de cuestiones cortas te dejan un espacio muy reducido entre pregunta y pregunta para que escribas la respuesta, y es ahí cuando te das cuenta de que una "respuesta corta" también requiere cierto desarrollo y deja de ser "corta". Tras las insistencias del profesorado de que el alumno debe ceñirse a los márgenes que se le han dado y que toda línea que sobrepase el límite no será leída, se tiende a reducir la letra lo máximo posible, hecho que en la corrección sirve de excusa para no calificar con la máxima puntuación cada pregunta. En casos extremos tienes que escuchar la famosa frase de "no tienes la máxima puntuación porque te falta por decir esto y lo otro y lo de mas allá", ante lo cual piensas "¿y dónde lo escribo?¿en el canto del folio?".

Puestos a hablar de exámenes de desarrollo teórico, hay un modelo de examen que nunca hubiera llegado a imaginar. Con 15 ó 20 días de antelación te dan un tema versátil a desarrollar, lo preparas y el día del examen lo escribes en folios sellados (para que no lo lleves preparado de casa, que irónico...). Ventajas del modelo: el alumno tiene que conocer la asignatura bastante bien para desarrollar un trabajo en ese espacio de tiempo. Inconvenientes: todos... El alumno puede no haber hecho su trabajo, el alumno puede haberlo memorizado sin más y el profesor tiene que leer un gran número de exámenes distintos, ya que cada alumno hace la exposición con total libertad. El criterio de corrección es totalmente subjetivo, y por tanto la evaluación resultante carecerá de criterio.

Por otro lado están los exámenes tipo test, uno de los sistemas más útiles para comprobar si un alumno tiene conocimientos generales y profundos de una materia. Hay varios tipos, a saber, el típico de verdadero o falso, el de respuesta única, el de respuesta múltiple, el de rellenar huecos en frases con una o dos palabras ( si es que se le puede considerar a eso un test), etcétera. Bueno, de ahí se puede sacar una evaluación más o menos rigurosa y objetiva, pero... ¿qué pasa cuando empiezan a modificar los modelos básicos? Te puedes encontrar de todo. En algunos casos tienes que acertar un número predeterminado de preguntas para que empiecen a corregirte (por ejemplo, de 100 preguntas tienes que acertar 50 para que empiecen a sumarte el resto de aciertos), o el modelo tan lamentablemente famoso en el que 1 ó 2 preguntas erróneas restan el equivalente en puntos a una pregunta bien contestada (además de obviamente no sumar por estar mal te penalizan por ello, suspendiendo exámenes con resultados de 15/20 o similares). La puntuación en test de respuesta múltiple no la analizo porque realmente no he llegado a entenderla... yo hago el examen y que me califiquen como más les guste.

Si el grado de desesperación ya es demasiado elevado al ver cualquiera de estos modelos de examen sobre la mesa la frustración aumenta considerablemente al presentársenos una combinación de modelos. Se tiende a realizar el modelo de "test+preguntas cortas", multiplicando por tanto los problemas (uno de puntuación del test y otro de falta de espacio para responder con cierto nivel). También hay casos de "test+preguntas largas" y de "preguntas cortas+preguntas largas".

Si además de teoría hay que realizar problemas la cosa se complica aún más. Por lo general hay que aprobar teoría y problemas por separado, lo que implica que las 2 preguntas de teoría hay que saberselas a la perfección y que los 2 problemas hay que sacarlos sin un fallo para poder optar a algo decente. Como un problema no te salga bien... olvídate del aprobado, por muy bien que tengas todo lo demás. Lo de separar un examen por partes y obligar a aprobarlas con independencia no tiene demasiada lógica, ya que muchos problemas no se pueden realizar sin conocer la teoría. Para solucionar el que la gente apruebe sólo sabiendo teoría se pueden utilizar 3 puntos de los 10 totales para teoría y los 7 restantes para problemas, asegurándose así de que al menos algún problema se ha resuelto bien.

Por último, una crítica a los ejercicios y problemas con varios apartados. ¿Por qué esa manía de hacer que el resultado de un apartado derive necesariamente del resultado del apartado anterior? Puedes conocer a la perfección el prodecimiento a seguir en un problema para resolver todos sus pasos, pero, si se introduce algún error numérico o conceptual en algún apartado inicial, será imposible resolver los demás. De esta forma disminuyen las probabilidades de aprobar, aún conociendo la materia lo suficiente como para sobrepasar el 5.

Seguro que hay más modelos desastrosos de evaluación por examen, pero he querido plasmar los más habituales. ¿Tanto trabajo cuesta hacer un examen homogéneo? ¿Por qué no 10 preguntas a 1 punto por pregunta? ¿Por qué no tiempo y espacio ilimitado? Con modelos simples se puede llegar a un diseño muy objetivo y fiable. De nada sirve que un profesor brillante en sus seminarios no tenga la capacidad para evaluar a sus alumnos con rigurosidad. Por eso, si me dan a elegir entre un profesor que ponga buenos exámenes o uno que de buenas clases me decanto por el primero. De la enseñanza por un tercero se puede prescindir... de la evaluación no.

sábado, 2 de febrero de 2008

I Torneo de Ajedrez MiGUi 2008

Este fin de semana se ha iniciado el primer torneo de ajedrez del foro de MiGUi en este 2008 y, a diferencia de otros torneos disputados con anterioridad este se juega en una plataforma online llamada buho21. El ritmo de juego es a 20 minutos a finish por jugador, siguiendo el sistema suizo.

De momento nos hemos apuntado 8 personas a esta primera edición pero confiamos en que se pueda repetir en un futuro con más gente. De la primera ronda se han jugado ya 3 partidas y el nivel es bastante alto e igualado, por lo que se esperan grandes enfrentamientos. De hecho la 2ª partida ya ha hecho levantarse de la silla a más de uno.

Por si alguien está interesado en seguir el torneo dejo el link de la página personal de Nash, el organizador del torneo, que me ha permitido incluir aquí el enlace (muchas gracias). En su web se irán colgando las partidas en formato PGN y algunas capturas de pantalla de los momentos más interesantes.

Web de Nash con las partidas en PGN

Ya veremos cómo se desarrolla el torneo y si merece la pena realizar más ediciones. Por el momento las opiniones son muy buenas y se espera un desarrollo favorable.