LoginRSS 2.0 Feed

martes, 05 de febrero de 2008

Una mini-entrada para tres paquetes software que os pueden servir a la hora de aplicar técnicas de machine learning a la hora de realizar minería de datos sobre vuestros conjuntos de datos:

12:34 | gestionado por José María Fernández González | Enviar comentario (0)

Como algunos sabreis, la semana que viene se va a celebrar en Valencia las VIII Jornadas de Bioinformática, a las cuáles iba a asistir (como he hecho cada año). Sin embargo, este año me han coincidido con BioHackathon 2008, que se celebra este año en Tokio, Japón, a las que voy a asistir en representación del INB. Indagando en la red, me he enterado que este congreso se celebró por primera vez en 2002, siendo en Arizona (EEUU) la primera sesión y en Ciudad del Cabo (Sudáfrica) la segunda, lo cuál fue muy innovador para la fecha en la que se celebró.

Básicamente, BioHackathon es una reunión de desarrolladores de software, protocolos, ontologías y servicios bioinformáticos, enfocando la temática del congreso en distintas áreas según las necesidades. Este año BioHackathon está enfocado en el ámbito de web services desde cuatro perspectivas distintas, con sus propios objetivos:


  • Proveedores de web services: fomentar que los desarrolladores de servicios web usen estándares que faciliten la integración y la interoperatividad de sus servicios. Además, un objetivo principal es conseguir que haya un número mayor de servicios SOAP asociados a herramientas y bases de datos que no posean tal facilidad.
  • Desarrolladores que usan las librerías Open Bio*: que se pueda usar cada web service desde cualquiera de los 4 principales lenguajes de programación usados en bioinformática: Perl, Python, Ruby y Java. Además, otro objetivo principal es que se creen clases similares y compatibles en las librerías Open Bio* asociadas a todos los lenguajes mencionados, para el manejo de conceptos comunes como secuencias, arrays de expresión, rutas metabólicas, etc...
  • Desarrolladores de clientes o ejecutores de workflows bioinformáticos: que dichos clientes sean capaces de usar de forma transparente servicios en grid, web services, recursos remotos y locales, llamadas REST, conexiones síncronas y asíncronas, etc...
  • Desarrolladores del proyecto BioMOBY: que se produzca una estandarización de los objetos y métodos usados por los web services bioinformáticos mediante BioMOBY. Para ello, habrá que discutir la mejor solución para el marco de integración y las ontologías de ciencias de la vida a usar.
Por un lado, me da la impresión de que este congreso va a ser muy productivo, pero por otro, estoy viendo que el teclado de mi portátil va a echar literalmente "humo" durante una semana...

11:52 | gestionado por José María Fernández González | Enviar comentario (0)

lunes, 04 de febrero de 2008

Hace un mes me enteré de que estaba al caer el 20 aniversario de EMBnet, por un correo de J.R. Valverde a la lista de "bioinformatibéricos". Con motivo del 20 aniversario de su nacimiento, la comunidad de EMBnet está organizando una conferencia en Puglia (Italia), del 18 al 20 Septiembre de 2008. Al mismo tiempo, ha convocado un concurso abierto para cambiar el logotipo de la institución. Teneis hasta el 11 de Febrero para mandar vuestras propuestas de nuevo logotipo para EMBnet. En la página de EMBnet están disponibles tanto las bases como la página con las propuestas ya recibidas (pero sin acceso a los logos, para que no os copieis ;-)). Aunque ya conocía de antes EMBnet, me quise documentar un poco, y el siguiente párrafo, más o menos tomado de su página sobre el concurso de logotipos debido a su próximo 20 aniversario, explica qué es:




"EMBnet es un grupo colaborativo de nodos relacionados con ciencia, extendido por toda Europa, incluyendo además algunos grupos de fuera de ella. Cuando fue inaugurado en 1988, EMBnet comenzó con 11 nodos, en Alemania, España, Finlandia, Francia, Grecia, Italia, Noruega, Países Bajos, Reino Unido, Suiza y Suecia. A finales de 2007 EMBnet ya contaba con más de 30 nodos, y su experiencia combinada está permitiendo proveer servicios a la comunidad de biología molecular extendida por Europa que no podría proporcionar ningún nodo por separado (por ejemplo, creación de paquete software EMBOSS, mantenimiento coordinado de servicios y repositorios de bases de datos). En ese sentido, se puede decir que EMBnet es una de las principales organizaciones a nivel mundial coordinando las necesidades de l@s bioinformátic@s, con visos de extenderse hacia las necesidades que surgen del campo de la biomedicina."

Si la bioinformática os inspira de forma artística, aquí teneis la oportunidad de dar rienda suelta a vuestra creatividad con la excusa de crear un logo nuevo.

12:04 | gestionado por José María Fernández González | Enviar comentario (0)

viernes, 01 de febrero de 2008

Por David González me he enterado de que en Bioinformatics Zen salió publicada hace unos días una entrada bastante amena sobre los tipos de bioinformáticos que se pueden encontrar en el mundo de la investigación. La entrada fue estructurada usando el estilo de las guías de creación de perfiles para los juegos sociales como Los Sims, y fue llamada World of Bioinformatics Quest: Character Generation (WoBQ). Leyéndola, uno puede encontrar qué roles parecen ser más comunes en este mundillo, que habilidades son más apreciadas, etc...

Por ejemplo, la entrada cuenta que si "jugamos mucho" al WoBQ, nuestro personaje puede "adquirir" varias de las siguientes características:
  • Programación ágil: Adoptando técnicas de programación ágil, el personaje mejora su capacidad para escribir código reusable y flexible, mejorando así su capacidad de picar código.
  • R: Este lenguaje de software estadístico gratuíto tiene muchas funciones útiles para temas de estadísitca y minería de datos, así como una excelente biblioteca para generación de gráficas. La pericia en R mejora tu capacidad estadística.
  • Hardware de Apple: Bonitas fuentes tipográficas, y programas fáciles de usar como Keynote y Pages. Al igual que quien escribió esto, no me pagan por hacer propaganda (uso principalmente Linux), pero hay una razón de por qué los diseñadores gráficos usan Apple Macs. Aumenta las cualidades de presentación y escritura del personaje.
  • Buen Supervisor: Tener un buen supervisor para tu personaje que eduque y guíe su talente marca la diferencia en sus investigaciones, resultando en una capacidad aumentada de enfoque hacia la investigación.
  • Ciencia "de Libre Acceso": Hacer que las investigaciones del personaje sean de libre acceso permite que otros científicos adquieran conocimiento y nivel más rápido, lo cuál trae como contrapartida que los descubrientos y trabajos del personaje se difundan más. Un científico de libre acceso tiene una capacidad ampliada de colaboración con otros personajes.
  • Bebedor/borracho: Es difícil escribir código funcional mientras tu visión es borrosa y estás "mamado". Ocho pintas de brevaje especial seguidas de un pequeño bocadillo (en la versión original, kebab) da como resultado que tu personaje empeore su capacidad de programación.
  • Nada de estadística: Tu personaje entró en biología porque no era bueno en matemáticas. Ahora su falta de capacidad para diferenciar una distribución de Poisson del pescado fresco hace que disminuyan la capacidad estadística del personaje.
  • Bloguero/Blogger: ¿Por qué no está escribiendo tu personaje su paper? Porque está escribiendo una entrada de blog sobre juegos de rol en bioinformática - menor capacidad de presentación/escritura. (¿ein?)
  • Enamorad@: ¿Quién necesita la fría y dura ambición cuando estás por ahí en cenas románticas o besándote con tu pareja en el cine? El amor nunca llevó a nadie a algo en la ciencia - disminuye la capacidad para centrar tu personaje en sus investigaciones.
  • Mala Higiene: Tu personaje apesta, más que cuando una mofeta murió en el sistema del aire acondicionado. Nadie se quiere acercar a tu personaje, y lo dejan sentado solo - penalización en las habilidades de colaboración.
Si quereis sonreir un rato, os recomiendo que os leais la entrada. Y ahora que tenemos la guía, ¡"creemos" nuestros "personajes"!

Referencias:

11:41 | gestionado por José María Fernández González | Enviar comentario (0)

miércoles, 30 de enero de 2008

Hace un par de meses, con motivo de la VII Semana de la Ciencia de la Comunidad de Madrid, dio mi compañera de trabajo Ana Rojas una charla titulada "Del microscopio al ordenador: ¿Qué puede hacer la Bioinformática?", y que se encuentra disponible en la Mediateca de Madri+d. En su momento tuve la oportunidad de asistir a dicha charla, y me llevé una agradable sorpresa por la gran cantidad de chavales de instituto (sobre todo muchachas) interesados por la charla (casi se llenó por completo el auditorio del CNIO) ¡y estaban incluso tomando notas! Al enterarme de que habían grabado la charla y que la iban a poner accesible vía web me alegré mucho, porque fue muy, muy amena.

Así mismo, tuve la oportunidad de conocer una de las muchas injusticias que se ha producido en el mundo desde el principio de los tiempos. Está relacionado con el descubrimiento de la estructura del ADN, y con quién realizó realmente todo el trabajo. Aunque los más nombrados son siempre James D. Watson y Francis Crick, también hubo muchas personas por detrás trabajando en el proyecto, para que al final principalmente sólo ellos se llevaran los méritos y la fama.


Entre ellos estaba Rosalind Franklin, que fue quien realizó casi todos los experimentos con fotografías de rayos X para determinar la estructura del ADN, y al igual que Maurice Wilkins, no fue incluída entre los autores y sólo fue mencionada de pasada en los agradecimientos del artículo en Nature sobre la estructura del ADN. Mientras que Watson, Crick y Wilkins obtuvieron en 1962 por este trabajo el premio Nobel en Fisiología o Medicina, por toda la radiación absorbida durante la investigación Rosalind Franklin se 'llevó', entre otras enfermedades, un carcinoma en los ovarios, que terminó llevándola a la muerte en 1958. Sin sus fotografías no habría sido posible corroborar las hipótesis sobre la estructura del ADN.

Por último, aquí teneis la charla completa de Ana Rojas, muy recomendable, my educativa y muy instructiva:

11:36 | gestionado por José María Fernández González | Enviar comentario (5)

martes, 22 de enero de 2008

Entre los días 21 y 23 de Abril se va a celebrar en el CNIO, en Madrid, la reunión CASP 7.5. CASP (Critical Assessment of Techniques for Protein Structure Prediction) en sí es el experimento/competición oficial donde se prueban tanto las mejoras en los programas de predicción de estructura tridimensional y sus características, como el nivel de los grupos de investigación que participan/compiten a la hora de sacar partido de sus herramientas a la hora de predecir. El evento se celebra de forma bianual, y desde la 6ª edición se decidió celebrar entre CASP y CASP reuniones abiertas. Estas reuniones abiertas "punto 5" sirven para estar al día de los últimos avances en el campo de la predicción de estructuras, al estilo de CASP. Los detalles de la reunión, el horario y programa preliminares los podeis encontrar en el sitio web de CASP7.5.



A continuación os incluyo el anuncio original de CASP7.5, remitido por Michael Tress (uno de los organizadores):

CASP7.5 (the second between CASPs meeting) will be held at the Spanish
National Cancer Research Centre
in Madrid on April 21-23, 2008.

The 2008 between CASPs meetings will update the progress of structure
prediction as measured by CASP ahead of CASP8 in Sardinia, Italy. In
contrast to the full CASP meetings that are exclusively for participants
and developers, this meeting will be open to all interested scientists.

Assessors, predictors and related scientists will present their
perspectives on critical areas such as the state-of-the-art in structure
prediction, model refinement and function prediction, and the outlook
for CASP-like challenges in other areas of Biology.

Participants are invited to submit posters and a number of short talks
will be selected from among the presented posters.

Further details can be found here: http://bioinfo.cnio.es/casp75/.


CASP Organisers: John Moult, Krzysztof Fidelis, Andriy Kryshtafovych,
Burkhard Rost, Anna Tramontano
CASP 7.5 Organisers: Michael Tress and Alfonso Valencia

7:52 | gestionado por José María Fernández González | Enviar comentario (0)

martes, 15 de enero de 2008

Acaba de llegarme información por el lado de Ana Rojas sobre un sitio web relacionado con la bioinformática estructural. Se trata del C.A.M.E. (Center of Applied Molecular Engineering), donde hay disponible un catálogo interesante de servicios bioinformáticos. Entre ellos, el que más le llamó la atención a Ana fue el Fold Space navigator, que es una aplicación basada en Flash que te permite estudiar el espacio conocido de plegamientos de proteínas, y las interrelaciones existentes estos plegamientos por sus coocurrencias en estructuras. La aplicación usa la información proveniente de las bases de datos estructurales COPS, SCOP y CATH. La aplicación permite ver, mediante un identificador de PDB, toda la información que posee relacionada con esa entrada mediante el visor integrado en forma de árbol. Además, permite lanzar el servicio TopMatch de superposición de estructuras, para comparar las diferencias entre las estructuras mediante Jmol, y que proporciona información detallada a varios niveles.

Enlaces:

8:30 | gestionado por José María Fernández González | Enviar comentario (0)

lunes, 14 de enero de 2008

Hola a tod@s,
    estas últimas semanas el trabajo y las vacaciones me han impedido añadir nuevas entradas al blog. Tengo alguna noticia en la recamara, y espero en los próximos días colgarla en el blog. De mientras, aquí os dejo una muestra del lado más divertido (y tal vez, más comercial) de las ciencias de la vida: un grupo de personas asociadas a la compañía Bio-Rad, cantando las virtudes de la técnica PCR de laboratorio. Tal como cuenta la proia wikipedia española, la técnica de la PCR sirve, entre otras cosas, para obtener huellas genéticas, realizar tests de paternidad, diagnosticar enfermedades hereditarias, clonar genes, realizar experimentos de mutagénesis, analizar ADN fósil, realizar el genotipado de mutaciones específicas, identificar la especie a la que pertenece la muestra que se analiza o realizar un tipaje HLA.

Aquí está el enlace al video en cuestión:


14:41 | gestionado por José María Fernández González | Enviar comentario (2)

martes, 04 de diciembre de 2007

Hace casi 7 meses Daniel Salgado, un antiguo compañero de trabajo, me habló sobre Zotero pero no le presté mucha atención. Tuvieron que pasar esos meses para volver a redescubrirlo (es triste, pero cierto), y usarlo de forma intensiva.

Zotero es una extensión para Mozilla Firefox 2.0.x,  que permite recopilar y gestionar información bibliográfica. Básicamente, la extensión está preparada para extraer información de las principales fuentes web de información bibliográfica, pudiendo guardar toda la información asociada: autores, título, snapshot de la fuente bibliográfica, PDF con el artículo, etc...


Por ejemplo, si haceis una búsqueda en PubMed, mediante Zotero podeis registrar uno o todos los resultados encontrados en vuestra base de datos bibliográfica. Lo mismo ocurre con las búsquedas que hagais en las webs de las principales revistas científicas (Nature, Science, IEEE, y un larguísimo etc...), y otras fuentes bibliográficas como Google Scholar, Amazon y las principales editorales. Además, de forma limitada, es capaz de extraer y trabajar con la información de aquellas páginas que estén anotadas mediante RDF.

Zotero tiene aún más potencial, porque, cuando se asocian PDFs a entradas bibliográficas, es capaz de crear, mediante la ayuda de pdfinfo y pdftotext (pertenecientes al paquete Xpdf), un índice de búsqueda por contenidos. Esto es de gran ayuda cuando tenemos muchos artículos, no nos acordamos del título, pero conocemos algunas palabras clave mencionadas en el cuerpo de los mismos. Zotero también permite asociar nuestras propias anotaciones a las entradas que ya tengamos almacenadas, como por ejemplo palabras clave, hiperenlaces, relaciones con otros artículos, etc... y navegar usando esa información.

Pero el verdadero objetivo de todo software de gestión de la bibliografía es usarlo al escribir nuestros artículos. Pues bien, aquí está la verdadera potencia de Zotero, porque hay disponibles plugins tanto para OpenOffice como para Microsoft Office. En lugar de intentar acceder directamente a nuestra base de datos bibliográfica, estos plugins se comunican con Zotero. Al ser Zotero es una extensión de Firefox, el plugin del procesador de texto nos obliga a tener arrancado el navegador mientras estemos insertando referencias. En el plugin para OpenOffice he encontrado un par de bugs menores, relacionados con la numeración y retocar la bibliografía, pero aún así es perfectamente usable.

Uno de los actuales puntos débiles de Zotero y sus plugins para procesador de texto es que el listado de la bibliografía sólo se puede producir en formatos muy concretos (IEEE, PubMed, Nature, AAAS), sin tener todavía la posibilidad de añadir nuestros propios formatos para revistas menos conocidas. Aún así, Zotero sale casi siempre ganador al compararlo con otras alternativas open source o comerciales de gestión bibliográfica.

En cuanto a la interacción con otros sistemas bibliográficos (y para los usuarios o nostálgicos de LaTeX), Zotero permite tanto importar bibliografía proveniente de EndNote y BibTex (entre otros), como exportar a esos sistemas la información recopilada. Sobre esta parte no puedo proporcionaros una opinión personal, porque no la he probado.

Como aparece en una de las citas aleatorias de la web de Zotero: "Citation management is only the beginning"

14:10 | gestionado por José María Fernández González | Enviar comentario (3)

martes, 27 de noviembre de 2007

Esta mañana Carlos Rodríguez nos pasó a mí y a otros compañeros de trabajo un artículo de divulgación científica del diario The New Yorker, en el cuál se menciona la paleovirología, una ciencia que ni si quiera aparece referencia en Wikipedia, versiones española e inglesa. El artículo se titula "Darwin's surprise. Why are evolutionary biologists bringing back deadly viruses?", que intentaré resumir muy por encima a continuación:

Antes que nada, un poco de culturilla para ponernos en situación. Los virus son entidades biológicas capaces de replicarse usando la maquinaria celular disponible en las células que infectan. Much@s investigador@s consideran que no están vivos, en el sentido de que, para replicarse necesitan ayuda, y que no siguen los ciclos de la vida como por ejemplo alimentarse. Sin una célula que infectar, permanecen inertes, como pasaría con un imán que no esté cerca de un trozo de hierro o de acero (o viceversa). Básicamente, un virus es una cápside (envoltura de proteínas) que contiene una cadena de ADN. Esa cadena de ADN es la que se inserta en la maquinaria celular para producir réplicas del virus (envoltura más contenido de ADN). Si la célula de duplica (lo cuál no suele ser posible porque el virus ha "hackeado" la maquinaria celular), no queda rastro del código genético de los virus en el núcleo.

Por otro lado, tenemos los retrovirus, que más de un@ pensará que son un simple tipo de virus. Los retrovirus se diferencian de los virus convencionales en que, en lugar de contener la envoltura de proteínas una cadena de ADN, contiene una cadena de ARN. Esta cadena de ARN es integrada dentro del código genético de la célula infectada mediante el uso de una enzima especial, llamada transcriptasa inversa, que permite invertir el funcionamiento de la maquinaria celular e integrar la información del retrovirus en el código genético de la célula. A diferencia de los virus, si la célula se replica, copias de la información genética del retrovirus sobreviven.

Ahora que tenemos esta culturilla, vayamos a lo que versa el artículo. Es bien sabido que fragmentos del código genético de retrovirus se encuentran embebidos en casi todos los genomas de seres vivos que hayan existido sobre la faz de la tierra. De todo el genoma humano, sólo el 2% contiene la información genómica. Pero, ¿y el 98% restante? Lo que en alguna ocasión fue etiquetado como "ADN basura" depara muchas sorpresas, debido a que contiene, entre otras cosas, el equivalente a pruebas fósiles sobre retrovirus antiquísimos, de hace cientos de miles de años.

En organismos sencillos, que para reproducirse usan la replicación celular es fácil ver el funcionamiento del proceso, pero ¿cómo puede 'perpetuarse' así la información genética de los retrovirus en organismos más complejos? Ni más ni menos, infectando unas células muy especiales, los gametos (más conocidos como óvulos y espermatozoides). Es muy difícil que esto ocurra, y cuando ocurre, es aún más difícil que se produzca la fecundación, y más aún todavía que el nuevo individuo engendrado llegue a buen término y pueda reproducirse.

Por muy difícil que sea, es una probabilidad distinta de cero, y han pasado unos cuantos millones de años desde que apareció el primer organismo celular primitivo. Por ello, el código genético de casi cualquier ser vivo está plagado de trazas de retrovirus del pasado. De ahí surge la paleovirología, una disciplina relacionada con reensamblar (o 'revivir') los fragmentos de retrovirus encontrados, e intentar comprender mejor los mecanismos de la vida (cómo sobrevivir a una infección así) y las enfermedades relacionadas con virus y retrovirus.

El artículo está escrito en inglés y tiene una extensión de 8 páginas (y creo que si estais suscritos, os podeis bajar una versión en formato PDF). Como el título explica, en él se habla sobre por qué l@s biólog@s evolutivos se están dedicando a reensamblar esto antiguos (y muy peligrosos, si no letales), retrovirus. Se piensa algunos de estos retrovirus "ayudó" a nuestros ancestros lejanos durante el proceso evolutivo, como por ejemplo en el paso de gestación ovípara a vivípara.

Hay en la red otros artículos relacionados con paleovirlogía, relacionados con el VIH:

15:39 | gestionado por José María Fernández González | Enviar comentario (1)

domingo, 28 de octubre de 2007

Como sucede periódicamente, se va a celebrar la siguiente edición de las Jornadas de Bioinformática (¡y ya van ocho!). Pero esta edición no se celebrará este año, sino el año que viene, del 13 al 15 de Febrero de 2008. Esta octava edición va a tener como sede el Centro de Investigaciones Príncipe Felipe (en Valencia) y está coorganizado por este centro y la Universitat Pompeu Fabra.

Según la página web del evento, esta edición incluirá 8 áreas temáticas diferentes, que van desde los desarrollos básicos en bioinformática hasta la Biología de Sistemas o aplicaciones biomédicas. Una novedad es la sesión que se podría denominar de "últimos resultados" o "resultados novedosos", compuesta por pequeñas contribuciones, y que servirá para proporcionar a los asistentes una visión del estado del arte en la bioinformática que se realiza en España (y más allá). Aquí está el enlace al programa de las Jornadas y a la planificación temporal de las Jornadas (aún sujetos a cambios).

Como en otras ocasiones, habrá actividades satélite en torno a las Jornadas, compuestas por un workshop sobre adiestramiento en Bioinformática en España, y una serie de tutoriales sobre herramientas nuevas y estándar aplicables al campo de la Biología de Sistemas. Aquí está el enlace a la página que contendrá información sobre los tutoriales (a día de hoy no hay ninguno concretado oficialmente).

Según los autores del sitio web del evento, dichas páginas se mantendrán al día, albergando las últimas novedades relacionadas con las VIII Jornadas de Bioinformática.

Por último, he notado que todavía no es posible registrarse en el sitio web de las Jornadas (sólo es posible inscribirse como miembro de la Red Temática Nacional de Bioinformática y pre-registrarse con ese mismo formulario). Tampoco me ha sido posible encontrar los plazos para enviar contribuciones a las jornadas, su formato, etc...,  y otros detalles de organización, como lugares dónde hospedarse, cómo llegar al sitio de las Jornadas, etc... pero seguro que en los próximos días toda esta información aparecerá publicada en el sitio web de las jornadas.

Os mantendré al día a medida que conozca más detalles.

Actualización (19:41:53 , 27-11-2007)

Hace menos de un mes que apareció la web, y ya ha dado tiempo a que alguno de los plazos de envíos de trabajos se haya alcanzado. Este año, realmente, ha habido menos difusión de la que debería, porque incluso mi propio jefe (normalmente en contacto con integrates del comité científico de estas jornadas) no se enteró hasta hace dos o tres días.

Resumiendo, ya hay normativas y fechas tope para el envío de trabajos científicos. Ya pasó la fecha para el envío de abstracts cortos (para optar a llevar un póster), mientras que todavía está abierto el plazo para optar a una presentación oral, mediante el envío de un abstract largo.

10:15 | gestionado por José María Fernández González | Enviar comentario (1)

martes, 09 de octubre de 2007

Los próximos 26, 27 y 28 de Noviembre se van a celebrar en Barcelona las jornadas Bioinformatics Resource Days, que forman parte de los Barcelona BioMed Workshops. Estas jornadas están organizadas por IRB Barcelona (Institute for Reseach in Biomedicine) y Barcelona Supercomputing Center, y tienen como principales eventos el EBI Bioinformatics Roadshow y las charlas del INB (Instituto Nacional de Bioinformática).

Tomado del programa de las jornadas, EBI Bioinformatics Roadshow explorará algunos de los principales recursos y herramientas disponibles en el EBI, aplicadas a varios aspectos de la vida: desde las secuencias hasta la biología de sistemas. En particular, l@s asistentes aprenderan sobre cómo y cuándo usar:
Por su parte, las charlas del INB cubrirán los recursos bioinformáticos usados y desarrollados:
Las jornadas se celebrarán en la Universitat Politecnica de Catalunya, en las salas VS 208 y VS210, Edifici Vertex, Campus Nord de la UPC, Plaça Eusebi Güell, 6.

El registro para el evento estará abierto hasta el día 19 de Octubre, y hay un límite de 80 plazas. Si no perteneceis a ninguno de los institutos organizadores del evento, el registro para el evento cuesta 100€, incluyendo entrenamiento, materiales del curso, almuerzos y cafés

15:32 | gestionado por José María Fernández González | Enviar comentario (0)

viernes, 05 de octubre de 2007

Revisando correos y entradas de blog antiguos, me he encontrado con que prometí hablar hace casi dos años de Bio-Linux, y no lo hice (¡mea culpa!). Además es un buen momento, viendo algunos de los comentarios preguntando dónde encontrar software bioinformático.

Bio-Linux, como muchas distribuciones Linux de hoy en día, está disponible tanto en formato Live-DVD como para instalar en cualquier ordenador. Desde la versión 4.0, esta distribución está basada en Debian, añadiendo muchísimo software bioinformático, tal como se puede consultar en la lista online. Buena parte del software en la lista es:
Todavía no he tenido tiempo de descargarme y evaluar el Live-DVD, pero por lo que contó Jan-Jaap (un compañero de trabajo) está muy bien para temas didácticos, al llevar tantas herramientas bioinformáticas en un solo DVD. Se quejó de que era un poco lento el uso del Live-DVD en portátiles, por tener que estar leyendo cada dos por tres. En cualquier caso, el reconocimiento de hardware funciona bastante bien, porque le reconoció el hardware del portátil sin problemas.

Con este DVD teneis la posibilidad de probar muchas herramientas bioinformáticas sin el engorro de tener que instalarlas. ¡Que lo disfruteis!

21:45 | gestionado por José María Fernández González | Enviar comentario (0)

martes, 02 de octubre de 2007

Tras un pequeño descanso de medio año para sincronizarse con el curso académico universitario, comienza este mes, el 22 de Octubre, la 5ª edición el Máster de Bioinformática y Biología Computacional que se celebra en la Universidad Complutense de Madrid. Este periodo de tiempo ha servido para actualizar y reorganizar el plan de estudios del Máster de cara al curso 2007-2008, y comenzar a reformarlo para ir adecuándolo a los parámetros propuestos por la declaración de Bolonia. Uno de los organizadores del Máster, Federico Morán, me ha contado que algunas novedades con respecto a ediciones anteriores, además de la reforma del temario, son:


  • WebLog del Máster: A diferencia de otros años, hay un blog oficial del Máster de Bioinformática, accesible en http://www.tendencias21.net/bioinformatica/, lo cuál permitirá a la gente de dentro y fuera del máster opinar sobre las últimas noticias relacionadas con el curso académico, las asignaturas, etc... Este servicio se añade a los ya existentes, como por ejemplo el de intranet, que sirve para mantener en contacto a los alumnos, y a los profesores que se hayan apuntado.
  • Nueva aula para las clases: Una de las principales quejas por una u otra causa de los alumnos de ediciones anteriores del Máster de Bioinformática ha sido el aula donde se impartieron las clases: unos años calor, otros espacio o la distribución del áula, los equipos, etc... En esta edición, las clases se celebrarán en el aula SUN UCM, que dispone de equipos realmente potentes (procesadores AMD de 64 bits y doble núcleo), y que por las fotos del blog del máster parece que tiene mejor pinta que las aulas usadas en años anteriores.
Para l@s que esteis interesad@s, aún queda alguna plaza libre en el máster (aquí teneis la información de contacto para el máster). También os recomiendo que os mireis las entradas del weblog del máster, que contiene la información más actualizada sobre esta edición.

P.D.: Como en años anteriores, voy también a impartir clases en el máster, así que siento la propaganda y "barrer pa casa".

23:33 | gestionado por José María Fernández González | Enviar comentario (0)

sábado, 22 de septiembre de 2007

Cuando uno empieza en bioinformática a trabajar en temas de análisis de secuencias, lo primero que aprende es a usar herramientas como NCBI Blast para el alineamiento de secuencias y Clustal W para el alineamiento múltiple de un conjunto de ellas. Éste último programa ha sido durante mucho tiempo el estándar de facto a la hora de realizar alineamientos múltiples y calcular árboles filogenéticos, a pesar de fallos puntuales existentes en algunas versiones del programa. Justo ahora, casi 20 años después de su primera encarnación, ha salido a la luz Clustal W 2.0. Ha sido un largo viaje, así que hagamos un poco de "arqueo-bioinformática"...

La historia de ClustalW comienza en 1988 en la revista Gene, con la publicación del artículo "CLUSTAL: a package for performing multiple sequence alignment on a microcomputer". CLUSTAL permitió agilizar la tarea de realizar alineamientos múltiples usando un ordenador, siendo uno de los primeros programas disponibles para ello. El siguiente de la saga fue ClustalV, que mejoraba la velocidad de ejecución y la precisión del programa, y fue usado durante varios años. Aquí os incluyo un par de referencias a la entonces revista CABIOS, y que es hoy en día conocida como Bioinformatics:
El último miembro de la saga ha sido ClustalW, que desde 1994 está siendo usando por la comunidad bioinformática. Este paquete de programas fue (y es) distribuido como un conjunto de ficheros de código en C, dentro de un archivo comprimido, que compila con un simple Makefile. Dentro de este paquete apareció Clustal X, el hermano "gráfico" de Clustal W, el cuál es mucho más difícil de compilar, debido a su dependencia en las librerías gráficas NCBI Vibrant (Virtual Interface for Biological Research and Technology):
Desde entonces, este paquete de programas ha ido sufriendo pequeñas mejoras, actualizaciones y arreglos de fallos. También desde entonces le han surgido otros competidores, como por ejemplo T-Coffee o MUSCLE, que son más precisos o más rápidos para determinados conjuntos y volúmenes de secuencias:
¿Qué trae Clustal W 2.0 que lo permita competir con los nuevos programas? Está claro que tiene de entrada muchos puntos ganados por ser un estándar de facto. El código interno de los programas del paquete CLUSTAL ha sufrido una reestructuración completa, pasando a estar escritos en C++. Además, Clustal X 2.0 usa las librerías gráficas qt (las mismas que usa el escritorio KDE) en lugar de las anteriores, lo cuál facilita muchísimo su compilación y traslado a otras plataformas. También hay nuevos algoritmos y grandes mejoras a la hora de calcular los árboles filogenéticos de alineamientos múltiples enormes (se puede elegir entre NJ y UPGMA), y en la realización de estos alineamientos. Encontrareis más detalles en el artículo de ClustalW 2.0, disponible sólo de momento en Bioinformatics en Advance Access.

Aunque el paquete de programas está disponible para las principales plataformas (y funciona bien, doy fe de ello), intenté compilarlo siguiendo la tradición. Personalmente me descargué hace poco el código fuente de Clustal W 2.0, e intenté compilarlo usando el script installer que incluye para ello el paquete. Al final tuve que usar el fichero Makefile incluído (como siempre se hizo) para conseguir el ejecutable, porque simplemente installer se negaba a realizar la tarea.

¡Que disfruteis de la nueva versión de Clustal W!

Referencias:
  • Larkin M.A., Blackshields G., Brown N.P., Chenna R., McGettigan P.A., McWilliam H., Valentin F., Wallace I.M., Wilm A., Lopez R., Thompson J.D., Gibson T.J., and Higgins D.G. ClustalW and ClustalX version 2.0 Bioinformatics, Advance Access published on September 10, 2007

19:02 | gestionado por José María Fernández González | Enviar comentario (0)