jueves, 30 de octubre de 2008

Un proyecto enlaza Informática Biomédica, tecnologías Grid y Nanoinformática


Permitirá aumentar y compartir recursos informáticos y datos biomédicos


El pasado mes de junio un consorcio de siete países europeos y latinoamericanos ha lanzado ACTION-Grid, la primera iniciativa financiada por la Comisión Europea para analizar y enlazar tres áreas: Informática Biomédica, tecnologías Grid y Nanoinformática. ACTION-Grid está coordinado por el Grupo de Informática Biomédica de la Universidad Politécnica de Madrid (UPM). El proyecto, según sus responsables, permitirá a todo tipo de investigadores el acceso a nuevas tecnologías desarrolladas en el seno de la UE gracias “puntos de encuentro virtuales”.




Investigadores europeos se han asociado con colegas de los Balcanes Occidentales, el norte de África y Latinoamérica para fortalecer la cooperación en los campos de la informática biomédica, las tecnologías de Grid y la nanoinformática. Su trabajo lo realizan a través de ACTION-Grid («ACCIÓN-Malla»), un proyecto con un presupuesto cercano al millón de euros, financiado por la Unión Europea dentro del Séptimo Programa Marco (7PM). ACTION-Grid arrancó en junio y estará en marcha durante dieciocho meses. Su trabajo fomentará la formación y la movilidad en la informática biomédica, las tecnologías Grid y la nanoinformática. Grid computing es una tecnología innovadora que permite utilizar de forma coordinada todo tipo de recursos (entre ellos cómputo, almacenamiento y aplicaciones específicas) que no están sujetos a un control centralizado. Cordis señala al respecto que los resultados se fundirán con los datos de un inventario (resourceome) automatizado, consistente en un listado de métodos y servicios informáticos biomédicos/grid/nano desarrollado por el equipo de ACTION-Grid.


Tanto investigadores como diversos usuarios podrán acceder a este listado. En última instancia, el «resourceome» permitirá que investigadores de todas clases accedan a las nuevas tecnologías desarrolladas en la UE. En la última década, la Comisión Europea ha lanzado varias iniciativas pioneras para enlazar datos clínicos y resultados del proyecto Genoma Humano con otros proyectos relacionados, así como con métodos y herramientas en el área de la Informática Biomédica. La investigación en Medicina Genómica y Personalizada ha abierto nuevos retos que han atraído a numerosos investigadores y profesionales. Encuentro virtual Precisamente estas iniciativas han permitido detectar que los científicos europeos que trabajan en estos campos no tenían un “punto de encuentro virtual” donde buscar herramientas ya usadas por otros colegas o, sencillamente, formas de intercambiar información. El proyecto ACTION-Grid viene a cubrir estos huecos. En este sentido, las tecnologías Grid han aportado una potencia computacional imprescindible en numerosas aplicaciones biomédicas. En el futuro, disciplinas como la nanomedicina necesitará nuevos métodos y herramientas informáticas en áreas tales como el diseño de bases de datos de partículas, modelización, simulación, imágenes y otras. “Las tecnologías Grid proporcionan la infraestructura tecnológica que la investigación biomédica necesita para muchas aplicaciones. Al mismo tiempo, la nanomedicina promete nuevas propuestas en diagnosis, terapias o gestión del paciente”, explica Víctor Maojo, profesor de la Facultad de Informática de la UPM y coordinador de este proyecto, en declaraciones a Bioinform. Respecto a los datos que se van a “linkar”, Maojo señala que, en primer lugar, se detectarán las necesidades de los científicos, sobre todo de las regiones menos desarrolladas.


En segundo lugar, se proporcionará un listado de herramientas “open-source” (de código abierto) que pueden ser intercambiadas por los diferentes laboratorios europeos. Nanoinformática médica Según informa la Facultad de Informática de la UPM, una de las áreas de interés de ACTION-Grid es Nanoinformática en medicina. En esta dirección, ACTION-Grid es el primer proyecto financiado por la Comisión Europea que aborda el área de Nanoinformática, una nueva disciplina informática, y sus aplicaciones en (nano)medicina. Las aplicaciones en nanomedicina son cada vez más amplias, e incluyen campos como la biofarmacología (estudio de nuevos medicamentos basados en nanopartículas), materiales implantables para la reparación de tejidos, ayudas a la cirugía mediante nanoherramientas, o herramientas diagnósticas, como nanosistemas para imágenes que pueden ayudar a identificar la aparición de una enfermedad. En muchas enfermedades, la nanomedicina ofrece soluciones para mejorar los métodos diagnósticos y terapéuticos actuales. Por ejemplo, en la investigación en cáncer se desarrollan nanoestructuras para reconocer células de cáncer y destruir cada célula individualmente.


Aunque la mayoría de los análisis prospectivos establecen fechas todavía lejanas en el tiempo para su establecimiento rutinario, las herramientas nanoinformáticas pueden acelerar la agenda de todas estas investigaciones. ACTION-Grid está coordinado por el Grupo de Informática Biomédica de la Facultad de Informática de Universidad Politécnica de Madrid (FIUPM). Otros participantes son el Instituto de Salud Carlos III (co-líder científico, con la UPM, cuyo director es el Dr. Fernando Martín-Sánchez), Hospital Italiano de Buenos Aires (Argentina) y la Universidad de Talca (Chile) de Iberoamérica, Forth (Grecia), HealthGrid (Francia) y la Facultad de Medicina de la Universidad de Zagreb (Croacia).


miércoles 03 Septiembre 2008
Raúl Morales


Información Tomada de:

INTEL Acelera el Despliegue de Clusteres para Impulsar la Informática de Alto Rendimiento


Intel Corporation ha incorporado nuevas tecnologías para desarrollar e impulsar el crecimiento de la informática de alto rendimiento (high-performance computing, HPC) – desde superordenadores de sobremesa a clusters de gama alta con capacidad petaflop. Las iniciativas Intel® Cluster Ready e Intel Connects Cables simplifican el uso y el despliegue de clusters, sobre todo a medida que el empleo de la informática de alto rendimiento pase de ser dominio exclusivo de los campos académicos y científicos, a potenciar una amplia variedad de actividades, incluyendo los usos más generales en los centros de datos. Los sistemas que más se utilizan en clusters se están empleando para realizar una amplia gama de actividades, incluyendo investigaciones médicas, previsiones meteorológicas, diseño por ordenador y modelos financieros.

Intel Cluster Ready es un programa y una tecnología diseñados específicamente para simplificar el despliegue, el uso y la gestión de sistemas informáticos en cluster, ofreciendo una forma replicable y estandarizada para creación de clusters y utilizando directamente aplicaciones de alto rendimiento. Este programa incluye una especificación que establece unos estándares mínimos para los componentes de software y de hardware, para permitir a los desarrolladores de software una única validación en muchas plataformas diferentes de hardware, algo que acelera el proceso de desarrollo y la comercialización de productos.

La iniciativa Intel Cluster Ready también incluye una vía para registro de software para aplicaciones compatibles con la informática de alto rendimiento, y un proceso para certificación de hardware que utiliza la tecnología Intel® Cluster Checker. Esta herramienta comprueba los componentes de hardware y de software del cluster, garantizando que funcionan correctamente entre sí. La tecnología Intel Cluster Checker también incorpora aislamiento de fallos, para mejorar la detección temprana de aquellos problemas en el cluster que pueden disminuir la productividad y aumentar los costes en servicios de soporte.

“Hasta la fecha, las personas encargadas de adquirir sistemas para informática de alto rendimiento (HPC) tenían que hacer frente a una mayor fragmentación e incertidumbre, debido a la mezcla de diferentes soluciones disponibles para el cluster,” ha afirmado Richard Dracott, director general de Sistemas de Alto Rendimiento (HPC) de Intel. “La iniciativa Intel Cluster Ready permite a las organizaciones adquirir clusters con toda tranquilidad, sabiendo que los equipos y las aplicaciones están certificadas para funcionar conjuntamente. En vez de pasar meses definiendo y desplegando un cluster, el comprador puede instalarlo como si se tratara de un sencillo servidor empresarial.”

Intel dio también a conocer una tecnología innovadora para permitir a las organizaciones la creación de clusters de mayor tamaño y con mejor rendimiento. La tecnología Intel Connects Cables permite a los clientes de Infiniband y de 10 GbE lograr unas tasas de datos de 20 Gbps, y ampliar el alcance entre ordenadores hasta los 100M, para permitir a las empresas diseñar clusters basándose en sus requisitos empresariales particulares, sin verse limitadas por la longitud de los cables.

La tecnología Intel Connects Cables resuelve varios problemas que han preocupado a las organizaciones interesadas en instalar clusters. Los cables de cobre, utilizados tradicionalmente para conectar clusters, tienden a ser duros y difíciles de instalar, llenando los suelos y racks con cables y produciendo situaciones en las que pueden incluso bloquear los espacios necesarios para la ventilación, afectando negativamente a la refrigeración de los equipos. Según las pruebas realizadas por Intel, la tecnología Intel Connects Cables es un 84% más ligera que la de los cables de cobre, un 83% más reducida, y con un 40% menos de radio de curvatura. Estos factores facilitan la instalación y la ampliación de los clusters, mejorando al mismo tiempo la ventilación de los sistemas. La naturaleza compacta de los cables y la falta de transceptores ópticos también reducen los costes generales, incluyendo los de mantenimiento e instalación.

Informacion tomada de:
http://www.intel.com/cd/corporate/pressroom/emea/spa/archive/2007/361212.htm

Hipercir Nueva Tecnologia


Las imágenes tridimensionales se están popularizando en la medicina. Un hospital moderno produce decenas de miles de imágenes volumétricas cada año a partir de técnicas de Resonancia Magnética, Tomografía, Ultrasonidos.

La visión por computadora aplicada a las imágenes 3D ofrece nuevas capacidades, no sólo como una herramienta de diagnóstico sino que abre nuevas posibilidades terapéuticas. No obstante, el software existente está sometido a graves restricciones que están ralentizando la expansión de esta nueva posibilidad técnica. El primer problema consiste en la necesidad de incurrir en elevadas inversiones en hardware, y la segunda más importante en la dificultad de uso de estos programas. HIPERCIR pretende solventar estas dificultades.

La visualización y la gestión de imágenes 3D depende, incluso hoy día, del uso de computadoras de coste elevado. El objetivo del proyecto HIPERCIR consiste en el desarrollo de un paquete informático haciendo uso de la Computación de Altas Prestaciones (HPCN), como el procesamiento en paralelo, pero necesitando simplemente una red de PCs. La computación paralela reduce el tiempo de ejecución necesario, por lo que proporciona a los expertos médicos una potente herramienta a bajo coste, que facilite y acelere el diagnóstico.

Los algoritmos de tratamiento de imagen desarrollado por los expertos en imagen del consorcio de HIPERCIR hacen uso de la última tecnología en sistemas y bases de conocimiento. Ello conduce a la reducción de la interacción necesaria con el usuario al mínimo, con lo que se reduce el periodo de aprendizaje técnico para utilizar el sistema y también minorando los errores de diagnóstico, con lo que se incrementan las posibilidades de uso

Información tomada de:
http://hiperttn.upv.es/press/sd/sd.html

Imagenes Tridimensionales


La creciente disponibilidad de imágenes médicas en los centros médicos actuales está demandando nuevas técnicas de posproceso y un mayor aprovechamiento del conocimiento ya que normalmente no se aprovecha potencial que esta gran información prestada por las imágenes tiene para la formación e investigación, además de la fácil atención a los usuarios, por ello los clusters permiten que las imágenes se organicen de forma efectiva para el tratamiento clínico del paciente a nivel de centro, y tener una mayor organización y acceso a esta información.

Por otro lado encontramos que algo muy importante en el manejo de estas imágenes como en toda la información medica es la seguridad y la privacidad a datos críticos, este problema también es solucionado en un alto porcentaje con la utilización de clusters por medio de claves públicas convencionales, organizaciones virtuales y la privacidad en integridad mediante cifrado.

Así entonces los clusters presentan un gran conjunto de información digital estructurada con las siguientes características:

· Hay una unidad básica de información digital (una mamografía, una página de un manuscrito, un modelo 3D,..)
· Hay un conjunto de metadatos alrededor de cada unidad de información digital (información de pacientes, diagnósticos, contexto histórico, etc.)
· Algoritmos específicos procesan los datos (procesador de imágenes, búsqueda de microcalcificaciones, etc.)

La estructura de estas aplicaciones se basan en la utilización de diferentes nodos que pueden ser desde simples ordenadores personales a complejas computadores, que juntas a través de una red dan como resultado un gran hardware capaz de manejar grandes cantidades de información, y con gran capacidad de procesamiento para el caso especifico de las imágenes medicas.

Algunas desventajas de estas aplicaciones son:

· El hardware utilizado es de gran costo, por lo que los usuarios finales se reducen a un selecto grupo.
· El tiempo de procesamiento a pesar de todo es lento, por lo que las imágenes resultantes se demoran un poco.
· Las anteriores desventajas se han convertido en las ventajas de nuevas tecnologías como HIPERCIR o GRID.

Cirugias asistidas con clusters


Los clúster son utilizados cuando una organización quiere proporcionar a su sistema, ya sea potencia o fiabilidad, una de las aplicaciones que se le puede dar a un clúster, con respecto de su gran fiabilidad en el área de la medicina, es el de el uso de este para poder permitirle a los doctores realizar cirugías por medio de una red a nivel mundial, para que así un médico especializado pueda hacerle una cirugía a un paciente en Colombia desde Australia,

El clúster es el directamente encargado con la fiabilidad de la operación, ya que el sistema no puede decaer en medio de la cirugía ya que el paciente podría morir, este es uno de los casos donde en un clúster recae la vida de por lo menos una persona.

miércoles, 29 de octubre de 2008

Fundamentos físicos de calidad de imagen en Medicina Nuclear, los beneficios de los Clusters.


Resumen

El presente artículo realiza una descripción físico-matemática de los principales factores físicos que caracterizan la calidad de la imagen en Medicina Nuclear, así como una descripción conceptual de la degradación que sufre la información proveniente del objeto debido al sistema de imagen (cámara gamma). Seguidamente se realiza una presentación crítica de algunos métodos cualitativos y cuantitativos de valoración de la calidad de la imagen, colaterales al tradicional control de calidad del equipamiento, como son el análisis ROC, las Técnicas de Clustering y el Análisis Discriminante. Dentro de estas dos últimas, se analizan los principales factores que determinan la calidad de la imagen y cómo los mismos se traducen en cambios en los valores cuantitativos de las principales variables físicas que la caracterizan. Se realiza además una comparación entre los métodos, resaltando su utilidad para monitorear calidad de imagen, así como sus principales ventajas y desventajas.




Las Técnicas de Clustering

Las técnicas de clustering constituyen una técnica exploratoria, útil para encontrar conglomerados de casos que se puedan unir de acuerdo con un grupo de variables como es el caso de determinar si a partir de un grupo de variables (Xi, i=1...n) físico-médicas, medidas durante cualquier tipo de examen de Medicina Nuclear, es posible determinar grupos de estudios con calidad de imagen diferenciada, en los términos físicos definidos anteriormente, aún y cuando estas diferencias fuesen tan sutiles, que dado el limitado umbral de discriminación de un observador experto, no fuesen apreciables a simple vista.

Para lograr el propósito anterior se parte de una matriz inicial de datos, la cual es obtenida de observar el comportamiento de las Xi variables medidas durante un estudio de Nc casos, adquiridos con maniquíes o con pacientes. Estas Xi variables, deben recoger incluso las más pequeñas variaciones en calidad de la imagen médica, al variar algunos parámetros de entrada (Ejemplo: actividad administrada, características físico-metabólicas del paciente, la eficiencia de marcaje del radiofármaco, protocolo de adquisición, tamaño de matriz, etc. Quienes constituyen en esencia, el conjunto de factores determinantes de la calidad de la imagen. A partir de aquí, se construye una matriz de distancias D. Las variables consideradas en el inicio del análisis serán aquellas que a priori se conoce deben relacionarse con la calidad de la imagen y que son específicas en dependencia del estudio a realizar, ya que para desarrollar este paso solo se siguen consideraciones teóricas, conceptuales y prácticas del investigador.

En este problema físico particular las Xi variables, que se han introducido en algunos estudios experimentales por actuar directamente sobre el contraste imagen, el ruido aleatorio o la resolución espacial, son las siguiente: Peso corporal, dimensiones del paciente (talla y estatura), edad y sexo, eficiencia de marcaje del fármaco con el compuesto radiactivo, índices de contraste en las imágenes, protocolo de adquisición (número de conteos a adquirir o tiempo de adquisición de las imágenes), u otros, en dependencia del tipo de estudio que se esté realizando. A continuación se ofrece la justificación teórica para la selección de algunos factores.
Peso corporal y dimensiones del paciente: Al aumentar el peso, la talla del paciente y/o el grosor de sus órganos, se produce una disminución en la densidad de conteos posible de medir en los órganos de interés en cada tipo de estudio, que se convierte en esencial específicamente para el caso de estudios planares , dadas las limitaciones en el contraste imagen para este tipo de estudios, la cual se puede estimar de acuerdo con el órgano bajo estudio de modelos matematicos


Información Tomada de :


Herramientas Cluster de Intel



Herramientas de asistencia a los desarrolladores de aplicaciones y gestores de sistemas distribuidos.








DESCRIPCIÓN GENERAL

Las herramientas Intel® Cluster Tools dan asistencia a los desarrolladores y gestores de sistemas distribuidos para obtener el mejor rendimiento. Estas herramientas ayudan a los desarrolladores a crear, analizar, optimizar y distribuir aplicaciones de alto rendimiento en clusters de sistemas basados en procesadores Intel. Intel® Trace Analyzer e Intel® Trace Collector – los primeros productos de esta línea – proporcionan un trazado basado en eventos para la optimización del software.

Analizador de Trazas de Intel

El analizador de trazas, Intel Trace Analyzer, proporciona las vías más convenientes para analizar de forma gráfica las trazas de los eventos de Intel Trace Collector. Permite a los desarrolladores enfocar su trabajo rápidamente en el nivel de detalle deseado. Intel Trace Analyzer visualiza gráficamente el comportamiento en tiempo de ejecución de las aplicaciones. La línea de tiempos, el paralelismo, la comunicación y las estadísticas ayudan a visualizar el análisis de la ejecución del programa y las operaciones de comunicación.

Recolector de trazas de Intel

El colector de trazas de Intel, Trace Collector, incorpora las ventajas del trazado basado en eventos a las aplicaciones con una librería de trazado de bajo impacto. Soporta Java* y procesos multi-threaded con o sin MPI. La herramienta es completamente "thread safe", permitiendo el trazado de aplicaciones MPI multi-threaded. Intel Trace Analyzer visualiza los datos producidos por Intel Trace Collector.



Informacion Tomada de :

http://www.addlink.es/productos.asp?pid=372