Advertencia: Esta página es una traducción de esta página originalmente en inglés. Tenga en cuenta ya que las traducciones son generadas por máquinas, no que todos traducción será perfecto. Este sitio Web y sus páginas están destinadas a leerse en inglés. Cualquier traducción de este sitio Web y su páginas Web puede ser imprecisa e inexacta en su totalidad o en parte. Esta traducción se proporciona como una conveniencia.

Los investigadores desarrollan las aproximaciones de cómputo que reducen dramáticamente tiempo del imagen-análisis

Un retrato vale mil palabras - pero solamente cuando está sin obstrucción qué representa. Y en esto miente la frotación en la fabricación de imágenes o de los vídeos de la vida microscópica.

Mientras que los microscopios modernos pueden generar las enormes cantidades de datos de imagen de tejidos vivos o de células dentro de algunos segundos, extrayendo la información biológica significativa de ésa los datos pueden tardar horas o aún semanas del análisis laborioso.

Para aflojar este atascamiento importante, las personas llevadas por la persona Hari Shroff de MBL han ideado el profundo-aprendizaje y otras aproximaciones de cómputo que reducen dramáticamente tiempo del imagen-análisis por órdenes de magnitud -- en algunos casos, igualando la velocidad de adquisición de datos sí mismo. Denuncian a sus resultados esta semana en biotecnología de la naturaleza.

“Es como la consumición de un firehose sin poder digerir lo que usted está bebiendo,” dice Shroff del problema común del tener demasiados datos de la proyección de imagen y no suficiente potencia del post-processing.

Las mejorías de las personas, que provienen una colaboración en curso en el laboratorio biológico marino (MBL), aceleran análisis de imagen de tres maneras importantes.

Primero, los datos de la proyección de imagen del microscopio son corrompidos típicamente enmascarando. Para aminorar la niebla, un proceso iterativo de la “deconvolución” se utiliza.

La computador va hacia adelante y hacia atrás entre la imagen enmascarada y un presupuesto del objeto real, hasta que alcance convergencia en un mejor presupuesto del auténtico.

Ocupándose vanamente con el algoritmo clásico para la deconvolución, Shroff y los co-autores aceleraron la deconvolución por más que diez veces. Su algoritmo perfeccionado es extensamente aplicable “a casi cualquier microscopio de fluorescencia. Es un triunfo estricto, nosotros piensa. Hemos liberado la clave y otros grupos la están utilizando ya.”

Hari Shroff, investigador mayor, instituto nacional de la proyección de imagen biomédica y bioingeniería, laboratorio biológico marino

Después, abordaron el problema de la inscripción 3D: imágenes múltiples de alineamiento y que funden de un objeto tomado de diversos ángulos.

“Resulta que dura mucho para registrar grupos de datos grandes, como para microscopia de la luz-hoja, que ella los hace al deconvolve,” Shroff dice.

Encontraron varias maneras de acelerar la inscripción 3D, incluyendo la mudanza de ella a la unidad central de los gráficos de computador (GPU).

Esto les dio 10 - más que cien veces a la mejoría en velocidad de tramitación sobre usar la unidad central del proceso de la computador (CPU).

“Nuestras mejorías en el medio de la inscripción y de la deconvolución que para los grupos de datos que ajustan sobre una tarjeta gráfica, el análisis de imagen puede en principio continuar con la velocidad de la adquisición,” Shroff dice.

“Para grupos de datos más grandes, encontramos una manera de tallarlos eficientemente hacia arriba en trozos, pasamos cada trozo al GPU, hacemos la inscripción y la deconvolución, y después cosemos esos pedazos traseros juntos.”

“Que es muy importante si usted quiere a la imagen pedazos grandes de tejido, por ejemplo, de un animal marino, o si usted está autorizando un órgano para hacerlo transparente para poner el microscopio. Algunas formas de la microscopia grande son habilitadas y aceleradas realmente por estos dos avances.”

Pasado, las personas utilizaron profundamente el aprendizaje acelerar de la “los grupos de datos insuperables complejos deconvolución” - en los cuales la niebla varía importante en diversas partes de la imagen.

Entrenaron a la computador para reconocer el lazo entre datos malo enmascarados (la entrada) y una imagen limpiada, deconvolved (el rendimiento). Entonces lo dieron enmascararon datos que no había visto antes.

“Trabajó realmente bien; la red neuronal entrenada podría producir los resultados deconvolved realmente rápidos,” Shroff dice. “Que es donde conseguimos mejorías del millar-doblez en velocidad de la deconvolución.”

Mientras que los algoritmos de aprendizaje profundos trabajados asombrosamente bien, “es con la advertencia que son quebradizas,” Shroff dice. “Significando, una vez que usted ha entrenado a la red neuronal para reconocer un tipo de imagen, diga una célula con mitocondrias, él deconvolve esas imágenes muy bien.”

“Pero si usted le da una imagen que sea una broca diferente, diga la membrana del plasma de la célula, él produce los artefactos. Es fácil engañar la red neuronal.” Un campo de investigación activo está creando las redes neuronales que trabajan de una manera generalizada.

“Profundamente el aprendizaje aumenta cuál es posible,” a Shroff dice. “Es una buena herramienta para analizar los grupos de datos que serían difíciles cualquier otra manera.”

Source:
Journal reference:

Guo, M., et al. (2020) Rapid image deconvolution and multiview fusion for optical microscopy. Nature Biotechnology. doi.org/10.1038/s41587-020-0560-x.