Advertencia: Esta página es una traducción de esta página originalmente en inglés. Tenga en cuenta ya que las traducciones son generadas por máquinas, no que todos traducción será perfecto. Este sitio Web y sus páginas están destinadas a leerse en inglés. Cualquier traducción de este sitio Web y su páginas Web puede ser imprecisa e inexacta en su totalidad o en parte. Esta traducción se proporciona como una conveniencia.

Exploración del lazo entre la espectrometría de masa y la informática

Thought LeadersJohn R. Yates, III & Robin ParkThe Scripps Research Institute

La espectrometría de masa ha tenido siempre una sinergia potente con las computadores. Las computadores han activado la espectrometría de masa adelante en las junturas dominantes en su historia de la colección de datos para equipar la operación al análisis de datos. Proteomics fue habilitado por espectrometría de masa en tándem e informática destinar rápidamente series de aminoácido a los espectros.

Mientras que la instrumentación ha llegado a ser más potente las capacidades informáticas han venido guardan paso con aumentos en la producción de los datos y tipos de datos. Los flujos de trabajo sofisticados se utilizan para tramitar los experimentos proteomic que abarcan búsqueda, la cuantificación, y el tramitación estadístico de datos. Mientras que nuevo las características se agregan a los espectrómetros de masas como la movilidad del ión esto ofrece la capacidad adicional para cerco datos y la información para interpretar los péptidos y las características del péptido. IP2 es una plataforma proteomic que crea un flujo de trabajo que combina búsqueda movida por motor GPU, la cuantificación flexible, y el análisis estadístico de datos.

¿Por favor infórmenos sobre el lazo de desarrollo entre la espectrometría de masa y las computadores?

La espectrometría de masa y las computadores han tenido un lazo interesante a lo largo de los años. Hay un concepto conocido como posible adyacente del `' (introducido por Estuardo Kauffman en 2002) que declara que la evolución y la innovación tienden a suceso ampliado, dentro del reino de las posibilidades disponibles en cualquier momento dado.

Esta idea ha sido extremadamente relevante a la espectrometría de masa. Si usted observa la historia de la espectrometría de masa, mucha la primera obra ocurrió en las instituciones académicas en donde las computadores también eran desarrolladas.

Esto llevó a las colaboraciones donde las computadores fueron utilizadas en diversos proyectos tales como cálculos en masa complejos y exactos para las fórmulas moleculares. Eventual, la tecnología se convirtió que permitió a las computadores comenzar a registrar la masa de retroceso bastante que usando la placa fotográfica tradicional. A tiempo, los algoritmos de la computador podían comenzar a tramitar datos más eficientemente, así que usted podría salir mucho más de ella.

¿Cómo importante tecnología el crowdsourcing y actual han estado en el revelado de la espectrometría de masa?

Increíblemente importante. Aproximadamente al mismo tiempo pues los avances en calcular mencionado anterior, gente realizaron que no deben necesitar interpretar espectros en masa más de una vez.

Esto llevó a la idea de crear bibliotecas de los espectros que han sido ya interpretados y de distribuciones de éstos, y esta práctica abrió real el concepto de explorar de la biblioteca. Éste es un ejemplo temprano de crowdsourcing dentro de la comunidad científica.

En aquel momento, las computadores no tenían una gran cantidad de espacio o de memoria de almacenamiento. Los algoritmos tuvieron que ser muy listos reducir la cantidad de información y de tecnología que fue requerida para hacer la búsqueda de la biblioteca. De adquisición de datos controlado por ordenador llevó a la adquisición dato-relacionada, y entonces eventual a la adquisición de la dato-independiente, teniendo en cuenta el análisis en grande de péptidos.

Era posible ahora tratar un espectro en masa en tándem de péptidos y de códigos de barras de la serie de aminoácido, usando esto para explorar a través de una base de datos y para determinar la serie de aminoácido se representa que.

Esta aproximación habilitó la alta producción y los experimentos en grande que podrían acomodar sistemas biológicos altamente complejos, de complejos de la proteína y los organelos a las células y a los tejidos. Sin embargo, esto generó más datos y más análisis, que requirieron la organización adicional.

¿Cómo los progresos en informática han afectado el potencial de la espectrometría de masa?

Los progresos en espectrometría de masa han puesto mucha tensión en nuestra capacidad de cerco, de analizar, de ordenar, y de interpretar datos. Aquí es donde la informática ha llegado a ser importante, con las herramientas de software y los scripts que colocan de la extracción de datos, de los motores de la búsqueda, y del análisis cuantitativo a través a las herramientas de la validación, a las herramientas de rayado de la confianza, y a los depósitos de datos que llegan a ser corrientes - estes último regularmente usando Microsoft Excel como ambiente de almacenamiento, aunque nos hemos estado moviendo lejos de esto pues no es ideal.

Es importante que los datos se pueden utilizar dentro del laboratorio, tan aquí en Bruker, nosotros han estado desarrollando las herramientas del análisis de estructura de la proteína y de análisis del enriquecimiento del gen con esto en mente.

¿Puede usted dar a nuestros programas de lectura una reseña de la plataforma IP2?

Hace unos años, hicimos una comparación entre las herramientas de la extracción de datos disponibles, y encontramos mucha variabilidad en términos de sus capacidades. Éste es uno de los pasos más importantes del proceso, pero la entrega con tener tan muchas herramientas de software disponibles es que la compatibilidad puede ser difícil de lograr a través de un flujo de trabajo entero.

Pusimos en marcha a una compañía llamada los usos Integrated Proteomics, desarrollando un andamio del flujo de trabajo llamado la tubería integrada de Proteomics (IP2). La idea detrás de este andamio es que podemos las herramientas enchufables que desarrollamos en la academia (que eran libremente disponibles y de fuente abierta) en esta tubería del IP, así creando un flujo de trabajo aerodinámico con las herramientas de análisis integradas de datos.

El IP2 es un programa central de la capa, que maneja los análisis, control de calidad espectral, capas del final trasero, eslabones para nublarse y para agrupar calcular, almacenamiento de datos, y la reserva.

Los utilizadores pueden llegar hasta sus datos o ver el estado de procesos usando una computadora de escritorio, un teléfono, o una tablilla. El IP2 es también adaptable vía el estuche del revelador IP2, significar a utilizadores puede adaptar la plataforma al trabajo con otro software y usos.

El IP2 puede trabajar con análisis de datos paralelo en grande del proteomics, y hemos podido integrar nuestra plataforma con la nube que calculaba vía los servicios web del Amazonas, Google se nubla, y Microsoft se nubla las herramientas. También nos estamos aprovechando de GPUs, dentro de nuestro sistema de laboratorio y nube-basado, para aumentar la velocidad y la eficiencia de la plataforma.

¿Cómo el uso del tramitación de GPU afecta al funcionamiento del IP2?

El IP2 permite el uso de un Search Engine de GPU, y esta utilización de los núcleos de GPU bastante que núcleos de la CPU lo hace extremadamente rápido. Una tarjeta de GPU tendrá millares de núcleos de GPU, y usted puede agregar aún más tarjetas de GPU para perfeccionar velocidad. La base de GPU permite la base de datos que explora a los regímenes increíblemente rápidos, y la base de datos que explora escalas con poder de computación.

Hemos estado observando con búsquedas dobles para perfeccionar la calidad de los datos, incorporando esta característica en el IP2. Aquí, usted pasa los datos de DDA que usted ha explorado a través a una base de datos de la serie y después utiliza estos datos para construir una biblioteca. Usted puede entonces explorar sus datos de DDA una segunda vez usando esa biblioteca. Esta aproximación puede perfeccionar reproductibilidad de los datos dramáticamente, y el uso de los núcleos de GPU nos da la capacidad de cálculo de lograr esto.

¿Puede usted también informar a nuestros programas de lectura sobre la plataforma del timsTOF y cómo esto integra con el IP2?

El timsTOF de Bruker es una herramienta diseñada para medir movilidad del ión. Esto es una extensión potente a la espectrometría de masa que nos da la información sobre la estructura tridimensional de un ión, ayudándonos a la capacidad máxima del aumento y a la confianza total en la caracterización compuesta.

Hemos estado optimizando nuestras plataformas, herramientas, y Search Engine para el timsTOF, específicamente alrededor de cómo extraemos datos de los archivos sin procesar de los timsTOF, que son grandes y contienen mucha información.

El resultado de este trabajo ha sido un programa robusto de la extracción: el timsTOFExtractor, el Search Engine de ProLuCID (que utiliza la tecnología de tramitación de GPU que hablamos anterior), el uso cuantitativo del análisis de datos del censo, y PaSER (Search Engine de la base de datos paralela en tiempo real) para el timsTOF.

¿Cuáles son los retos en las herramientas del Search Engine que se convierten para el análisis de datos del metaproteomics y del microbiome?

El trabajo con datos del microbiome es extremadamente desafiador debido a su base de datos grande de la serie. Éste es actualmente alrededor 70 gigabytes de tamaño y continuar de crecer. La base de datos de índice para estos datos está sobre un Terabyte de tamaño, significando que es difícil explorar esto usando estrategias de búsqueda tradicionales.

Para dirigir esto, trabajamos con Dennis Wallen del instituto de investigación de Scripps para desarrollar el Search Engine de ProLuCID-ComPIL.

Las preclasificaciones de ProLuCID-ComPIL y pre-analizan los datos usando NoSQL para perfeccionar tiempo de búsqueda. Estos algoritmos y procesos se pueden también utilizar con PTMs y variantes de la serie, con éstos que son transferidos en una base de datos de índice, que entonces se explora en la velocidad usando el GPU.

También hemos podido girar nuestra atención a los gracias del metabolomics a nuestro trabajo con Yu Gao en UCSD y su herramienta de alineación espectral Dilu.

¿Puede usted informarnos más sobre el sistema de PaSER?

Nuestro sistema de PaSER es un Search Engine de la base de datos paralela que puede trabajar en tiempo real. Muchos usos exploran extremadamente rápido, generando un gran número de espectros, así que una de las ventajas dominantes de explorar en tiempo real es que no hay necesidad del paso de la extracción de datos - usted apenas toma los datos directamente del espectrómetro de masas, y de la búsqueda inmediatamente. No hay necesidad de cargar por teletratamiento los datos.

El sistema de PaSER es rápidamente bastante que puede acomodar varios instrumentos inmediatamente, pero nuestra meta con la plataforma de PaSER no es apenas búsqueda en tiempo real. Queremos continuar dirigir los muchos retos presentes en la entrega de funciones en tiempo real efectivas de la búsqueda.

La velocidad del Search Engine es crítica si es guardar paso con la velocidad de exploración rápida de los instrumentos que introducen en ella.

Como la plataforma IP2, el PaSER utiliza núcleos de GPU en vez de núcleos de la CPU, asegurando considerables mejorías de la velocidad sobre tecnología tradicional de la búsqueda. Esto significa que es posible enviar datos de un instrumento a una caja de IP2-GPU en tiempo real y el resultado de la búsqueda en la base de datos estará disponible inmediatamente después que se hace el experimento.

¿Cómo usted evaluó los aumentos de la velocidad de PaSER sobre búsquedas fuera de línea tradicionales?

Para evaluar el PaSER, funcionamos con algunas muestras en el timsTOF favorable - a saber HeLa en 200 nanograms. Ejecutamos seis réplicas técnicas. El estreno era una búsqueda en tiempo real, seguida por ninguna búsqueda en tiempo real. Esto fue relanzada en la corrida tres y cuatro, antes de hacer dos búsquedas más en tiempo real en corridas cinco y seis.

Las metas de este experimento eran determinar cualquier retraso en velocidad de exploración y verificar independientemente de si el número de identificaciones acertadas fue afectado sobre por el uso de la búsqueda en tiempo real.

El experimento encontró que el uso de la búsqueda en tiempo real no afectó a tiempo de la exploración. También encontramos eso guardapolvo, el uso de la búsqueda en tiempo real volvimos el mismo número de resultados determinados que una búsqueda fuera de línea estándar.

También evaluamos el tiempo de búsqueda fuera de línea. A veces, siguiendo una búsqueda en tiempo real, los utilizadores pueden querer explorar otra vez con diversos parámetros o en diversas bases de datos. En este decorado, todavía no hay necesidad de convertir las informaciones en bruto porque la búsqueda en tiempo real inicial ha salvado espectros y los ha transferido ya a la base de datos. En nuestro ejemplo, tardó solamente tres minutos para cada búsqueda usando el Search Engine de IP2-GPU.

¿Cómo la herramienta elegante de la selección del precursor perfecciona el proceso de la búsqueda?

La herramienta elegante de la selección del precursor de PaSER permite que PaSER comunique con los instrumentos bidireccional. Esto abre muchas posibilidades creativas, dependiendo de la meta de su proyecto.

Por ejemplo, podemos utilizar esta herramienta para ejecutar filetes de la exclusión. Esta idea ha estado alrededor durante mucho tiempo, pero no es muy popular porque no es muy fácil ejecutar. Históricamente, los utilizadores han tenido que manualmente cerco IDs del péptido de resultados de la búsqueda, entonces entraron el filete de la exclusión manualmente. Mientras que las ideas se convirtieron, este proceso tuvo que ser relanzado que, por supuesto, no es ideal.

PaSER permite que construyamos el filete de la exclusión automáticamente, a la derecha del primer experimento. PaSER entonces pasará este filete de la exclusión al segundo experimento, y así sucesivamente, refinando el filete de la exclusión con cada iteración. Esta aproximación permite que nuestras búsquedas y experimentos rindan resultados más exactos en un cierto plazo.

Otro ejemplo es la administración dinámica de la deriva en masa debido a los cambios de temperatura o a las entregas de la calibración. Usando la búsqueda en tiempo real de PaSER, podemos medir la masa del delta entre los iones teóricos y experimentales del precursor del péptido. Podemos entonces enviar la masa del delta de nuevo al instrumento y el instrumento puede calibrar la deriva en masa dinámicamente y en tiempo real. Esto significa que si terminamos diez corridas o cientos corridas, la calibración en masa es siempre actualizado.

Cuando estamos trabajando con análisis cuantitativo de MS1-based con la etiqueta, nos presentarán a menudo con la luz y los iones pesados para el mismo péptido. Para el análisis cuantitativo, no necesitamos utilizar ambos iones del precursor - uno es suficiente para cuantificar la muestra porque conocemos ya la diferencia en masa entre los iones livianos y pesados.

Durante búsqueda en tiempo real, podemos comprobar si estamos trabajando con un péptido pesado o liviano, después podemos excluir dinámicamente el otro de los pares, así que no tenemos que generar espectros redundantes.

Podemos también utilizar esta herramienta para trabajar con técnicas de etiqueta sitio-específicas tales como AHA etiqueta o etiqueta de la etiqueta de TEV. Por ejemplo, la etiqueta de AHA puede etiqueta la metionina, mientras que el marcar con etiqueta de TEV puede etiqueta la cisteína. Según la base de datos de UniProt, los aproximadamente 65% de péptidos no contienen la cisteína o la metionina. Con estos datos, podemos excluir muchos péptidos en el tiempo real, explorando selectivamente éstos como apropiados.

¿Cómo PaSER acomoda espectros dinámicos de PASEF y la cuantificación en tiempo real?

PaSER puede utilizar PASEF, o ponga en dirección paralela la fragmentación serial de la acumulación como parte de su operación. En cada ciclo de PASEF, combinamos marcos para construir una exploración de PASEF, pero dependiendo de la abundancia de iones, un ciclo de PASEF puede no tener suficiente iones para producir un resultado.

Aquí, la búsqueda en tiempo real puede verificar la muesca de la búsqueda y evaluar los espectros. Si esta verificación revela que la exploración pasiva requiere más señal, más marcos se pueden agregar para reforzar esto.

Necesitamos conocer el punto del ápice para poder accionar efectivo espectros en tándem, y podemos hacer esto durante búsqueda en tiempo real evaluando un cromatógrama y accionando solamente precursores una vez que se ha determinado el punto máximo del ápice. Podemos también eliminar dinámicamente el ión a partir del tiempo apropiado del filete de la exclusión a lo más.

Pasado, también estamos trabajando en capacidades en tiempo real de la cantidad con el timTOF. En vez de un área máxima típica de XYZ, podemos calcular el volumen de un péptido usando movilidad del ión.

Es también posible separar los péptidos co-que eluden con la identificación del péptido dentro de la búsqueda en tiempo real, significando que podemos realizar análisis cuantitativo paralelamente. Si estamos trabajando con experimentos múltiples, podemos también construir un fósforo entre las corridas mientras que nos movemos con el experimento.

Éstos son todos buenos ejemplos del uso creativo de las capacidades bidireccionales de la comunicación de PaSER.

¿Finalmente, dónde las otras plataformas de IP2 y de Bruker se sientan dentro de la industria más amplia de los datos y de conocimiento?

Ahora tenemos una amplia gama de herramientas que permitan que cataloguemos y que determinemos datos de la espectrometría de masa. La meta total, por supuesto, es determinar las cosas que llevan a los descubrimientos biológicos.

Con esto en mente, nuestro eslabón de usos a las herramientas de análisis de datos tiene gusto de Reactome, muchos cuyo puede ser alcanzado libremente vía el Internet. Hay las herramientas disponibles que pueden explorar rendimiento de la ontología del gen, por ejemplo escogiendo las veinte categorías más importantes superiores, mientras que mantiene la información sobre todas las categorías en el archivo sin procesar generado para poderlo examinar más lejos sin tener que reanalizarlo.

Mateo Lavallée-Adán y sus personas desarrolló una herramienta interna para nosotros llamó PSEA-Cantidad, que se diseña para el análisis determinado del enriquecimiento de la proteína. Esta herramienta fue basada en otras desarrolladas para el análisis determinado del enriquecimiento del gen, pero éstos se han optimizado para los datos escritura de la etiqueta-libres y escritura de la etiqueta-basados de la cuantificación de la proteína.

Total, compatibilidad entre las plataformas y las herramientas es un foco importante de nuestro trabajo.

Citations

Please use one of the following formats to cite this article in your essay, paper or report:

  • APA

    Bruker Daltonics. (2020, September 09). Exploración del lazo entre la espectrometría de masa y la informática. News-Medical. Retrieved on October 25, 2020 from https://www.news-medical.net/news/20200909/Exploring-the-Relationship-Between-Mass-Spectrometry-and-Informatics.aspx.

  • MLA

    Bruker Daltonics. "Exploración del lazo entre la espectrometría de masa y la informática". News-Medical. 25 October 2020. <https://www.news-medical.net/news/20200909/Exploring-the-Relationship-Between-Mass-Spectrometry-and-Informatics.aspx>.

  • Chicago

    Bruker Daltonics. "Exploración del lazo entre la espectrometría de masa y la informática". News-Medical. https://www.news-medical.net/news/20200909/Exploring-the-Relationship-Between-Mass-Spectrometry-and-Informatics.aspx. (accessed October 25, 2020).

  • Harvard

    Bruker Daltonics. 2020. Exploración del lazo entre la espectrometría de masa y la informática. News-Medical, viewed 25 October 2020, https://www.news-medical.net/news/20200909/Exploring-the-Relationship-Between-Mass-Spectrometry-and-Informatics.aspx.