Advertencia: Esta página es una traducción de esta página originalmente en inglés. Tenga en cuenta ya que las traducciones son generadas por máquinas, no que todos traducción será perfecto. Este sitio Web y sus páginas están destinadas a leerse en inglés. Cualquier traducción de este sitio Web y su páginas Web puede ser imprecisa e inexacta en su totalidad o en parte. Esta traducción se proporciona como una conveniencia.

La búsqueda de los nervios de la configuración automatiza el revelado de los modelos aprender-basados profundos para la investigación de cáncer

Los investigadores de Argonne han creado una búsqueda de los nervios de la configuración que automatiza el revelado de los modelos proféticos profundo-aprender-basados para los datos del cáncer.

Mientras que las bandas cada vez mayores de datos cerco y las escalas crecientes del poder de computación están ayudando a perfeccionar nuestra comprensión del cáncer, el revelado adicional de los métodos dato-impulsados para la diagnosis de la enfermedad, la detección y el pronóstico es necesario. Hay una necesidad determinada de desarrollar el profundo-aprendizaje de métodos -; es decir, algoritmos de aprendizaje de máquina capaces de extraer ciencia de datos no estructurados.

Los investigadores del Ministerio de los E.E.U.U. de laboratorio (DOE) nacional de Argonne de la Energía han hecho zancadas hacia acelerar tales esfuerzos presentando un método para la generación automatizada de redes neuronales.

Como se detalla en un papel para la presentación en la conferencia SC19, los investigadores, utilizando recursos de la instalación informática del liderazgo de Argonne (ALCF), una oficina de la GAMA de la instalación del utilizador de la ciencia, han establecido una búsqueda de los nervios de la configuración (NAS) que, para una clase de los datos representativos del cáncer, automatiza el revelado de modelos proféticos profundo-aprender-basados.

Qué estamos haciendo en este trabajo está, en vez de diseñar una red neuronal, nosotros diseña otra red neuronal que construya redes más de los nervios y pueda entrenarles. De acuerdo con la exactitud se logra que, esta red neuronal aprende despacio cómo construir mejores redes neuronales.”

Informático de Prasanna Balaprakash, de Argonne y autor importante del papel

Es decir él dijo, él es inteligencia artificial para la inteligencia artificial.

La NAS determina configuraciones de red neuronal profundas con menos parámetros trainable, tiempo de entrenamiento más corto, y exactitud que iguala o que supera el de sus contrapartes manualmente diseñadas.

Los usos de redes neuronales profundas extienden mucho más alla de la clasificación simple. Las tareas complejas para las redes neuronales usadas en la investigación de cáncer pudieron incluir la determinación de cómo diversas combinaciones de drogas obran recíprocamente con uno a y su impacto en las células del tumor. Pero construir estas redes para lograr tal complejidad puede probar una tarea incómoda y que toma tiempo, una diseñada a menudo con ensayo y error.

Por otra parte, la investigación de cáncer y el descubrimiento requieren tipos numerosos y diversos de grupos de datos, muchos cuyo sea no estructurado y no contenga las imágenes o el texto. De esta multitud, el diseño manual de redes neuronales amenaza convertirse en un atascamiento mientras que los investigadores invierten mucha hora y energía que intentan igualar un grupo de datos dado con el tipo correcto de red neuronal para construir modelos proféticos.

“Si automatizamos este proceso del acoplamiento,” Balaprakash dijo, los “científicos tendrán la capacidad de construir un modelo en cuestión de horas como opuesto el pasar de las semanas que trabajan en el revelado manual. La construcción de un modelo entonces arriesgará no más el convertirse en un atascamiento, y el régimen más rápido de la estructura significa que podemos dedicar más tiempo a activar límites científicos con el modelado profético y así sucesivamente.”

Las diferencias entre el diseño automatizado y manual están golpeando inmediatamente. Considerando que el modelo manualmente diseñado ofreció unos 10 millones de parámetros, el modelo máquina-diseñado logró el mismo grado de exactitud con apenas un millón parámetros. Un modelo con un número más pequeño de parámetros, mientras que es más robusto que un modelo del mucho-parámetro, también tiene la ventaja de requerir menos datos.

“Usando el sistema de la theta del ALCF, mostramos eso con el diseño automatizado, entrenamiento perfeccionado por un factor entre tres y cuatro, así que significa que podemos entrenar este las cuatro épocas modelo más rápidamente que podríamos este modelo más abultado que tiene lejos más parámetros,” Balaprakash dijimos. “Ese podemos entrenarle más rápido significamos que podemos construir modelos más rápidamente; esto, a su vez, significa que podemos activar la tubería del droga-descubrimiento más rápidamente.”

De hecho, la NAS pronto comenzará a producir impactos en el dominio de la investigación de cáncer.

“Soportes de los nervios de la búsqueda de la configuración para acelerar dramáticamente nuestra capacidad de construir modelos robustos del aprendizaje de máquina,” dijo a Rick Stevens, el director del laboratorio del socio de Argonne para calcular, ambiente y ciencias de la vida, y un co-autor del papel. “Proyectamos pronto integrar esta tecnología en nuestro marco exascale-optimizado del flujo de trabajo de la BUJÍA (ambiente de aprendizaje distribuido cáncer) y somos impacientes ver estos resultados.”

El marco de la BUJÍA permite a mil millones de drogas virtuales ser revisado individualmente y en combinaciones numerosas mientras que predice sus efectos sobre las células del tumor.

Las ramificaciones más amplias del papel para la ciencia de los datos podían demostrar ser altamente consecuentes. Por consiguiente, los planes para la NAS desarrollada no se limitan a los estudios del cáncer. Los investigadores están observando ya para aplicar su método a otras disciplinas científicas, incluyendo la previsión meteorológica, la dinámica de fluidos, la ciencia material y la química.

La previsión meteorológica es realizada vía simulaciones de cómputo costosas -; el ejecutarse en modelos manualmente diseñados -; eso explica un arsenal extenso de parámetros. Los investigadores, sin embargo, aprovecharon su NAS para generar de la previsión meteorológica de la talla del modelo un áspero un décimo de sus contrapartes humano-construidas y lograron un speedup décuplo correspondiente por la comparación.

La ciencia material y la química, mientras tanto, se ponen de pie para beneficiarse de la NAS debido a su confianza en datos no estructurados en donde las moléculas y otros componentes son representados por los gráficos.

Con su puesta en vigor en el marco del flujo de trabajo de la BUJÍA inminente y la era del exascale que asoma, es solamente una cuestión de tiempo antes de que los efectos de la NAS sean fieltro.

La “optimización de la NAS y del hyperparameter será vital al descubrimiento científico dato-impulsado productivo y una carga de trabajo dominante en los superordenadores actuales y futuros, incluyendo el sistema próximo del exascale de la aurora de Argonne,” dijo el guía Venkat Vishwanath, co-autor del grupo de la ciencia del informático de Argonne y de los datos de ALCF del papel. “El laboratorio está ayudando a pavimentar la manera para estos métodos con el revelado de DeepHyper, un empaquetar escalable para la optimización de la NAS y del hyperparameter, y el servicio del flujo de trabajo del bálsamo, que habilita la ejecución efectiva de DeepHyper en sistemas masivo paralelos.”

El papel de las personas, “búsqueda de los nervios Refuerzo-Aprender-Basada escalable de la configuración para la investigación de aprendizaje profunda del cáncer,” será presentado en la conferencia SC19 el 20 de noviembre de 2019. Otros co-autores de Argonne incluyen Román Egele, Misha Salim, Stefan salvaje, Fangfang Xia y a Tom Brettin.