Implementación de una Red Neuronal Convolucional para Distinguir entre Patrones Radiológicos de COVID-19 y Neumonía en Imágenes Tomográficas de Tórax

 

Carlos Jesús Rivero López[1]

212T0027@itsm.edu.mx

https://orcid.org/0009-0000-0034-7723

Tecnológico Nacional de México Campus Instituto Tecnológico Superior de Misantla

México

José Guzmán Irahan  Otoniel

iojoseg@itsm.edu.mx

https://orcid.org/0000-0001-5336-0198

Tecnológico Nacional de México Campus: Instituto Tecnológico Superior de Misantla

País México

Galdino Martínez Flores

gmartinezf@itsm.edu.mx

https://orcid.org/0000-0003-4981-8631

Tecnológico Nacional de México Campus: Instituto Tecnológico Superior de Misantla

México

 

Isaías Avendaño Cortes

iavendanoc@huatusco.tecnm.mx

https://orcid.org/0000-0002-8873-0600

Tecnológico Nacional de México Campus: Instituto Tecnológico Superior de Huatusco

México

RESUMEN

En el año 2020, la Organización Mundial de la Salud (OMS) proclamó la existencia de una pandemia originada por el coronavirus (COVID-19), cuyo brote inicial tuvo lugar en Wuhan, China. Este virus ha tenido un impacto devastador, cobrando la vida de miles y afectando a millones en todo el mundo. Sus síntomas, que incluyen tos, fiebre, fatiga y disnea, se asemejan a los de una gripe común. La propagación del virus ocurre principalmente a través de partículas respiratorias emitidas por personas infectadas, las cuales pueden depositarse en los ojos, boca o nariz de otras personas. Para confirmar la infección, se utilizan dos tipos de pruebas: la prueba de reacción en cadena de la polimerasa con transcripción inversa (RT-PCR) y las pruebas de antígenos. Sin embargo, debido a sus procesamientos, estas pruebas pueden demorar en proporcionar resultados definitivos. Es en este contexto que la inteligencia artificial y las técnicas de Machine Learning (ML) se presentan como herramientas valiosas para mejorar la detección del virus en los pulmones de manera eficiente. En este trabajo, se propone la implementación de una Red Neuronal Convolucional (CNN) para la detección temprana de pacientes con COVID-19. Se utiliza un conjunto de datos compuesto por 3616 imágenes de rayos X de tórax, empleando una red neuronal preentrenada denominada VGG16. A través del entrenamiento, se logra una precisión óptima en la clasificación de las imágenes en las categorías de COVID y Neumonía.

 

 

Palabras clave: procesamiento de imágenes; toma de decisiones; análisis multivariable


 

Implementation of a Convolutional Neural Network to Distinguish between Radiological Patterns of COVID-19 and Pneumonia in Chest CT Images

 

ABSTRACT

In 2020, the World Health Organization (WHO) proclaimed the existence of a pandemic originating from the coronavirus (COVID-19), the initial outbreak of which occurred in Wuhan, China. This virus has had a devastating impact, claiming the lives of thousands and affecting millions worldwide. Its symptoms, which include cough, fever, fatigue and dyspnea, resemble those of a common flu. Spread of the virus occurs primarily through respiratory particles emitted by infected people, which can be deposited in the eyes, mouth or nose of others. Two types of tests are used to confirm infection: reverse transcription-polymerase chain reaction (RT-PCR) and antigen testing. However, due to their processing, these tests can take time to provide definitive results. It is in this context that artificial intelligence and Machine Learning (ML) techniques are presented as valuable tools to improve virus detection in lungs in an efficient way. In this work, the implementation of a Convolutional Neural Network (CNN) for the early detection of patients with COVID-19 is proposed. A dataset composed of 3616 chest X-ray images is used, employing a pre-trained neural network named VGG16. Through training, optimal accuracy in classifying images into COVID and Pneumonia categories is achieved.

 

Keywords: Image processing; decision making, multivariable analysis

 

 

Artículo recibido 25 noviembre 2023

Aceptado para publicación: 30 diciembre 2023

 


 

INTRODUCCIÓN

La prevalencia  de la fase epidémica del actual  virus presente  en nuestra sociedad llamado COVID-19,  hace que prácticamente cualquier  opacidad  pulmonar en una  radiografía  de tórax  se pueda  interpretar por  una  neumonía  por  SARS-CoV-2,  sin embargo  algunas características clínicas distintas entre  pacientes  enfermos con Covid y los que sufren de una  neumonía común,  han  sugerido que la respuesta inmune  al virus en la concavidad situada al final de los bronquios  el cual es infectado,  difiere de otros tipos de neumonía. Investigadores de la  Nortwestern Medicine  University   (Grant et  al.,  2021)  recogieron muestras de líquido de lavado broncoalveolar de 88 pacientes  con insuficiencia respiratoria inducida  por SARS-CoV-2 y en 211 casos con sospecha  neumonía de otros  patógenos como lo son bacterias y hongos dentro  de las 48 horas  posteriores  a la intubación.  Los síntomas comunes de COVID-19 incluye fiebre, tos seca, dolores musculares, dolor  de garganta, fatiga,  anosmia  e hipogeusia.    A comparación de una neumonía los cuales los pacientes pueden experimentar disnea, agitación, confusión o inclusive conjuntivitis (Marín,  2021).  Cuando se tiene en cuenta el amplia visión de manifestaciones clínicas y la creciente carga mundial del virus  COVID-19,  es importante y necesario  aumentar la capacidad de diagnóstico  del personal  médico  alrededor  del mundo. Actualmente  las técnicas  de Inteligencia  Artificial  han  brindado una  variedad  de soluciones  a distintos problemas  dentro  de diferentes  sectores  de la sociedad,  los cuales en los último  par  de años el sector medico a padecido de una pandemia originada por el virus SARS-CoV-2 que tiene múltiples  secuelas o daño en los pulmones que conllevan a enfermedades  tales desde un  resfriado  común  hasta  enfermedades  respiratorias más  graves  y agudas,  su primera aparición  fue en Wuhan  China  en diciembre  del 2020 (Zhu,  2020) , posteriormente se extendió  por el mundo declarándola como pandemia global por la Organización  Mundial de la Salud  (Gorbalenya, 2020).  El virus que anteriormente no se había detectado en personas, puede transmitirse a través  de  gotas  que  se expulsan  mediante la  tos,  los estornudos o al hablar  durante un tiempo prolongado,  estas gotas son inhaladas o pueden caer en una  superficie en la que las personas  puedan  tener  contacto con ella y al entrar en contacto con la boca, nariz u ojos pueden contaminarse. Actualmente la gente ha sido infectada en todas las partes del mundo cobrándose muchas vidas (Figura  1)

La pandemia de coronavirus ha producido miles de víctimas y ha afectado a millones de personas en todo  el mundo.   Cualquier dispositivo tecnológico que permita la detección acelerada de  la  infección  por  COVID-19  con  alta  precisión  puede  ser  de  gran  ayuda para  los profesionales  de  la  salud.   Según Chowdhury et  al.   (2020), las imágenes de rayos  X son una  herramienta de fácil acceso que  se utiliza  para  diagnosticar casos de COVID-19.   Sin embargo, aunque las imágenes regulares de rayos X de tórax  (XCR) pueden mejorar  la detección temprana de casos sospechosos, las imágenes de varios casos virales de neumonía  son similares.  Por lo tanto, es difícil para los radiólogos distinguir el COVID-19 de otros casos virales de neumonía.  Esta base de datos y la investigación en curso se realizan para investigar  la utilidad de la inteligencia artificial (IA) en la detección rápida  y precisa de COVID-19 a partir de imágenes de rayos X de tórax.

Al día de hoy, existen  muchas  complicaciones  biomédicas  de  la  salud  (p.   ej., detección de cáncer de mama,  detección  de tumores  cerebrales,  etc.)   las cuales aprovechan de soluciones que tienen con base  la Inteligencia  Artificial  (Chowdhury et  al.,  2019a)

Figura 1: Estadísticas de Defunción México 2022 Epidemiologia  (2022)

Gráfico

Descripción generada automáticamente

 

(Chowdhury et al., 2019b) (Kallianos  et al., 2019). Al hacer uso de técnicas de Machine Learning  (ML), se pueden  detectar rasgos de la imagen que no pueden  ser apreciables  en imágenes originales ,centrándonos en una técnica  de aprendizaje supervisado  como lo es una  Red Neuronal  Convolucional  (CNN),  la cual nos permite  en el sector médico poder analizar  radiografías  de tórax,  y poder revelar  aspectos  de la imagen que no son visibles en las imágenes  originales,  Se ha  demostrado que una  Red  Neuronal  Convolucional  es beneficiosa en la extracción  y en el aprendizaje de características, por lo cual su popularidad dentro  del campo de la investigación  (Krizhevsky, 2012), Las técnicas de aprendizaje profundo  dentro  de las radiografías  de tórax  han  sido de gran  ayuda,  ya que en diferentes  aplicaciones  los resultados de la misma  han  sido prometedores, dentro  de la CNN desarrolla  en lenguaje de programación Python ocupando  la librería  Keras y una red pre- entrenada cómo es el modelo VGG16, la cual nos ayuda  a que sea una arquitectura fácil de entender  y de implementar, entre  el 96% y 97% logró obtener  en la competencia de ImageNet  (Russakovsky et al., 2015), ya que su arquitectura se construye  de 13 capas convolucionales y 3 densas, existen redes disponibles en la librería  de Keras cómo lo son; Xception,  InceptionV3, ResNet50,  VGG16,  VGG19 y MobileNet,  la actual  arquitectura puede compararse con el modelo VGG19 la cual es una variante con más capas de cálculo que la VGG16, pero una de sus desventajas es que es más pesada  a la hora de almacenar memoria  y en cuestión  de requerimientos en el procesamiento del cómputo.   Al usar la arquitectura VGG16 preentrenada con la base de datos de ImageNet,  nos permite  que a la hora de poder extraer rasgos, codifica de una manera  efectiva las relaciones que hacen a los objetos  distinguibles, y poder  clasificar rasgos distintivos entres  las enfermedades pulmonares.

Este articulo  presenta un estudio  de clase de implementación de una  CNN para  poder identificar  y posteriormente clasificar dependiendo  el daño en los pulmones , en diferentes clases cómo lo son:  COVID  y NEUMONIA  , considerando imágenes  de radiografías  de tórax  (CXR)  obtenidas de  la  plataforma Kaggle,  el cual  es un  conjunto  de  datos  de investigación  abierta, que lleva por nombre  COVID-19  Radiography Database , la cual cada  imagen  fue preprocesada para  sacar  el mejor  conjunto  de características que nos permitan identificar  las enfermedades  previamente mencionadas, a su vez se aplica  un algoritmo  de aumento de datos  que permita evitar  un sobre ajuste  en la base de datos e incrementar con  datos  sintéticos  el tamaño de  la  muestra en  el entrenamiento.   El presente trabajo incluye:

1.       Una implementación de una arquitectura de una Red Neuronal  Convolucional para  la detección  de pacientes  que  tengan  el virus  COVID-19,  comparando las características con neumonía  , implementando un dataset de imágenes de rayos X del tórax  . La cual son nuestros datos de entrada para posteriormente extraer las características más importantes con las capas de convolución, esto con la ayuda  de una arquitectura VGG16 preentrenado de Keras,  para  final- mente  clasificar en dos clases distintas COVID y NEUMONIA.

2.       Una implementación en una pagina web con Flask el cual es una herramienta escrita en Python, el cual es un microframework  ya que no requiere  librerías en particular y tampoco  tiene capas de abstracción de base de datos,  y puede verse de una  manera  sencilla y clara  a la hora  de cargar  una  imagen y ver la predicción  de la CNN.

3.       Opción de poder  reentrenar la CNN  y poder  guardar nuevos  modelos  cada que se requiera  y poder visualizarlo  nuevamente en la página  web.

METODOLOGÍA

El objetivo del estudio consiste en entrenar una red convolucional con imágenes  de radiografías  de tres  tipos  de pacientes:   sin ninguna  afección pulmonar (Normales),   que presentan síntomas  de COVID-19 y personas  con síntomas  de neumonía  no relacionados con dicho virus.

Conjunto de datos de neumonía y SARS-CoV2

Actualmente los sistemas de Machine  Learning  y Deep Learning  necesitan  aprender de datos,  en este caso imágenes, que reflejen lo que después tendrán que detectar automáticamente.    En concreto, para el desarrollo del modelo  de  clasificación  de  radiografías, contamos  con la siguiente  información:

El conjunto  de datos  que  se utilizó  para  el presente  trabajo de investigación  se obtuvieron de [6] dónde  un equipo de investigadores de la Universidad de Qatar, Doha y la Universidad de Dhaka,  Bangladesh  en colaboración  de Pakistán y Malasia,  junto  con médicos especializados,  crearon una base de datos de imágenes de Rayos X de tórax  para casos positivos  de SARS-CoV2 , que a su vez tiene conjunto  de imágenes de neumonía normal, el cual ambas se ocuparán para poder clasificar dichas enfermedades  con técnicas de Machine  Learning,  el cual  dicho  dataset de imágenes  estuvo  dividido  en etapas, en la primera, se publicaron  219 imágenes  de radiografía  de tórax  (Figura  2) (CXR)  del virus  COVID-10,  1341 normales  y 1345 de neumonía viral.   En la segunda etapa se actualizaron los conjuntos a 1200 imágenes CXR, y por último se aumentaron para tener un total de 10192 imágenes de CXR y 6012 de opacidad pulmonar (Infección pulmonar no COVID)  y 1345 de neumonía viral.

Se ocupó un aprendizaje supervisado para etiquetar, clasificar dichas imágenes y así poder entrenar una Red Neuronal Convolucional  (CNN) la clasificación serán 2 etiqueta

 

Figura 2: SARS-Cov2, neumonía

Texto

Descripción generada automáticamente con confianza baja

Modelo de clasificación de radiografías de COVID-19

La implementación de algoritmos de soporte de decisiones clínicas para imágenes  médicas enfrenta  desafíos con confiabilidad  e interpretabilidad. Aquí, establecemos una herramienta de diagnóstico basada en un marco de aprendizaje profundo para la detección de pacientes con infección por el virus SARS-CoV2 y neumonía. Nuestro marco utiliza el aprendizaje por transferencia, que entrena una red neuronal convolucional con base dataset previamente mencionado.   Al aplicar este enfoque a un conjunto de datos de imágenes CXR y neumonía, se demuestra un rendimiento comparable  al de los expertos  humanos  en la clasificación de dichas  enfermedades.   También se proporciona un diagnóstico más transparente e interpretable al resaltar las regiones reconocidas por la red neuronal.  Además, se puede demostrar la aplicabilidad general de nuestro sistema de IA para el diagnóstico mediante imágenes de rayos X de tórax.  En última instancia, esta herramienta puede ayudar a acelerar el diagnóstico y la interpretación de estas afecciones tratables, lo que facilita un tratamiento más temprano y mejora los resultados clínicos.

El desarrollo de capas de redes neuronales  convolucionales  ha permitido avances  significativos  en la capacidad de clasificar  imágenes  y detectar objetos  en una  imagen  [7]. Estas son múltiples capas de procesamiento a las que se aplican filtros de análisis  de imágenes o convoluciones.  La representación abstracta de imágenes dentro de cada capa se construye mediante la convolución sistemática de varios filtros en la imagen,  lo que produce  un mapa  de características que se utiliza  como entrada para  la siguiente  capa. Esta arquitectura permite procesar imágenes en forma de píxeles como entrada y dar la clasificación deseada como salida.  El enfoque de imagen a clasificación en un clasificador reemplaza los múltiples pasos de los métodos de análisis de imágenes anteriores (Figura 3).

 

Figura 3: Metodología

Diagrama, Escala de tiempo

Descripción generada automáticamente

Proceso de generación de imágenes

Para poder entrenar de manera eficiente nuestra Red Neuronal Convolucional,  el aumento de datos de las imágenes es una técnica que se puede utilizar para expandir  artificialmente el tamaño de un conjunto  de datos, imágenes, esto mediante la creación de variaciones precisamente de las imágenes a procesar.  La ventaja de poder ocupar ésta  técnica  es la obtención  de modelos más eficientes y un resultado acorde  a lo aprendido en las nuevas imágenes generadas.

Keras  es una biblioteca  orientada a las redes neuronales  de aprendizaje profundo  (Deep Learning)  el cual nos permite  ajustar modelos mediante el aumento de datos de imágenes a través  del ImageDataGenerator.

Se define un método para generar imágenes para entrenamiento (Train) y para el apartado de validación (Valid ) donde  en dicho  método  se ocuparán variables  específicas para  el aumento de datos  como lo son:

Train & Valid:   Un  rango  de  rotación  que  permita mover  la  imagen  20 grados  cada iteración,  al igual que un rango  de zoom del 0,2 el cual se configura  como si fuera una fracción donde el valor total  es 1, en el cual la imagen permanece  sin ese zoom, con dicha medida establecida hace un aumento del 20% a la imagen que está siendo procesada,  a su vez asignaremos un rango de desplazamiento el cual en el presente trabajo de investigación pondremos  valores  0.1 ya que equivale  a un mismo movimiento  del 10%, dentro  de los atributos está  la  opción  de  hacer  un  efecto  espejo  en  la  imagen  la  cual  activaremos, caso contrario del efecto que pone de cabeza la imagen el cual permanecerá desactivado (Figura  4).

Figura 4: ImageDataGenerator.

 Imagen que contiene Texto

Descripción generada automáticamente

 

 

Modelo VGG16 para CNN.

Simonyan  and  Zisserman  (2014) con el artículo  que lleva por nombre  Very  Deep Convolutional  Networks  for Large-Scale  Image  Recognition   propusieron  un  modelo de Red Neuronal  Convolucional,  dicho  modelo  logra  tener  una  precisión  de prueba  del 92.7% quedando  entre  los cinco primero en ImageNet  Krizhevsky  (2012), el cual es un conjunto de datos  de aproximadamente 14 millones de imágenes el cual se clasifican en 1000 clases distintas.  Dicho modelo fue uno de los más famosos presentados a ILSVRC-2014  Russakovsky et al. (2015) el cual se puede notar  una mejora  respecto  a AlexNet al sustituir filtros grandes  del tamaño del kernel (11 y 5 en la primera  y segunda capa convolucional) con múltiples  filtros del tamaño del kernel 3x3 uno tras  otro.  El modelo VGG16 ocupó una GPU NVIDIA Titan Black.

Se muestra la arquitectura VGG16 (Figura 4) la cual la entrada a la primera  capa de convolución es imagen de 224 x 224. Dicha figura pasa a través de un conjunto de capas convolucionales (conv ), donde los filtros se ocuparon  con un campo receptivo de una tamaño pequeño:  3 x 3 el cual permite  capturar la noción de arriba/abajo  ,izquierda/derecha y el centro.

Figura 5: Arquitectura VGG16.

 Diagrama

Descripción generada automáticamente


 

RESULTADOS Y DISCUSIÓN

En este trabajo de investigación se ha estudiado el modelo  preentreado de Keras  que tiene por nombre VGG16, dicha arquitectura tiene como objetivo tener una clasificación óptima  para  poder asignar  etiquetas a tomografías  del virus SARS-CoV2 y neumonía, con la ayuda  de una  técnica  de Machine  Learning  como lo son las  Redes  Neuronales Convolucionales  (CNN).

Comparando un sistema automático capaz de  poder  analizar  una  imagen  de  rayos  X de tórax  de un  paciente  enfermo  por  el virus  SARS-Cov2  , a diferencia  de la prueba tradicional PCR, dicho sistema puede tener una respuesta en cuestión de segundos, acerca de la situación  en la que se pueda  encontrar el paciente.   Ya que al ser programado con una Red  Neuronal  Convolucional   ,  nos  da  la  ventaja de  que  dichas  capas  tienes  un orden  el cual se va procesando  la imagen  CXR,  las capas  más utilizadas son:  (i) capas convolucionales , los cuales tienen n filtros dedicados a generar n mapas de características. (ii) Capas de submuestreo, el cual cada mapa de características se submuestrea por lo general mediante una operación de agrupación con base al valor máximo , le cual lleva por nombre  Max Pooling, el cual auxilia a poder reducir  progresivamente el tamaño espacial de la representación y la cantidad de parametros a entrenar. (iii) Capas densas, las cuales son capas con neuronas respectivamente conectadas.

En la Figura 6 se puede  mostrar cómo está  compuesta  la arquitectura propuesta por (Simonyan  and  Zisserman,  2014) la cual  en la primera  columna  se muestra el número de  capa  y el tipo  de  operación,  la  segunda  columna  indica  la  cantidad de  mapas  de características. Por ultimo tenemos el tamaño , que indica  el número  de características de salida  de cada  una  de las capas,  el propósito  de usar  dicho  modelo  es clasificar  la imagen de entrada en una de varias  clases según el conjunto  de datos  de entrenamiento.

Figura 6: Modelo VGG16

Tabla

Descripción generada automáticamente con confianza media

El sistema se implementó en Python, usando la librería Flask  para  poder  visualizar los datos  de una  mejor  manera  usando  un  servidor  web,  en una  computadora con un procesador  Ryzen 7 serie 4000 con una memoria de 16 GB DDR4, y un sistema operativo Windows 10 Pro,  con una tarjeta gráfica NVIDIA 2060 RTX.

En la figura 7, se muestra una de las dos gráficas obtenidas de los resultados de entrenamiento y validación, la cual son métricas utilizadas para poder evaluar como un modelo se ajusta a los datos de entrenamiento, dicho de otra manera puede evaluar el error del modelo sobre el conjunto de entrenamiento. Se ocuparon 100 épocas para poder entrenar el modelo, esto nos informa si necesita ajustes o no, el cual al principio se puede observar como la perdida de entrenamiento (Loss Training) y la perdida de evaluación (Loss Validate) disminuyen y se empiezan a estabilizar conforme avanzan las épocas

Figura 7: Loss Plot.

Gráfico, Gráfico de líneas

Descripción generada automáticamente

 

En la figura 8, se puede observar la precisión que tiene el modelo y como se va ajustando conforme pasan las épocas, el cual al principio no está estabilizado pero conforme va procesando las imágenes se observa una mejora en la precisión del modelo en la época 100.

Figura  8: Accuracy  Plot.

Gráfico, Gráfico de líneas, Gráfico de dispersión

Descripción generada automáticamente

 

CONCLUSIONES

El sistema automático desarrollado, capaz de analizar imágenes de rayos X de tórax de pacientes afectados por el virus SARS-CoV-2, presenta la ventaja de proporcionar respuestas en cuestión de segundos, a diferencia de las pruebas PCR que pueden ser más prolongadas. La utilización de una Red Neuronal Convolucional aprovecha la estructura ordenada de sus capas, resaltando las capas convolucionales, las capas de submuestreo mediante Max Pooling para reducir el tamaño espacial de la representación, y las capas densas con neuronas conectadas respectivamente. Estos elementos permiten un procesamiento eficiente de las imágenes CXR, contribuyendo de manera significativa a la detección rápida y precisa de la condición del paciente.

En conclusión, este enfoque representa un avance prometedor en la detección temprana de infecciones por SARS-CoV-2, al proporcionar una herramienta ágil y efectiva que tiene el potencial de mejorar significativamente la rapidez y eficiencia en el diagnóstico. Las implicaciones positivas de este enfoque se reflejan en el manejo clínico de la enfermedad, ofreciendo una contribución valiosa al contexto de la atención médica actual.

REFERENCIAS BIBLIOGRAFICAS

Boone, J. M., Seshagiri,  S., and  Steiner,  R. M. (1992).  Recognition  of chest  radiograph orientation for picture  archiving  and  communications  systems  display  using  neural networks.  Journal of Digital Imaging, 5(3):190–193.

Chowdhury, M. E., Alzoubi, K., Khandakar, A., Khallifa,  R., Abouhasera, R., Koubaa, S., Ahmed,  R., and Hasan,  A. (2019a).  Wearable  real-time  heart attack detection  and warning  system  to reduce road accidents.  Sensors,  19(12):2780.

Chowdhury, M. E.,  Khandakar, A.,  Alzoubi,  K.,  Mansoor,  S., M Tahir,  A.,  Reaz,  M. B. I., and Al-Emadi,  N. (2019b).  Real-time  smart-digital stethoscope  system for heart diseases monitoring. Sensors,  19(12):2781.

Epidemiologia,  D. G. (2022).  COVID-19 Tablero  México.

Gorbalenya, Alexander  E y Baker,  S. C. y. B. R. y. G. R. J.  d. y. D. C. y. G. A. A. y. H. B. L. y. L. C. y. L. A. M. y. N. B. W. y. o. (2020).  Coronavirus relacionado  con el síndrome  respiratorio agudo severo:  la especie y sus virus:  una  declaración  del grupo de estudio  de coronavirus.

Gozes, O., Frid-Adar, M., Greenspan, H., Browning, P. D., Zhang, H., Ji, W., Bernheim, A., and  Siegel, E. (2020).  Rapid  ai development cycle for the  coronavirus  (covid-19) pandemic:   Initial  results  for automated detection  & patient monitoring using  deep learning  ct image analysis.  arXiv preprint arXiv:2003.05037.

Grant, R. A., Morales-Nebreda, L., Markov,  N. S., Swaminathan, S., Querrey,  M., Guz- man, E. R., Abbott, D. A., Donnelly, H. K., Donayre,  A., Goldberg,  I. A., et al. (2021). Circuits  between  infected  macrophages and  t cells in sars-cov-2  pneumonia.  Nature,590(7847):635–641.

Kallianos,  K., Mongan,  J.,  Antani, S., Henry,  T.,  Taylor,  A., Abuya,  J.,  and  Kohli, M. (2019).  How far have we come?  artificial  intelligence  for chest  radiograph interpreta- tion.  Clinical  radiology, 74(5):338–345.

Kayalibay, B.,  Jensen,  G.,  and  van  der  Smagt,  P.  (2017).   Cnn-based  segmentation of medical imaging data.  arXiv preprint arXiv:1701.03056.

Kermany, D.  S.,  Goldbaum, M.,  Cai,  W.,  Valentim, C.  C.,  Liang,  H.,  Baxter,   S. L., McKeown, A., Yang, G., Wu, X., Yan, F., et al. (2018).  Identifying  medical diagnoses and treatable diseases by image-based  deep learning.  Cell, 172(5):1122–1131.

Krizhevsky,  Alex y Sutskever,  I. y. H. G. E. (2012).  Clasificación de imagenet  con redes neuronales  convolucionales  profundas.   Avances  en los sistemas  de procesamiento  de información neuronal, 25.

Marín,  J.  E.  O.  (2021).   Sintomatología no  respiratoria de  covid-19.   Alerta,   Revista científica  del Instituto Nacional  de Salud, 4(2):61–68.

Rajaraman, S., Candemir, S., Kim, I., Thoma,  G., and Antani, S. (2018).  Visualization and interpretation of convolutional neural network  predictions in detecting  pneumonia in pediatric chest radiographs. Applied Sciences,  8(10):1715.

Russakovsky,  O., Deng, J., Su, H., Krause,  J., Satheesh,  S., Ma, S., Huang, Z., Karpathy, A., Khosla,  A., Bernstein, M., Berg,  A. C.,  and  Fei-Fei,  L. (2015).   ImageNet  Large Scale Visual Recognition Challenge. International Journal of Computer  Vision (IJCV),115(3):211–252.

Simonyan,  K. and Zisserman, A. (2014). Very deep convolutional networks  for large-scale image recognition.  arXiv preprint arXiv:1409.1556.

Xu, X., Jiang,  X., Ma, C., Du, P.,  Li, X., Lv, S., Yu, L., Ni, Q., Chen,  Y., Su, J.,  et al. (2020).  A deep learning  system  to screen novel coronavirus  disease 2019 pneumonia. Engineering,  6(10):1122–1129.

Zhang,  J.,  Xie, Y., Pang,  G., Liao, Z., Verjans,  J.,  Li, W., Sun, Z., He, J.,  Li, Y., Shen, C.,  et  al. (2020).   Viral  pneumonia screening  on chest  x-rays  using confidence-aware anomaly  detection. IEEE  transactions on medical imaging, 40(3):879–890.

Zhu, Na y Zhang, D. y. W. W. y. L. X. y. Y. B. y. S. J. y. Z. X. y. H. B. y. S. W. y. L. R. y. o. (2020).  Un nuevo coronavirus  de pacientes  con neumonía  en china,  2019. Diario de medicina  de Nueva Inglaterra.

 



[1] Autor princpal

Correspondencia: 212T0027@itsm.edu.mx