RECONOCIMIENTO DE FLORES ENDÉMICAS
DE LA REGIÓN DE MISANTLA A TRAVÉS DE
UNA RED NEURONAL CONVOLUCIONAL
USANDO APRENDIZAJE POR
TRANSFERENCIA
RECOGNITION OF ENDEMIC FLOWERS FROM THE
MISANTLA REGION THROUGH A CONVOLUTIONAL
NEURAL NETWORK USING TRANSFER LEARNING
Galdino Martínez Flores
Tecnológico Nacional de México Campus Instituto Tecnológico Superior de Misantla - México
Irahan Otoniel José Guzmán
Tecnológico Nacional de México Campus Instituto Tecnológico Superior de Misantla - México
Guadalupe Guendulay Escalante
Tecnológico Nacional de México Campus Instituto Tecnológico Superior de Misantla - México
Adrian Basilio López
Tecnológico Nacional de México Campus Instituto Tecnológico Superior de Misantla - México
pág. 3962
DOI: https://doi.org/10.37811/cl_rcm.v8i6.15136
Reconocimiento de flores endémicas de la región de Misantla a través de una
red neuronal convolucional usando aprendizaje por transferencia
Galdino Martínez Flores1
gmartinezf@itsm.edu.mx
https://orcid.org/0000-0003-4981-8631
Tecnológico Nacional de México Campus
Instituto Tecnológico Superior de Misantla
México
Irahan Otoniel José Guzmán
iojoseg@itsm.edu.mx
https://orcid.org/0000-0001-5336-0198
Tecnológico Nacional de México Campus
Instituto Tecnológico Superior de Misantla
México
Guadalupe Guendulay Escalante
gguendulaye@itsm.edu.mx
https://orcid.org/0009-0008-5626-5741
Tecnológico Nacional de México Campus
Instituto Tecnológico Superior de Misantla
México
Adrian Basilio López
182t0420@itsm.edu.mx
https://orcid.org/0009-0008-8596-8809
Tecnológico Nacional de México Campus
Instituto Tecnológico Superior de Misantla
México
RESUMEN
Las redes neuronales convolucionales (CNN) extraen características relevantes de imágenes para
clasificarlas y asignarlas a categorías predefinidas. Se emplena en áreas como la medicina, la seguridad,
tranporte, sector agrícola, entre otras. En esta investigación se propone desarrollar una aplicación móvil
que identifique de manera automática flores endémicas de la región de Misantla mediante estrategias de
aprendizaje por transferencia de redes neuronales convolucionales (CNN). Este trabajo es de gran
importancia principalmente para el sector turístico y educación básica de esta región del estado de
Veracruz. Se reutiliza una duente de datos (dataset) de flores denominada Flowers Dataset de la
plataforma en línea Kaggle y se complementan con imágenes de flores de la región. para que puedan
ayudarnos a cumplir con los objetivos de este trabajo de investigación. Los resultados muestran que el
modelo obtiene una exactitud variable dependiendo de ciertos elementos que influyen en la calidad de
la imagen principalmente condiciones ambientales, algunas pruebas alcanzaron el 88 por ciento como
mínimo y el 99 porciento como máximo.
Palabras clave: aprendizaje por transferecnia, redes neuronales convolucionales, aprendizaje
automático, reconocimieto de patrones
1
Autor principal
Correspondencia: gmartinezf@itsm.edu.mx
pág. 3963
Recognition of endemic flowers from the Misantla region through a
convolutional neural network using transfer learning
ABSTRACT
Convolutional neural networks (CNN) extract relevant features from images to classify them and assign
them to predefined categories. It is used in areas such as medicine, security, transportation, agriculture,
among others. In this research we propose to develop a mobile application that automatically identifies
endemic flowers of the Misantla region using convolutional neural network (CNN) transfer learning
strategies. This work is of great importance mainly for the tourism sector and basic education in this
region of the state of Veracruz. A dataset of flowers called Flowers Dataset from the online platform
Kaggle is reused and complemented with images of flowers from the region, so that they can help us to
fulfill the objectives of this research work. The results show that the model obtains a variable accuracy
depending on certain elements that influence the quality of the image, mainly environmental conditions,
some tests reached 88 percent as a minimum and 99 percent as a maximum.
Keywords: transfer learning, convolutional neural networks, machine learning, pattern recognition
Artículo recibido 19 octubre 2024
Aceptado para publicación: 28 noviembre 2024
pág. 3964
INTRODUCCIÓN
La inteligencia artificial en diversos sectores es cada vez más utilizada. En el sector agrícola destacan
principalmente los sistemas de reconocimiento a través de visión artificial. En la revisión bibliográfica
se han encontrado investigaciones para reconocimiento de frutos, cereales, flores, tipos de bosques,
árboles entre otros. Estas investigaciones emplean principalmente redes neuronales artificiales y
principalmente redes neuronales convolucionales que se basan en aprendizaje por transferencia, debido
a que han dado mejores resultados para el reconocimiento de patrones.
T. Saitoh and T. Kaneko (2000), en su investigación denominada "reconocimiento automático de flores
silvestres a través de una red neuronal”. Eligieron 17 características por cada tipo de flor; 8 de flor y 9
de hojas de la flor. A cada tipo de flor se le tomó una foto frontal y una foto a la hoja. Recopilaron 20
pares de fotografías de 16 flores silvestres. Obtuvieron una tasa de reconocimiento del 95% con las 17
características descubrieron que cuatro características de las flores y dos características de las hojas
pueden producir 96% de precisión.
Yang, C. C. et al. (2000) desarrollaron un trabajo de investigación cuyo objetivo fue diferenciar plantas
de maíz jóvenes de la maleza de un cultivo mediante imágenes. Utilizaron una base de datos de 40
imágenes de maíz y 40 imágenes de maleza para entrenamiento y 20 imágenes para prueba de eficiencia
de la Red Neuronal Artificial. Alcanzaron una tasa del 100% para reconocer plantas de maíz y un 80%
para reconocer maleza. Concluyen que un sistema de reconocimiento de malezas puede usarse en la
fumigación precisa de herbicidas en campos agrícolas.
Savakar, D. G., & Anami, B. S. (2009) en su trabajo de investigación para reconocer y clasificacar
cereales, frutas y flores comestibles mediante visión artificial, proponen un clasificador basado en Back
Propagation Neural Network (BPNN). Extraen características como el color, la textura y características
morfológicas para reconocer y clasificar los diferentes productos agrícolas/hortícolas. Los resultados
muestran que mediante la textura la BPNN obtiene mejores resultados. Esto debido a que las precisiones
promedio aumentaron al 94,1%, 84,0% y 90,1% para los cereales alimentarios, los mangos y las flores
de jazmín, respectivamente.
En el 2016, Morales, V. A., Rodríguez, L. A., Ortega, L. & Mejía, J. M. desarrollaron una aplicación
móvil que identifica plantas cetáceas de la región de Chihuahua. Aplican diversas operaciones de
pág. 3965
preprocesamiento de la imagen para adquirir ciertas características de ella. El sistema de reconocimiento
tiene un 90 por ciento de precisión cuando la fotografía abarca una parte de la flor, un 60 por ciento
cuando la fotografía abarca la flor completa y un 20 por ciento de efectividad cuando la foto es tomada
a un metro de distancia.
Y. Liu et al. (2016) desarrollaron un proyecto cuyo objetivo era clasificar flores mediante una CNN.
Utilizaron imágenes de la base de datos Oxford-102que contiene 102 especies de flores con un total de
8189 cada especie contiene en tre 20 y 200 imágenes. Su modelo logra una precisión de clasificación
del 84,02 por ciento.
Gavai, N.R. et al. (2017) utilizaron una Red Neuronal convolucional (CNN) para clasificar flores
basándose el modelo MobileNet. Emplearon el Dataset Oxford de 102 especies de imágenes. Cada
especie contiene de 40 a 258 imágenes. Concluyen que CNN MobileNet son optimizadas al ser pequeñas
y eficientes pero comprometen la precisión del modelo.
En el proyecto “Sistema de reconocimiento de especies de flores usando CNN y aprendizaje por
transferencia”, se observa que, una CNN combinado con el enfoque de transferencia de ganancias como
extractor de características supera a toda la extracción de características artesanal métodos como patrón
binario local (LBP), estadísticas de canal de color, histogramas de color, textura Haralick, momentos
Hu y Momentos Zernike (Gogul, I., & Kumar, V. S., 2017).
H. S. Abdullahi et al. (2017) diseñaron una red neuronal convolucional para identificar plantas sanas,
parcialmente sanas y enfermas. Se utilizó un Dataset de 1922 imágenes de los cuales 861 eran de plantas
sanas, 478 de plantas parcialmente sanas y 578 de enfermas. Los resultados experimentales en el modelo
desarrollado arrojaron resultados con una precisión promedio del 99.58 por ciento.
V.D. Prasad et al. (2017) desarrollaron varias redes neuronales convolucionales (CNN) para clasificar
flores mediante imágenes. Utilizaron un dataset de 9500 imágenes para la experimentación misma que
fue subdividida en cuatro partes. Diseñaron y probaron varias arquitecturas de CNN con el objetivo de
encontrar mejores porcentajes de reconocimiento. El mejor modelo alcanzó un 97.78 por ciento de
efectividad.
Wu, Y. et al. (2018), crean un modelo de clasificación usando una red neuronal convolucional (CNN) y
aprendizaje por transferencia, reutilizan la base de datos de imágenes de flores Oxford-17. Emplearon
pág. 3966
los modelos VGG-16, VGG-19, Inception-v3 y ResNet50 para comparar el modelo de inicialización de
red con el modelo de aprendizaje por transferencia. Los resultados muestran que el aprendizaje por
transferencia puede evitar eficazmente que las redes convolucionales profundas sean propensas a
problemas óptimos locales y problemas de sobreajuste.
Muñoz Villalobos, I., & Bolt, A. (2022) desarrollaron una aplicación móvil que clasifica flora nativa
chilena mediante una red neuronal convolucional. El modelo de reconocimiento diseñado es capaz de
clasificar especies correctamente con un 95 por ciento de probabilidad. Utilizaron un dataset de 6775
imágenes de muestra. En su trabajo mencionan que el porcentaje de precisión alcanzado coincide con
lo mencionado en el estado del arte sobre visión artificial.
Khaoula Labrighli et al. (2022) realizaron una revisión bibliográficas sobre identificación automatizada
de especies de plantas mediante inteligencia artificial. Revisaron 37 artículos de los cuales 15 utilizaron
aprendizaje automático y 22 investigaciones se basados en Deep learning. El principal resultado de esta
síntesis es que el rendimiento de los modelos avanzados de aprendizaje profundo se está acercando a la
experiencia humana más avanzada. Sin embargo, mencionan que quedan varios desafíos fundamentales
a resolver para lograr el diseño de un sistema de este tipo de manera eficiente.
Campos-Leal, Juan A. et al. (2023) diseñaron varios modelos de redes neuronales artificiales para
clasificar especies de plantas. Algunos modelos fueron diseñados desde cero por ellos y otros utilizan
estrategias de aprendizaje por transferencia. Los dataset de imágenes utilizados fueron Oxford 102
Flower donde contiene especies de plantas en su hábitat natural y un subconjunto de PlantCLEF2020
como un conjunto de especies de plantas en un ambiente controlado. El primero contiene 8,189
imágenes de flores que corresponden a 102 especies de plantas que pueden ser encontradas en Reino
Unido y el segundo contiene 10 especies de plantas con 100 imágenes por cada especie sumando un
total de 1000. Finalmente concluyen que los modelos que utilizan estrategias de aprendizaje por
transferencia obtiene mejores desempeños que aquellos modelos entrenados desde cero.
Vega-López, Inés et al. (2023) en su trabajo de investigación construyeron un modelo de clasificación
a partir de la arquitectura de Inception-v4 usando un conjunto de datos de vegetación nativa de México.
Destaca la creación de una base de datos de 17 900 imágenes de 202 especies flora nativa de México.
En concreto, se evaluó Inception-v4 y se contrastó su desempeño contra AlexNet, VGG-16 y VGG-19.
pág. 3967
Los resultados experimentales fueron ratificados con el método de validación cruzada de k-iteraciones.
Los resultados experimentales muestran que las estrategias de aprendizaje por transferencia y el aumento
de datos mejoran sustancialmente el desempeño de modelos basados en el aprendizaje profundo. En
particular, para Inception-v4 con una tasa de aciertos de 86.97 y 94.39 %.
Finalmente se observa, que se existe la oportunidad de crear una base de datos de flores endémicas de
la región de Misantla y una aplicación móvil para el reconocimiento automático de ellas.
METODOLOGÍA
Modelo
La plataforma de entrenamiento utilizada para entrenar el clasificador de imágenes personalizado es la
máquina de enseñanza con Google, Teachable Machine (Teachable Machine, 2017). Esta es una
plataforma utilizada para el proceso de entrenamiento de aprendizaje profundo.
Requerimientos
Conjunto de datos de imágenes agrupados en diferentes clases.
Android Studio 3.2 + (instalado en una máquina Linux, Mac o Windows).
Dispositivo Android en modo desarrollador con depuración USB habilitada.
Un cable USB (para conectar el dispositivo Android a la computadora).
Procedimiento
En la figura 1 se muestra la metodología utilizada.
1. Cargar el dataset de entrenamiento.
2. Entrenar el modelo de red neuronal.
3. Exportar el modelo en el formato seleccionado.
4. Asignar metadatos y descargar el modelo.
Figura 1. Metodología Clasificador Flores
pág. 3968
Cargar el dataset de entrenamiento
En este proyecto se reutilizó Flowers Dataset. Éste contiene cinco tipos de flores entre ellas margaritas,
diente de león, rosas, girasoles y tulipanes (Sparsh Gupta, 2020). El conjunto de datos de entrenamiento
se complementó con imágenes de flores capturadas en la región de Misantla. Figura 2.
Figura 2. Dataset flores
Se clasifican las flores en carpetas de acuerdo con el tipo de flor. En Teachable Machine se cargan las
imágenes, asignándoles una etiqueta que corresponde al nombre de la flor que corresponda como se
muestra en la figura 3.
Figura 3. Flores etiquetadas
Más imágenes de flores significa mejores resultados en la clasificación, es importante que cada imagen
de flor se encuentre almacena en la carpeta del tipo de flor que le corresponda, en caso contrario se
pueden generar errores en la clasificación.
Entrenar el modelo de red neuronal
En la figura 4 se observa la configuración de la red neuronal convolucional, se pueden ajustar los
hiperparámetros número de épocas, tamaño del lote y Tasa de aprendizaje.
pág. 3969
Figura 4. Configuración modelo
Se verifican los resultados del entrenamiento, en la figura 5 se presenta un ejemplo de este proceso.
Figura 5. Vista previa de entrenamiento
Exportar el modelo en el formato seleccionado convolucional.
Después de comprobar que los resultados fueron óptimos, se exporta el modelo. Es necesario que el
modelo se exporte como TensorFlow Lite y de tipo Cuantificado para que funcione en un entorno de
aplicación móvil, en la figura 6 se observan la elección de estas opciones.
pág. 3970
Figura 6 Exportación del modelo
Asignación de metadatos y descarga del modelo.
Dentro del modelo las clases se agregan los metadatos de todos los modelos de la aplicación de
clasificación de imágenes de muestra. Agregar metadatos al modelo TFLite para adjuntar las clases y
demás información necesaria.
Este procedimiento se realiza dentro de un documento de Colab de Google.
Paso 1) Crear una carpeta en google drive con metadatos con nombre
Cree otra carpeta llamada model_with_metadata dentro de la carpeta de metadatos.
Paso 2) Montar la unidad y navegar a la carpeta de metadatos
#mount drive
%cd ..
from google.colab import drive
drive.mount('/content/gdrive')
# this creates a symbolic link so that now the path /content/gdrive/My\ Drive/ is equal to /mydrive
!ln -s /content/gdrive/My\ Drive/ /mydrive
# list the contents of /mydrive
!ls /mydrive
#Navigate to /mydrive/metadata
%cd /mydrive/metadata
Paso 3) Cargar los siguientes 3 archivos a la carpeta de metadatos
pág. 3971
1. metadata_writer_for_image_classifier.py
2. model.tflite & all other models
3. labels.txt
Paso 4) instalar el soporte tflite.
pip install tflite-support
Paso 5) finalmente, se ejecuta el script de python usando el siguiente comando.
!python metadata_writer_for_image_classifier.py \
--model_file=/mydrive/metadata/model.tflite \
--label_file=/mydrive/metadata/labels.txt \
--export_directory=/mydrive/metadata/model_with_metadata
El modelo TFLite con metadatos se crea dentro de la carpeta model_with_metadata junto con el archivo
.json. El resultado de la asignación de metadatos al modelo se observa en la figura 7:
Figura 7. Metadatos del modelo
Para integrar el proyecto de Android / Kotlin en Android Studio se realiza lo siguiente. Se descarga la
aplicación de muestra que proporciona TensorFlow para la clasificación de imágenes, se puede elegir
entre la versión de Java o de Kotlin.
Se copia el modelo de TFLite generado con metadatos dentro de la carpeta de assets del proyecto como
se muestra en la figura 8.
La ruta es la siguiente:
(nombre_proyecto)\app\src\main\assets
pág. 3972
Figura 8. Integración del proyecto
Las figuras 9 y figura 10 se presenta el modelo en el proyecto de Android:
Figura 9. Modelo Android
Figura 10. Modelo Android
Finalmente se importa el modelo desde el dispositivo para su instalación y uso.
RESULTADOS
Esta versión es para dispositivos Android, no consume recursos de red o internet. La aplicación solicita
conceder los permisos de acceso a la cámara, una vez autorizado todos estos se muestra la interfaz
principal Figura 11 con todas las funciones que ayudan a ajustar el modelo y los resultados que pueden
obtener y visualizar.
Se detallan las características de la aplicación para su configuración y manipulación:
pág. 3973
Figura 11. Parámetros y detalles de la aplicación
Descripción de las características de la aplicación que el usuario puede configurar:
1. Clase encontrada: Corresponde al tipo de clase o de “Flor” que el modelo de TensorFlow logró
identificar en base a lo que capta la cámara del dispositivo.
2. Nivel de confianza: Indica el nivel de precisión o de certeza sobre la clase que encontró.
Ejemplo: 0.88 = 88% de precisión, certeza o confianza de que la clase que corresponde a la flor de
“Margarita” es acertada.
3. Tiempo de inferencia: Corresponde al tiempo de respuesta que tarda en dar la aplicación, desde
que capta la imagen con la cámara hasta que el modelo identifica la clase y devuelve el resultado. El
tiempo de inferencia varia de la capacidad de procesamiento del dispositivo.
4. Barra de desplazamiento: Muestra o oculta las opciones y parámetros de la aplicación de
TensorFlow, deslizando la pestaña hacia arriba o abajo.
5. Ajuste de parámetros: En este apartado tenemos 3 parámetros que nos permiten ajustar los
resultados que obtenemos del modelo.
pág. 3974
- Límite: Es posible limitar el nivel de confianza del modelo, en este caso para el modelo que se
usa no influye.
- Resultados máximos: Corresponde al número de resultados que queremos obtener por parte
del modelo, en este caso el modelo solo da como resultado un resultado a la vez por clasificación.
- Números de hilos: Corresponde a los hilos de procesamiento para obtener mayores resultados
o asignar un mayoro menor procesamiento al modelo.
6. Delegar: Dependiendo las características de hardware del equipo es posible elegir que
procesamiento usar para aplicación, si da uso al CPU o a la GPU del equipo si es que cuenta con uno,
teniendo en cuenta que se ejecuta desde un dispositivo móvil la aplicación. De ser el caso se usará la
GPU y si esta no es compactible con la aplicación se mostrará un mensaje de advertencia.
7. Modelo ML: Para TensorFlow Lite en dispositivos móviles, es posible cargar más de un modelo
que nos podría brindar diferentes tipos de reconocimientos, análisis y resultados. En este caso se
encuentran los modelos por defecto más el modelo del clasificador de flores.
CONCLUSIONES
La utilización de la tecnología para reconocimiento de patrones es un tema de la inteligencia artificial y
el aprendizaje automático muy utilizado y con excelentes resultados, sin embargo, aplicarla para
reconocer flores endémicas de la región de Misantla es una oportunidad para diseñar herramientas que
fomenten el conocimiento de esta área. El resultado de este trabajo de investigación es una aplicación
móvil para el sistema operativo Android. Se utilizó La plataforma Teachable Machine de Google para
entrenar el clasificador mediante aprendizaje profundo. Los modelos preentrenados ayudan a mejorar
los porcentajes de exactitud para clasificar correctamente. El modelo de clasificación de flores generado
en esta investigación alcanzó un porcentaje de clasificación del 99 por ciento. Esta herramienta es útil y
de gran impacto en turistas que visitan esta región así como niños estudiando la educación preescolar y
primaria para conocer las plantas que florecen en esta zona geográfica. Finalmente es importante
mencionar que como trabajo futuro se debe integrar la base de datos de todas las flores endémicas de la
región de Misantla, Veracuz, México.
pág. 3975
REFERENCIAS BIBLIOGRÁFICAS
Campos-Leal, Juan A & Vega-López, Inés & Beltrán-Gutiérrez, Gerardo & López Arellano, José &
Rendón, Arturo. (2023). La inteligencia artificial como apoyo en la identificación de especies de
plantas.
Gavai, N.R., Jakhade, Y.A., Tribhuvan, S.A., & Bhattad, R. (2017). MobileNets for flower classification
using TensorFlow. 2017 International Conference on Big Data, IoT and Data Science (BID), 154-
158. https://doi.org/10.1109/BID.2017.8336590
Gogul, I., & Kumar, V. S. (2017). Flower species recognition system using convolution neural networks
and transfer learning. 2017 Fourth International Conference on Signal Processing,
Communication and Networking (ICSCN). doi:10.1109/icscn.2017.8085675.
H. S. Abdullahi et al. (2017). "Convolution neural network in precision agriculture for plant image
recognition and classification". 2017 Seventh International Conference on Innovative Computing
Technology (INTECH), Luton, UK, pp. 1-3, doi: 10.1109/INTECH.2017.8102436.
Khaoula Labrighli, Chouaib Moujahdi, Jalal El Oualidi and Laila Rhazi, “Artificial Intelligence for
Automated Plant Species Identification: A Review” International Journal of Advanced Computer
Science and Applications (IJACSA), 13(10), 2022.
http://dx.doi.org/10.14569/IJACSA.2022.0131097
Maria-Elena Nilsback and Andrew Zisserman (2008). Automated Flower Classification over a Large
Number of Classes. Indian Conference on Computer Vision, Graphics and Image Processing.
https://www.robots.ox.ac.uk/~vgg/publications/2008/Nilsback08/nilsback08.pdf
Morales, V. A., Rodríguez, L. A., Ortega, L. & Mejía, J. M. (2016). Aplicación móvil para la
identificación de plantas semidesérticas ubicadas en el norte del estado de Chihuahua. Tesis de
Licenciatura. Universidad Autónoma de Ciudad Juárez. http://hdl.handle.net/20.500.11961/2885.
Muñoz Villalobos, I., & Bolt, A. (2022). Diseño y desa rrollo de aplicación móvil para la clasificación
de flora nativa chilena utilizando redes neuronales convolucionales. AtoZ: novas práticas em
informação e conhecimento, 11, 1 - 13. doi: http://dx.doi.org/10.5380/atoz.v11i0.81419
Sparsh Gupta (2020). Flowers Dataset. [Dataset]. https://www.kaggle.com/datasets/imsparsh/flowers-
dataset/data
pág. 3976
Savakar, D. G., & Anami, B. S. (2009). Recognition and Classification of Food Grains, Fruits and
Flowers Using Machine Vision. International Journal of Food Engineering, 5(4).
doi:10.2202/1556-3758.1673.
Teachable Machine (2017). Prepara a un ordenador para que reconozca tus imágenes, sonidos y
posturas. Recuperado en 04 de agosto de 2023 de https://teachablemachine.withgoogle.com/.
T. Saitoh and T. Kaneko, "Automatic recognition of wild flowers," Proceedings 15th International
Conference on Pattern Recognition. ICPR-2000, Barcelona, Spain, 2000, pp. 507-510 vol.2, doi:
10.1109/ICPR.2000.906123.
Vega-López, Inés & Vega-Aviña, Rito & Delgado-Vargas, Francisco & Zuriel, Ernesto & Morales-
Casas, & Díaz-Gaxiola, Eduardo & Campos-Leal, Juan A & Berger-Castro, José & Beltrán-
Gutiérrez, Gerardo & Rendón, Arturo. (2023). Identificación de especies de plantas de la flora
mexicana utilizando aprendizaje por transferencia a través de Inception-v4. 14. 22-37.
V.D. Prasad, M., JwalaLakshmamma, B., Hari Chandana, A., Komali, K., V.N. Manoja, M., Rajesh
Kumar, P., Raghava Prasad, C., Inthiyaz, S., & Sasi Kiran, P. (2017). An efficient classification
of flower images with convolutional neural networks. International Journal of Engineering &
Technology, 7(1.1), 384-391. https://doi.org/10.14419/ijet.v7i1.1.9857.
Wu, Y., Qin, X., Pan, Y., & Yuan, C. (2018).Convolution Neural Network based Transfer Learning for
Classification of Flowers. 2018 IEEE 3rd International Conference on Signal and Image
Processing (ICSIP). doi:10.1109/siprocess.2018.8600536.
Yang, C. C., Prasher, S. O., Landry, J. A., & DiTommaso, A. (2000). Application of artificial neural
networks in image recognition and classification of crop and weeds. Canadian agricultural
engineering, 42(3), 147-152. https://library.csbe-scgab.ca/docs/journal/42/42_3_147_raw.pdf.
Y. Liu, F. Tang, D. Zhou, Y. Meng and W. Dong, "Flower classification via convolutional neural
network," 2016 IEEE International Conference on Functional-Structural Plant Growth Modeling,
Simulation, Visualization and Applications (FSPMA), Qingdao, China, 2016, pp. 110-116, doi:
10.1109/FSPMA.2016.7818296.