Abed Benaichouche
En los últimos tiempos, el aprendizaje profundo (DL) ha ganado varios desafíos en la visión por computadora y la IA. En esta introducción, presentaremos usos genuinos de la red neuronal convencional (CNN), la red recurrente (RNN) y la red generativa adversarial (GAN) en el territorio de la visión por computadora. En la introducción, mostraremos una determinación de la investigación reciente que el Instituto de Inicio de Inteligencia Artificial (IIAI) está impulsando en el campo de la visión por computadora y la inteligencia artificial. Para la CNN, presentaremos su aplicación para la identificación y explicación de rostros, demostración para el reconocimiento de objetos y estimación de la cámara de postura. Para las GAN, mostraremos su uso para la coloración de imágenes y el movimiento del estilo de arte. Por último, presentamos otra metodología para la identificación de rostros y superobjetivos utilizando modelos CNN y GAN. Para cada demostración presentamos el sistema estructurado, sus limitaciones y damos puntos de vista para una mejora concebible. Con el reciente avance en las tecnologías digitales, el tamaño de los conjuntos de datos se ha vuelto demasiado grande en el que el procesamiento de datos tradicionales y las técnicas de aprendizaje automático no pueden lidiar de manera efectiva. Sin embargo, analizar conjuntos de datos complejos, de alta dimensión y contaminados por ruido es un gran desafío, y es crucial desarrollar algoritmos novedosos que puedan resumir, clasificar, extraer información importante y convertirlos en una forma comprensible. Para abordar estos problemas, los modelos de aprendizaje profundo (DL) han demostrado un rendimiento sobresaliente en la última década. El aprendizaje profundo (DL) ha revolucionado el futuro de la inteligencia artificial (IA). Ha resuelto muchos problemas complejos que existían en la comunidad de IA durante muchos años. De hecho, los modelos DL son variantes más profundas de las redes neuronales artificiales (ANN) con múltiples capas, ya sean lineales o no lineales. Cada capa está conectada a sus capas inferior y superior a través de diferentes pesos. La capacidad de los modelos de aprendizaje profundo para aprender características jerárquicas de varios tipos de datos, por ejemplo, numéricos, imágenes, texto y audio, los hace poderosos para resolver problemas de reconocimiento, regresión, semisupervisados ??y no supervisados. En los últimos años, se han introducido rápidamente varias arquitecturas profundas con diferentes paradigmas de aprendizaje para desarrollar máquinas que puedan desempeñarse de manera similar a los humanos o incluso mejor en diferentes dominios de aplicación, como el diagnóstico médico, los automóviles autónomos, el lenguaje natural y el procesamiento de imágenes y el pronóstico predictivo. Para mostrar algunos avances recientes del aprendizaje profundo hasta cierto punto, seleccionamos 14 artículos de los artículos aceptados en esta revista para organizar este número. Centrándonos en los desarrollos recientes en arquitecturas de aprendizaje profundo y sus aplicaciones, clasificamos los artículos de este número en cuatro categorías: (1) arquitecturas profundas y redes neuronales convencionales, (2) aprendizaje incremental, (3) redes neuronales recurrentes y (4) modelos generativos y ejemplos adversarios.La red neuronal profunda (DNN) es uno de los modelos de aprendizaje automático más comunes que contiene múltiples capas de operaciones lineales y no lineales. La DNN es la extensión de la red neuronal estándar con múltiples capas ocultas, lo que permite que el modelo aprenda representaciones más complejas de los datos de entrada. Además, la red neuronal convolucional (CNN) es una variante de las DNN, que se inspira en la corteza visual de los animales. La CNN generalmente contiene tres tipos de capas, que incluyen capas de convolución, agrupación y completamente conectadas. Las capas de convolución y agrupación se agregan en los niveles inferiores. Las capas de convolución generan un conjunto de activaciones lineales, a las que siguen funciones no lineales. De hecho, las capas de convolución aplican algunos filtros para reducir la complejidad de los datos de entrada. Luego, las capas de agrupación se utilizan para el muestreo descendente de los resultados filtrados. Las capas de agrupación logran reducir el tamaño de los mapas de activación al transferirlos a una matriz más pequeña. Por lo tanto, la agrupación resuelve el problema del sobreajuste al reducir la complejidad. Las capas completamente conectadas se ubican después de las capas de convolución y agrupación, con el fin de aprender representaciones más abstractas de los datos de entrada. En la última capa, se utiliza una función de pérdida, por ejemplo, un clasificador soft-max, para mapear los datos de entrada a sus
Biografía:
Abed Benaichouche trabajó en el Instituto Inception de Inteligencia Artificial, Emiratos Árabes Unidos