Ahmed Fawzy Mohamed Gad
Se recomienda otra biblioteca de código abierto llamada NumPyCNNAndroid que limita la sobrecarga de construir y ejecutar sistemas neuronales convolucionales en dispositivos Android. La biblioteca está escrita en Python 3. Utiliza Kivy para construir la interfaz de la aplicación y Python numérico para construir el sistema en sí. La biblioteca respalda las capas más conocidas. En comparación con las bibliotecas de aprendizaje profundo generalmente conocidas, NumPyCNNAndroid evita la sobrecarga adicional de hacer que el sistema sea adecuado para ejecutarse en teléfonos móviles. Los resultados de la prueba confirman la corrección de la ejecución de la biblioteca al observar los resultados tanto de la biblioteca propuesta como de TensorFlow en función del error máximo promedio. NumPyCNNAndroid es un proyecto que ensambla sistemas neuronales convolucionales para dispositivos Android utilizando NumPy y Kivy. La aplicación está diseñada para manejar cada una de las tres capas progresivas de conv-relu-pool, mostrar sus resultados, regresar para que el cliente pueda ejecutar las siguientes tres capas haciendo clic en un botón en la parte inferior de la pantalla. El resultado anterior antes de tocar el botón se utilizará para un manejo adicional. Este proyecto se basa en un proyecto anterior llamado NumPyCNN, pero NumPyCNNAndroid está probando suerte en Android. Con los recientes avances en las tecnologías de sistemas en chip (SoC) móviles, el rendimiento de los dispositivos Android portátiles se ha multiplicado en los últimos años. Con sus procesadores multinúcleo, GPU dedicadas y gigabytes de RAM, las capacidades de los teléfonos inteligentes actuales ya han ido mucho más allá de ejecutar las aplicaciones estándar integradas en el teléfono o los juegos móviles simples. Si bien su potencia computacional ya supera significativamente las necesidades de la mayoría de los casos de uso cotidiano, los algoritmos de inteligencia artificial siguen siendo un desafío incluso para los teléfonos inteligentes y tabletas de alta gama. Sin embargo, muchos desarrollos recientes en aprendizaje profundo están estrechamente relacionados con tareas destinadas a dispositivos móviles. Un grupo de tareas que no se puede clasificar está relacionado con problemas de visión artificial, como la clasificación de imágenes, la mejora y la superresolución de imágenes, el reconocimiento óptico de caracteres, el seguimiento de objetos, la comprensión visual de escenas, la detección y el reconocimiento de rostros, el seguimiento de la mirada, etc. Otro grupo de tareas abarca diversos problemas de procesamiento del lenguaje natural, como la traducción del lenguaje natural, la finalización de oraciones, el análisis de sentimientos de oraciones o los chatbots interactivos. Un grupo separado se ocupa del procesamiento de datos de sensores en línea para el reconocimiento de la actividad humana a partir de datos del acelerómetro, el reconocimiento de gestos o la monitorización del sueño. Varios otros problemas de aprendizaje profundo en los teléfonos inteligentes están relacionados con el reconocimiento de voz, la realidad virtual y muchas otras tareas. A pesar del creciente interés en el aprendizaje profundo para aplicaciones móviles, la mayoría de los algoritmos de IA no están disponibles en los teléfonos inteligentes o se ejecutan en servidores remotos debido a las limitaciones de hardware de los teléfonos antes mencionados. La última opción tampoco es perfecta, ya que provoca:a) problemas de privacidad; b) dependencia de una conexión a Internet; c) retrasos asociados con la latencia de la red; d) problemas de cuello de botella: la cantidad de clientes posibles depende de las capacidades computacionales de los servidores. Para superar estos problemas, hubo una serie de intentos de trasladar algoritmos separados o bibliotecas completas de aprendizaje automático a plataformas móviles con aceleración de hardware (HA) adicional mediante GPU o DSP. En 2008, los autores implementaron un motor de clasificación de redes neuronales móviles capaz de realizar tareas de inferencia de sensores en el DSP Hexagon de Qualcomm. Aunque lograron resultados de consumo de energía muy impresionantes, el DSP solo pudo ejecutar modelos CNN muy simples debido a su pequeño programa y espacio de memoria. En 2009, los autores presentaron una biblioteca acelerada por GPU, CNNdroid, para la ejecución paralela de CNN preentrenadas en GPU móviles.
Biografía :
Estudió en la Universidad de Menoufia, Egipto.