Hamid A Adamu, Murtala Muhammad y Abdullahi Mohammed Jingi
El aumento de gradiente (GB) es una técnica de aprendizaje automático para la regresión, que produce modelos de predicción más precisos en forma de modelos de predicción débil de conjunto. Es un algoritmo iterativo que combina funciones parametrizadas simples con un rendimiento débil (error de predicción alto) para producir una predicción altamente precisa al minimizar los errores [1]. Por lo tanto, este documento investiga la aplicación del algoritmo de aumento de gradiente en el modelo lineal generalizado (GLM) y los modelos aditivos generalizados (GAM) para producir una mejor predicción utilizando datos de alquiler de Munich. Más interesante aún, para comparar el rendimiento del GLM y GAM clásicos y sus paquetes de aumento correspondientes en la predicción. Sin embargo, en el algoritmo de aumento, las iteraciones de aumento óptimas son muy recomendables para evitar el sobreajuste. Desempeña un papel importante cuando se ajusta el modelo, por lo tanto, empleamos el uso de la técnica basada en el Criterio de información de Akaike (AIC) para determinar la iteración de aumento adecuada que brinde la predicción óptima. Aplicamos las técnicas AIC y de validación cruzada (CV) para determinar las iteraciones de aumento óptimas. Los resultados obtenidos se comparan luego para investigar el algoritmo que es más preciso. Se observa que, por defecto, el gamboost (GAM potenciado) ajusta los modelos que utilizan aprendices base suaves (bbs). De manera similar, también se observó que los coeficientes del modelo ajustado estarán en forma de matriz si se utilizan aprendices base suaves, mientras que serán simplemente lineales si se utilizan aprendices base lineales.