Investigación y desarrollo · Seminarios
Algoritmos de boosting aplicados a modelos de clasificación y regresión lineal. El boosting es una técnica que mejora la precisión de modelos débiles (clasificadores con una exactitud cercana al 50%) mediante la combinación aditiva de varios modelos, optimizando su desempeño en cada iteración. A lo largo de la presentación, se explicó cómo esta técnica, al igual que el refuerzo en una vacuna, potencia la capacidad predictiva de un modelo inicial. Se introdujeron dos algoritmos clave: el AdaBoost y el LogitBoost, que permiten la creación de modelos aditivos optimizando diferentes funciones objetivo, con AdaBoost enfocándose en la reducción del error de clasificación y LogitBoost maximizando la función de verosimilitud logarítmica. Se destacó cómo, en cada iteración, los pesos de los datos se ajustan para darle más importancia a las observaciones que fueron clasificadas incorrectamente en las iteraciones previas, refinando el modelo progresivamente. Finalmente, se discutieron los resultados prácticos, mostrando cómo el boosting permite no solo mejorar la clasificación, sino también identificar las variables más importantes en el conjunto de datos, ayudando a crear modelos más precisos y robustos.
YouTube – Quantil Matemáticas Aplicadas
No disponible
Obtén información sobre Ciencia de datos, Inteligencia Artificial, Machine Learning y más.