Materias
Referencia: Código 10173
Septiembre de 2022 - César Pérez López - Refª 10173
César Pérez López
Septiembre de 2022 Páginas: 544
Código 10173 ISBN/EAN: 9788419034076
CONTENIDO: El libro está dirigido tanto a alumnos que siguen un Curso de especialización en Inteligencia Artificial y Big Data como a profesionales del sector.
Comienza clasificando los sistemas, herramientas, técnicas y algoritmos o modelos aplicados al Aprendizaje Automático. A continuación, se tratan las técnicas de aprendizaje supervisado, sus fases y plataformas, así como los algoritmos y modelos más importantes. Se desarrollan las técnicas de regresión con sus fases de identificación, estimación, validación (diagnosis) y predicción.
Se presentan los métodos especiales de regresión como PLS, LARS, LASSO, ELASTIC NET, RANSAC, THEIL, HUBERT, KERNEL RIDGE REGRESSION (KRR), SUPPORT VECTOR REGRESSION (SVR) y STOCHASTIC GRADIENT DESCENDT (SGD) entre otros.
Asimismo, se tratan las técnicas de aprendizaje supervisado enfocadas a la clasificación o segmentación como los Modelos Logit y Probit, los Modelos Lineales Generalizados, los Árboles de Decisión, los Modelos de Análisis Discriminante, los Modelos SVM (Support Vector Machine), lo modelos kNN (Vecino más Cercano) y los Modelos SLRM (Respuesta de Autoaprendizaje).
Todas las técnicas citadas anteriormente se ilustran con ejemplos y se resuelven con el software de Machine Learning adecuado, incluyendo Python, R, IBM SPSS Modeler y SAS Enterprise Miner.
A continuación se abordan las técnicas de aprendizaje no supervisado como la Reducción de la Dimensión mediante Análisis de Componentes Principales y Análisis Factorial. Entre las técnicas de aprendizaje no supervisado para la clasificación y segmentación se desarrolla el Análisis Clúster tanto jerárquico como no jerárquico, algoritmos de detección de anomalías y Reglas de Asociación. Para todas las técnicas se presentan ejemplos significativos que se resuelven con el software más utilizado en estos casos, como R e IBM SPSS Modeler.
Finalmente, se profundiza en los Modelos de Redes Neuronales, tanto para técnicas de aprendizaje supervisado como el ajuste de modelos predictivos (Perceptrón Multicapa y Red de Base Radial) como para técnicas de análisis no supervisado como el análisis clúster (Redes de Kohonen). Se desarrollan también las Redes Neuronales Bayesianas y se introducen las técnicas de Deep Learning y las Redes Neuronales Convolucionales. Se presentan ejemplos totalmente resueltos con software visual como es el caso de IBM SPSS Modeler. Se finaliza con las técnicas de valoración y comparación de modelos.
INDICE EXTRACTADO:
Capítulo 1. Inteligencia artificial
1.1 Introducción a la inteligencia artificial: características y aplicaciones
1.2 Inteligencia artificial débil o Narrow
1.3 Inteligencia artificial fuerte
Capítulo 2. Machine Learning
2.1 Clasificación de los sistemas de aprendizaje automático: supervisado y no supervisado
2.2 Algoritmos o modelos aplicados al aprendizaje automático
2.3 Procedimientos de Machine Learning
2.4 Herramientas de aprendizaje automático
2.5 Aplicaciones del Machine Learning
Capítulo 3. Algoritmos y técnicas de aprendizaje supervisado
3.1 Elementos y herramientas de aprendizaje supervisado
3.2 Datos etiquetados, variables de entrada y etiquetas de salida
3.3 Plataformas de Machine Learning
3.4 Fases del aprendizaje automático
Capítulo 4. Aprendizaje supervisado. Modelo predictivo básico de regresión lineal múltiple. Ejemplos con R
4.1 Regresión lineal múltiple
4.2 Hipótesis en el modelo de regresión múltiple
4.3 Estimación por MCO (mínimos cuadrados ordinarios)
4.4 Estimación por máxima verosimilitud
4.5 Validación en el modelo MCO
4.6 Predicción en el modelo MCO
4.7 Modelos de regresión óptimos
4.8 Diagnosis de los residuos
4.9 R y el trabajo básico con el modelo de regresión múltiple
Capítulo 5. Aprendizaje supervisado. Validación en el modelo de regresión múltiple: multicolinealidad, autocorrelación y heteroscedasticidad. Ejemplos con R
5.1 Diagnosis: el problema de la autocorrelación
5.2 Diagnosis: indicadores y contrastes para detección de la autocorrelación
5.3 Diagnosis: el problema de la heteroscedasticidad
5.4 Diagnosis: indicadores y contrastes de detección de la heteroscedasticidad
5.5 Tratamiento de la heteroscedasticidad
5.6 Diagnosis: el problema de la multicolinealidad
5.7 Diagnosis: normalidad de los residuos
5.8 Diagnosis: no linealidad y errores de especificación en el modelo
5.9 Diagnosis: problemas de exogeneidad y regresores estocásticos
5.10 Diagnosis: el problema de las observaciones influyentes
5.11 Multicolinealidad, autocorrelación, heteroscedasticidad y valores influyentes a través de R
5.11.1 Ajustando modelos de regresión con menús en R
Capítulo 6. Aprendizaje supervisado. Validación: multicolinealidad en el modelo de regresión lineal. Métodos PLS y Ridge Regression. Ejemplos con R
6.1 Multicolinealidad en el modelo predictivo de regresión lineal
6.2 Mínimos cuadrados parciales. Método PLS
6.3 El método Ridge Regression de la regresión en cadena
Capítulo 7. Aprendizaje supervisado. Modelos lineales generalizados. Ejemplos con R
7.1 Aprendizaje supervisado: modelo lineal generalizado
7.2 Modelos de variable dependiente limitada y recuento: Logit, Probit, Poisson y binomial negativa
7.3 Distribuciones de la familia exponencial
7.4 Tratamiento de los modelos lineales generalizados a través de R
7.5 Tratamiento de los modelos lineales generalizados en R a través de menús
Capítulo 8. Aprendizaje supervisado. Modelos Logít y Probit. Modelos de recuento. Ejemplos con R
8.1 Aprendizaje supervisado. Modelos predictivos de variable dependiente limitada
8.2 Aprendizaje supervisado: modelos de elección discreta
8.3 Aprendizaje supervisado: modelos de elección discreta binaria
8.4 Aprendizaje supervisado: modelos de elección múltiple
8.5 Aprendizaje supervisado: modelos Logit y Probit ordenados
8.6 Aprendizaje supervisado: modelos de datos de recuento
8.7 Aprendizaje supervisado: modelos Logit y Probit a trvés de R
8.8 Aprendizaje supervisado: modelos Logit y Probit binarios a través de menús en R
8.9 Aprendizaje supervisado: modelo Logit multinomial a través de menús en R
8.10 Aprendizaje supervisado: modelos logit y Probit multinomiales ordenados a través de menús en R
Capítulo 9. Aprendizaje supervisado con Python. La biblioteca Scikit-Learn. Regresión lineal múltiple
9.1 Scikit-Learn
9.2 Regresión lineal. Mínimos cuadrados ordinarios (OLS). Comando linearregression
9.3 Regresión lineal simple con Python
9.4 Predicción con regresión lineal simple
9.5 Regresión lineal múltiple con Python
9.6 Predicción de regresión lineal múltiple
9.7 Gráfico de la regresión simple
Capítulo 10. Aprendizaje supervisado a través de Python: Ridge Regression, ARD regression, validación y regresión bayesiana con Scikit Learn
10.1 Tratamiento de la multicolinealidad a través de la Ridge Regression
10.2 Usando la validación cruzada
10.3 Transformación de objetivos y Ridge Regression
10.4 Regresión bayesiana
10.5 Ejemplo completo de regresión OLS y regresión bayesiana con predicciones
10.6 Determinación automática de la relevancia – Ard Regression
Capítulo 11. Aprendizaje supervisado con Python. Lasso regression y Elastic Net Regression con Scikit Learn.
11.1 Regresión del lazo (Lasso Regression)
11.2 La regresión del lazo en Scikit Learn
11.3 Usando la validación cruzada
11.4 Lasso multitarea
11.5 Regresión Elastic Net
11.6 Elastic Net Multitarea (Multitask Elastic Net)
11.7 Regresión Lasso Lars
Capítulo 12. Aprendizaje supervisado con Python. Regresión robusta, valores atípicos y errores en modelos. Regresiones RANSAC, THEIL-SEN y HUBER
12.1 Regresión robusta: valores atípicos y errores de modelización
12.2 RANSAC: Random Sample Consensus
12.3 Estimador Theil-Sen: estimador de base mediática generalizada
12.4 Regresión de Huber
Capítulo 13. Aprendizaje supervisado con Python. Kernel Ridge Regression (KRR), Support Vector Regression (SVR) y Stochastic Gradient Descend (SGD)
13.1 Kernel Ridge Regression
13.2 Nyström Kernel Ridge Regression
13.3 Support Vector Regression (SVR)
13.4 Comparación de Kernel Ridge Regression (KRR) y Support Vector Regression (SVR)
13.5 Descenso de gradiente estocástico - SGD¶
Capítulo 14. Aprendizaje supervisado a través de IBM SPSS MODELER
14.1 Introducción
14.2 Técnicas de aprendizaje supervisado con IBM SPSS MODELER
14.3 El nodo discriminante: modelos de análisis discriminante
14.4 Nodo KNN. Modelos de vecinos más próximos
14.5 Nodo SVM. Modelos de máquina de vectores de soporte
14.6 Nodo SLRM. Modelos de respuesta de autoaprendizaje
14.7 Árboles de decisión
14.8 Árboles de decisión con IBM SPSS MODELER
Capítulo 15. Aprendizaje no supervisado. Técnicas y herramientas
15.1 Técnicas de aprendizaje no supervisado
15.2 Algoritmos de aprendizaje no supervisado
15.3 Fases del aprendizaje no supervisado
15.4 Plataformas para el aprendizaje no supervisado
Capítulo 16. Aprendizaje no supervisado. Reducción de la dimensión. Ejemplos con R
16.1 Transformación de datos mediante técnicas de reducción de la dimensión
16.2 Componentes principales
16.3 Análisis factorial
16.4 análisis de componentes principales a través de R
16.5 Componentes principales a través de comandos
16.6 Análisis factorial a través de R
16.7 Análisis factorial a través de comandos
Capítulo 17. Aprendizaje no supervisado. Análisis clúster. Ejemplos a través de R
17.1 El análisis clúster
17.2 Clústeres jerárquicos, secuenciales, aglomerativos y exclusivos (S.A.H.N)
17.3 El dendograma en el análisis clúster jerárquico
17.4 Análisis clúster no jerárquico
17.5 Análisis clúster jerárquico a través de R
17.6 Análisis clúster a través de comandos
17.7 Análisis clúster no jerárquico a través de R
Capítulo 18. Aprendizaje no supervisado a través de IBM SPSS MODELER
18.1 Técnicas de aprendizaje no supervisado con IBM SPSS MODELER
18.2 Reglas de asociación
18.3 Reglas de asociación en IBM SPSS. El nodo a priori
18.4 Reglas de asociación en IBM SPSS MODELER. El nodo CARMA
18.5 Componentes principales y análisis factorial. El nodo factor/PCA
Capítulo 19. Modelos de redes neuronales
19.1 Descripción de una red neuronal
19.2 Redes neuronales y ajuste de modelos predictivos (aprendizaje supervisado)
19.3 Aprendizaje en las redes neuronales
19.4 Funcionamiento de una red neuronal
19.5 Redes neuronales con IBM SPSS MODELER
19.6 Clustering mediante redes neuronales (aprendizaje no supervisado)
19.7 Análisis clúster con redes neuronales con IBM SPSS MODELER: nodo Kohonen
19.8 Aprendizaje profundo o Deep Learning
19.9 Redes neuronales convolucionales
Capítulo 20. Validación de modelos
20.1 Herramientas de validación de modelos
20.2 Ajuste y validación de un modelo predictivo de red neuronal con SPSS
Fecha de disponibilidad: