Materias

SISTEMAS DE APRENDIZAJE AUTOMATICO. MACHINE LEARNING

SISTEMAS DE APRENDIZAJE AUTOMATICO. MACHINE LEARNING Ver más grande

PRECIO: 40,00 €

Disponibilidad de 3 a 7 días aproximadamente

CANTIDAD

Referencia: Código 10173


DESCRIPCIÓN:

Septiembre de 2022  -  César Pérez López  -  Refª 10173

CONTENIDO:

César Pérez López

Septiembre de 2022        Páginas: 544

Código 10173      ISBN/EAN: 9788419034076

CONTENIDO: El libro está dirigido tanto a alumnos que siguen un Curso de especialización en Inteligencia Artificial y Big Data como a profesionales del sector.

Comienza clasificando los sistemas, herramientas, técnicas y algoritmos o modelos aplicados al Aprendizaje Automático. A continuación, se tratan las técnicas de aprendizaje supervisado, sus fases y plataformas, así como los algoritmos y modelos más importantes. Se desarrollan las técnicas de regresión con sus fases de identificación, estimación, validación (diagnosis) y predicción.

Se presentan los métodos especiales de regresión como PLS, LARS, LASSO, ELASTIC NET, RANSAC, THEIL, HUBERT, KERNEL RIDGE REGRESSION (KRR), SUPPORT VECTOR REGRESSION (SVR) y STOCHASTIC GRADIENT DESCENDT (SGD) entre otros.

Asimismo, se tratan las técnicas de aprendizaje supervisado enfocadas a la clasificación o segmentación como los Modelos Logit y Probit, los Modelos Lineales Generalizados, los Árboles de Decisión, los Modelos de Análisis Discriminante, los Modelos SVM (Support Vector Machine), lo modelos kNN (Vecino más Cercano) y los Modelos SLRM (Respuesta de Autoaprendizaje).

Todas las técnicas citadas anteriormente se ilustran con ejemplos y se resuelven con el software de Machine Learning adecuado, incluyendo Python, R, IBM SPSS Modeler y SAS Enterprise Miner.

A continuación se abordan las técnicas de aprendizaje no supervisado como la Reducción de la Dimensión mediante Análisis de Componentes Principales y Análisis Factorial. Entre las técnicas de aprendizaje no supervisado para la clasificación y segmentación se desarrolla el Análisis Clúster tanto jerárquico como no jerárquico, algoritmos de detección de anomalías y Reglas de Asociación. Para todas las técnicas se presentan ejemplos significativos que se resuelven con el software más utilizado en estos casos, como R e IBM SPSS Modeler.

Finalmente, se profundiza en los Modelos de Redes Neuronales, tanto para técnicas de aprendizaje supervisado como el ajuste de modelos predictivos (Perceptrón Multicapa y Red de Base Radial) como para técnicas de análisis no supervisado como el análisis clúster (Redes de Kohonen). Se desarrollan también las Redes Neuronales Bayesianas y se introducen las técnicas de Deep Learning y las Redes Neuronales Convolucionales. Se presentan ejemplos totalmente resueltos con software visual como es el caso de IBM SPSS Modeler. Se finaliza con las técnicas de valoración y comparación de modelos.

INDICE EXTRACTADO:

Capítulo 1. Inteligencia artificial
1.1 Introducción a la inteligencia artificial: características y aplicaciones

1.2 Inteligencia artificial débil o Narrow
1.3 Inteligencia artificial fuerte

Capítulo 2. Machine Learning
2.1 Clasificación de los sistemas de aprendizaje automático: supervisado y no supervisado

2.2 Algoritmos o modelos aplicados al aprendizaje automático
2.3 Procedimientos de Machine Learning
2.4 Herramientas de aprendizaje automático
2.5 Aplicaciones del Machine Learning

Capítulo 3. Algoritmos y técnicas de aprendizaje supervisado
3.1 Elementos y herramientas de aprendizaje supervisado

3.2 Datos etiquetados, variables de entrada y etiquetas de salida
3.3 Plataformas de Machine Learning
3.4 Fases del aprendizaje automático

Capítulo 4. Aprendizaje supervisado. Modelo predictivo básico de regresión lineal múltiple. Ejemplos con R
4.1 Regresión lineal múltiple

4.2 Hipótesis en el modelo de regresión múltiple
4.3 Estimación por MCO (mínimos cuadrados ordinarios)
4.4 Estimación por máxima verosimilitud
4.5 Validación en el modelo MCO
4.6 Predicción en el modelo MCO
4.7 Modelos de regresión óptimos
4.8 Diagnosis de los residuos
4.9 R y el trabajo básico con el modelo de regresión múltiple

Capítulo 5. Aprendizaje supervisado. Validación en el modelo de regresión múltiple: multicolinealidad, autocorrelación y heteroscedasticidad. Ejemplos con R
5.1 Diagnosis: el problema de la autocorrelación

5.2 Diagnosis: indicadores y contrastes para detección de la autocorrelación
5.3 Diagnosis: el problema de la heteroscedasticidad
5.4 Diagnosis: indicadores y contrastes de detección de la heteroscedasticidad
5.5 Tratamiento de la heteroscedasticidad
5.6 Diagnosis: el problema de la multicolinealidad
5.7 Diagnosis: normalidad de los residuos
5.8 Diagnosis: no linealidad y errores de especificación en el modelo
5.9 Diagnosis: problemas de exogeneidad y regresores estocásticos
5.10 Diagnosis: el problema de las observaciones influyentes
5.11 Multicolinealidad, autocorrelación, heteroscedasticidad y valores influyentes a través de R
5.11.1 Ajustando modelos de regresión con menús en R

Capítulo 6. Aprendizaje supervisado. Validación: multicolinealidad en el modelo de regresión lineal. Métodos PLS y Ridge Regression. Ejemplos con R
6.1 Multicolinealidad en el modelo predictivo de regresión lineal

6.2 Mínimos cuadrados parciales. Método PLS
6.3 El método Ridge Regression de la regresión en cadena

Capítulo 7. Aprendizaje supervisado. Modelos lineales generalizados. Ejemplos con R
7.1 Aprendizaje supervisado: modelo lineal generalizado

7.2 Modelos de variable dependiente limitada y recuento: Logit, Probit, Poisson y binomial negativa
7.3 Distribuciones de la familia exponencial
7.4 Tratamiento de los modelos lineales generalizados a través de R
7.5 Tratamiento de los modelos lineales generalizados en R a través de menús

Capítulo 8. Aprendizaje supervisado. Modelos Logít y Probit. Modelos de recuento. Ejemplos con R
8.1 Aprendizaje supervisado. Modelos predictivos de variable dependiente limitada

8.2 Aprendizaje supervisado: modelos de elección discreta
8.3 Aprendizaje supervisado: modelos de elección discreta binaria
8.4 Aprendizaje supervisado: modelos de elección múltiple
8.5 Aprendizaje supervisado: modelos Logit y Probit ordenados
8.6 Aprendizaje supervisado: modelos de datos de recuento
8.7 Aprendizaje supervisado: modelos Logit y Probit a trvés de R
8.8 Aprendizaje supervisado: modelos Logit y Probit binarios a través de menús en R
8.9 Aprendizaje supervisado: modelo Logit multinomial a través de menús en R
8.10 Aprendizaje supervisado: modelos logit y Probit multinomiales ordenados a través de menús en R

Capítulo 9. Aprendizaje supervisado con Python. La biblioteca Scikit-Learn. Regresión lineal múltiple
9.1 Scikit-Learn

9.2 Regresión lineal. Mínimos cuadrados ordinarios (OLS). Comando linearregression
9.3 Regresión lineal simple con Python
9.4 Predicción con regresión lineal simple
9.5 Regresión lineal múltiple con Python
9.6 Predicción de regresión lineal múltiple
9.7 Gráfico de la regresión simple

Capítulo 10. Aprendizaje supervisado a través de Python: Ridge Regression, ARD regression, validación y regresión bayesiana con Scikit Learn
10.1 Tratamiento de la multicolinealidad a través de la Ridge Regression

10.2 Usando la validación cruzada
10.3 Transformación de objetivos y Ridge Regression
10.4 Regresión bayesiana
10.5 Ejemplo completo de regresión OLS y regresión bayesiana con predicciones
10.6 Determinación automática de la relevancia – Ard Regression

Capítulo 11. Aprendizaje supervisado con Python. Lasso regression y Elastic Net Regression con Scikit Learn.
11.1 Regresión del lazo (Lasso Regression)

11.2 La regresión del lazo en Scikit Learn
11.3 Usando la validación cruzada
11.4 Lasso multitarea
11.5 Regresión Elastic Net
11.6 Elastic Net Multitarea (Multitask Elastic Net)
11.7 Regresión Lasso Lars

Capítulo 12. Aprendizaje supervisado con Python. Regresión robusta, valores atípicos y errores en modelos. Regresiones RANSAC, THEIL-SEN y HUBER
12.1 Regresión robusta: valores atípicos y errores de modelización

12.2 RANSAC: Random Sample Consensus
12.3 Estimador Theil-Sen: estimador de base mediática generalizada
12.4 Regresión de Huber

Capítulo 13. Aprendizaje supervisado con Python. Kernel Ridge Regression (KRR), Support Vector Regression (SVR) y Stochastic Gradient Descend (SGD)
13.1 Kernel Ridge Regression

13.2 Nyström Kernel Ridge Regression
13.3 Support Vector Regression (SVR)
13.4 Comparación de Kernel Ridge Regression (KRR) y Support Vector Regression (SVR)
13.5 Descenso de gradiente estocástico - SGD¶

Capítulo 14. Aprendizaje supervisado a través de IBM SPSS MODELER
14.1 Introducción

14.2 Técnicas de aprendizaje supervisado con IBM SPSS MODELER
14.3 El nodo discriminante: modelos de análisis discriminante
14.4 Nodo KNN. Modelos de vecinos más próximos
14.5 Nodo SVM. Modelos de máquina de vectores de soporte
14.6 Nodo SLRM. Modelos de respuesta de autoaprendizaje
14.7 Árboles de decisión
14.8 Árboles de decisión con IBM SPSS MODELER

Capítulo 15. Aprendizaje no supervisado. Técnicas y herramientas
15.1 Técnicas de aprendizaje no supervisado

15.2 Algoritmos de aprendizaje no supervisado
15.3 Fases del aprendizaje no supervisado
15.4 Plataformas para el aprendizaje no supervisado

Capítulo 16. Aprendizaje no supervisado. Reducción de la dimensión. Ejemplos con R
16.1 Transformación de datos mediante técnicas de reducción de la dimensión

16.2 Componentes principales
16.3 Análisis factorial
16.4 análisis de componentes principales a través de R
16.5 Componentes principales a través de comandos
16.6 Análisis factorial a través de R
16.7 Análisis factorial a través de comandos

Capítulo 17. Aprendizaje no supervisado. Análisis clúster. Ejemplos a través de R
17.1 El análisis clúster

17.2 Clústeres jerárquicos, secuenciales, aglomerativos y exclusivos (S.A.H.N)
17.3 El dendograma en el análisis clúster jerárquico
17.4 Análisis clúster no jerárquico
17.5 Análisis clúster jerárquico a través de R
17.6 Análisis clúster a través de comandos
17.7 Análisis clúster no jerárquico a través de R

Capítulo 18. Aprendizaje no supervisado a través de IBM SPSS MODELER
18.1 Técnicas de aprendizaje no supervisado con IBM SPSS MODELER

18.2 Reglas de asociación
18.3 Reglas de asociación en IBM SPSS. El nodo a priori
18.4 Reglas de asociación en IBM SPSS MODELER. El nodo CARMA
18.5 Componentes principales y análisis factorial. El nodo factor/PCA

Capítulo 19. Modelos de redes neuronales
19.1 Descripción de una red neuronal

19.2 Redes neuronales y ajuste de modelos predictivos (aprendizaje supervisado)
19.3 Aprendizaje en las redes neuronales
19.4 Funcionamiento de una red neuronal
19.5 Redes neuronales con IBM SPSS MODELER
19.6 Clustering mediante redes neuronales (aprendizaje no supervisado)
19.7 Análisis clúster con redes neuronales con IBM SPSS MODELER: nodo Kohonen
19.8 Aprendizaje profundo o Deep Learning
19.9 Redes neuronales convolucionales

Capítulo 20. Validación de modelos
20.1 Herramientas de validación de modelos

20.2 Ajuste y validación de un modelo predictivo de red neuronal con SPSS

Más detalles

TAMBIEN LE PUEDE INTERESAR

OTROS PRODUCTOS DE LA MISMA MATERIA

También puede hacer sus pedidos sin necesidad de crear una cuenta a: pedidos@belliscovirtual.com . Deberá indicar todos sus datos y los códigos de los libros solicitados.