Disponibilidad de 3 a 7 días aproximadamente
César Pérez López
Febrero de 2026 Páginas: 238
Código 11936 ISBN/EAN: 9791387803070
CONTENIDO:
La ciencia de datos es un campo interdisciplinar que utiliza métodos, algoritmos, procesos y sistemas para extraer conocimiento y conclusiones a partir de todo tipo de datos. A través del aprendizaje automático combina elementos de estadística, informática, matemáticas y técnicas de análisis para resolver problemas, hacer predicciones y generar valor a partir de los datos. Se apoya en grandes volúmenes de datos (Big Data) para descubrir patrones, tendencias y relaciones que pueden ser utilizadas para la toma de decisiones.
En este libro se desarrollan técnicas de aprendizaje supervisado utilizadas habitualmente en las aplicaciones de Inteligencia Artificial Predictiva y Ciencia de Datos.
Las técnicas se ilustran con ejemplos totalmente resueltos a partir del software adecuado para ello. Se utilizará el lenguaje R y sus librerías relativas al aprendizaje supervisado, ideales para trabajar en este campo.
Se profundiza en algoritmos predictivos como:
Se tratan especialmente los modelos para predicción de series temporales con redes neuronales (LSTM, RNN, NARX, NNAR, GRU y otros).
INDICE EXTRACTADO:
Inteligencia artificial, Ciencia de datos y Aprendizaje automático
Capítulo 1. Aprendizaje automático
1.1 Clasificación de los sistemas de aprendizaje automático: supervisado y no supervisado
1.2 Algoritmos aplicados al aprendizaje automático
1.3 Herramientas de aprendizaje automático
Capítulo 2. Aprendizaje supervisado. Modelo predictivo básico de regresión lineal múltiple. Ejemplos con R
2.1 Regresión lineal múltiple
2.2 Hipótesis en el modelo de regresión múltiple
2.3 Estimación por MCO (mínimos cuadrados ordinarios)
2.4 Estimación por máxima verosimilitud
2.5 Validación en el modelo MCO
2.6 Predicción en el modelo MCO
2.7 Regresión paso a paso
2.8 Diagnosis de los residuos
2.9 R y el trabajo básico con el modelo de regresión múltiple
Capítulo 3. Aprendizaje supervisado. Validación en el modelo de regresión múltiple: multicolinealidad, autocorrelación y heteroscedasticidad. Ejemplos con R
3.1 Diagnosis: el problema de la autocorrelación
3.2 Diagnosis: indicadores y contrastes para detección de la autocorrelación
3.3 Diagnosis: el problema de la heteroscedasticidad
3.4 Diagnosis: indicadores y contrastes de detección de la heteroscedasticidad
3.5 Tratamiento de la heteroscedasticidad
3.6 Diagnosis: el problema de la multicolinealidad
3.7 Diagnosis: normalidad de los residuos
3.8 Diagnosis: no linealidad y errores de especificación en el modelo
3.9 Diagnosis: problemas de exogeneidad y regresores estocásticos
3.10 Diagnosis: el problema de las observaciones influyentes
3.11 Multicolinealidad, autocorrelación, heteroscedasticidad y valores influyentes a través de R
Capítulo 4. Aprendizaje supervisado. Validación: multicolinealidad en el modelo de regresión lineal. Métodos PLS y Ridge Regression. Ejemplos con R
4.1 Multicolinealidad en el modelo predictivo de regresión lineal
4.2 Mínimos cuadrados parciales. método PLS
4.3 El método Ridge Regression de la regresión en cadena
Capítulo 5. Selección de variables en regresión y validación cruzada. Lars Regression, Lasso Regression y Elastic Net Regression.
5.1 Regresión del Lazo (Lasso Regression)
5.2 La regresión del lazo en R
5.3 Lasso multitarea
5.4 Regresión del ángulo mínimo (Lars Regression)
5.5 Regresión Elastic Net
5.6 Elastic Net Multitarea (Multitask Elastic Net)
Capítulo 6. Regresión robusta. Valores atípicos y errores de medida. Regresiones RANSAC, Theil-Sen y Huber
6.1 Regresión robusta: valores atípicos y errores de modelización
6.2 RANSAC: RANdom SAmple Consensus
6.3 Estimador Theil-Sen: estimador de base mediática generalizada
6.4 Regresión de Huber
Capítulo 7. Métodos de regresión robusta: Kernel Ridge Regression (KRR), Support Vector Regression (SVR) y Stochastic Gradient Descendt (SGD)
7.1 Kernel Ridge Regression
7.2 Nyström Kernel Ridge Regression
7.3 Support Vector Regression (SVR)
7.4 Comparación de Kernel Ridge Regression (KRR) y Support Vector Regression (SVR)
7.5 Descenso de gradiente estocástico (SGD)
Capítulo 8. Aprendizaje supervisado. Modelos lineales generalizados. Ejemplos con R
8.1 Aprendizaje supervisado: modelo lineal generalizado
8.1.1 Elementos de un modelo lineal generalizado:
8.2 Modelos de variable dependiente limitada y recuento: logit, probit, poisson y binomial negativa
8.3 Distribuciones de la familia exponencial
8.4 Tratamiento de los modelos lineales generalizados a través de R
8.5 Tratamiento de los modelos lineales generalizados en R a través de menús
Capítulo 9. Aprendizaje supervisado. Modelos logít y probit. Modelos de recuento. Ejemplos con r
9.1 Aprendizaje supervisado. modelos predictivos de variable dependiente limitada
9.2 Aprendizaje supervisado: modelos de elección discreta
9.3 Aprendizaje supervisado: modelos de elección discreta binaria
9.4 Aprendizaje supervisado: modelos de elección múltiple
9.5 Aprendizaje supervisado: modelos logit y probit ordenados
9.7 Aprendizaje supervisado: modelos logit y probit a través de R
9.8 Aprendizaje supervisado: modelos logit y probit binarios a través de menús en R
9.9 aprendizaje supervisado: modelo logit multinomial a través de menús en R
9.10 Aprendizaje supervisado: modelos logit y probit multinomiales ordenados a través de menús en R
Capítulo 10. Aprendizaje supervisado con r. Redes neuronales.
10.1 Descripción de una red neuronal
10.2 Redes neuronales y ajuste de modelos de regresión
Capítulo 11. Predicción de series temporales mediante redes neuronales
11.1 Análisis de series temporales mediante redes neuronales
11.2 Redes neuronales para predicción de series temporales en R
11.3 R y las series temporales mediante redes neuronales con forecast, NNET y NNAR
También le puede interesar