CIENCIA DE DATOS CON R. REGRESIÓN. Aprendizaje supervisado
  • CIENCIA DE DATOS CON R. REGRESIÓN. Aprendizaje supervisado

CIENCIA DE DATOS CON R. REGRESIÓN. Aprendizaje supervisado

34,62 €

Disponibilidad de 3 a 7 días aproximadamente

Código 11936
9791387803070
Agregar a favoritos

César Pérez López

Febrero de 2026         Páginas: 238

Código 11936       ISBN/EAN: 9791387803070

CONTENIDO:

La ciencia de datos es un campo interdisciplinar que utiliza métodos, algoritmos, procesos y sistemas para extraer conocimiento y conclusiones a partir de todo tipo de datos. A través del aprendizaje automático combina elementos de estadística, informática, matemáticas y técnicas de análisis para resolver problemas, hacer predicciones y generar valor a partir de los datos. Se apoya en grandes volúmenes de datos (Big Data) para descubrir patrones, tendencias y relaciones que pueden ser utilizadas para la toma de decisiones.

En este libro se desarrollan técnicas de aprendizaje supervisado utilizadas habitualmente en las aplicaciones de Inteligencia Artificial Predictiva y Ciencia de Datos.

Las técnicas se ilustran con ejemplos totalmente resueltos a partir del software adecuado para ello. Se utilizará el lenguaje R y sus librerías relativas al aprendizaje supervisado, ideales para trabajar en este campo.

Se profundiza en algoritmos predictivos como:

  • Regresión Lineal Múltiple,
  • Ridge Regression,
  • PLS Regression,
  • LARS Regression,
  • LASSO Regression,
  • Elastic Net Regression,
  • Modelo Lineal Generalizado,
  • Regresión Robusta,
  • Support Vector Regression (SVR),
  • Kernel Ridge Regression (KRR),
  • Stochastic Gradient Descendent Regression (SGD),
  • Regresión de Hubert,
  • Regresión de Poisson,
  • Regresión Binomial Negativa,
  • Modelos Logit y Probit,
  • Modelos de Recuento, y
  • Modelos de Regresión con Redes Neuronales.

Se tratan especialmente los modelos para predicción de series temporales con redes neuronales (LSTM, RNN, NARX, NNAR, GRU y otros).

INDICE EXTRACTADO:


Inteligencia artificial, Ciencia de datos y Aprendizaje automático

Capítulo 1. Aprendizaje automático
1.1 Clasificación de los sistemas de aprendizaje automático: supervisado y no supervisado

1.1.1 Aprendizaje supervisado
1.1.2 Aprendizaje no supervisado

1.2 Algoritmos aplicados al aprendizaje automático
1.3 Herramientas de aprendizaje automático

Capítulo 2. Aprendizaje supervisado. Modelo predictivo básico de regresión lineal múltiple. Ejemplos con R
2.1 Regresión lineal múltiple

2.2 Hipótesis en el modelo de regresión múltiple

2.2.1 Hipótesis para la validación del error
2.2.2 Hipótesis para la validación de los regresores
2.2.3 Hipótesis para los parámetros
2.2.4 Hipótesis para la ecuación del modelo

2.3 Estimación por MCO (mínimos cuadrados ordinarios)
2.4 Estimación por máxima verosimilitud
2.5 Validación en el modelo MCO
2.6 Predicción en el modelo MCO

2.6.1 Predicciones puntuales y en media e intervalos de confianza
2.6.2 Indicadores de la Capacidad Predictiva de un modelo

2.7 Regresión paso a paso
2.8 Diagnosis de los residuos
2.9 R y el trabajo básico con el modelo de regresión múltiple

2.9.1 Regresión curvilínea polinómica
2.9.2 Interacciones en la regresión
2.9.3 Ausencia de la constante en la regresión


Capítulo 3. Aprendizaje supervisado. Validación en el modelo de regresión múltiple: multicolinealidad, autocorrelación y heteroscedasticidad. Ejemplos con R
3.1 Diagnosis: el problema de la autocorrelación

3.2 Diagnosis: indicadores y contrastes para detección de la autocorrelación

3.2.1 Indicadores para la autocorrelación: Estadístico DW de Durbin-Watson
3.2.2 Contrastes matemáticos para la autocorrelación. Prueba de Breusch-Godfrey
3.2.3 Tratamiento de la autocorrelación

3.3 Diagnosis: el problema de la heteroscedasticidad
3.4 Diagnosis: indicadores y contrastes de detección de la heteroscedasticidad

3.4.1 Diagnosis mediante el contraste de Goldfeld-Quandt
3.4.2 Diagnosis mediante el contraste de Glesjer
3.4.3 Diagnosis mediante el contraste W de White
3.4.4 Diagnosis mediante el contraste RESET de Ramsey
3.4.5 Diagnosis mediante el contraste de Breush-Pagan

3.5 Tratamiento de la heteroscedasticidad

3.5.1 Estimación mediante Mínimos Cuadrados Generalizados y Mínimos Cuadrados Ponderados
3.5.2 Estimación mediante el método de White

3.6 Diagnosis: el problema de la multicolinealidad

3.6.1 Diagnosis: Detección de la multicolinealidad
3.6.2 Tratamiento de la multicolinealidad

3.7 Diagnosis: normalidad de los residuos

3.7.1 Ausencia de normalidad en los residuos
3.7.2 Tratamiento de la falta de normalidad residual

3.8 Diagnosis: no linealidad y errores de especificación en el modelo

3.8.1 El problema del error de especificación en la selección de las variables explicativas
3.8.2 El problema del error de especificación en la forma funcional. Contrastes de linealidad

3.9 Diagnosis: problemas de exogeneidad y regresores estocásticos
3.10 Diagnosis: el problema de las observaciones influyentes
3.11 Multicolinealidad, autocorrelación, heteroscedasticidad y valores influyentes a través de R

3.11.1 Ajustando modelos de regresión con menús en R


Capítulo 4. Aprendizaje supervisado. Validación: multicolinealidad en el modelo de regresión lineal. Métodos PLS y Ridge Regression. Ejemplos con R
4.1 Multicolinealidad en el modelo predictivo de regresión lineal

4.2 Mínimos cuadrados parciales. método PLS

4.2.1 Mínimos cuadrados parciales (PLS) en R

4.3 El método Ridge Regression de la regresión en cadena

4.3.1 Ridge Regression a través de R


Capítulo 5. Selección de variables en regresión y validación cruzada. Lars Regression, Lasso Regression y Elastic Net Regression.
5.1 Regresión del Lazo (Lasso Regression)

5.2 La regresión del lazo en R
5.3 Lasso multitarea
5.4 Regresión del ángulo mínimo (Lars Regression)
5.5 Regresión Elastic Net
5.6 Elastic Net Multitarea (Multitask Elastic Net)

Capítulo 6. Regresión robusta. Valores atípicos y errores de medida. Regresiones RANSAC, Theil-Sen y Huber
6.1 Regresión robusta: valores atípicos y errores de modelización

6.2 RANSAC: RANdom SAmple Consensus

6.2.1 Estimación de un modelo lineal robusto usando RANSAC con R
6.2.2 Ajuste de un estimador lineal robusto en R

6.3 Estimador Theil-Sen: estimador de base mediática generalizada

6.3.1 La regresión de Theil-Sen
6.3.2 Regresión de Theil como regresión quantílica

6.4 Regresión de Huber

6.4.1 Comparación de la regresión OLS y la regresión de Huber
6.4.2 Comparación de la regresión de Ridge y la regresión de Huber


Capítulo 7. Métodos de regresión robusta: Kernel Ridge Regression (KRR), Support Vector Regression (SVR) y Stochastic Gradient Descendt (SGD)
7.1 Kernel Ridge Regression

7.2 Nyström Kernel Ridge Regression
7.3 Support Vector Regression (SVR)
7.4 Comparación de Kernel Ridge Regression (KRR) y Support Vector Regression (SVR)
7.5 Descenso de gradiente estocástico (SGD)

Capítulo 8. Aprendizaje supervisado. Modelos lineales generalizados. Ejemplos con R
8.1 Aprendizaje supervisado: modelo lineal generalizado

8.1.1 Elementos de un modelo lineal generalizado:
8.2 Modelos de variable dependiente limitada y recuento: logit, probit, poisson y binomial negativa
8.3 Distribuciones de la familia exponencial
8.4 Tratamiento de los modelos lineales generalizados a través de R
8.5 Tratamiento de los modelos lineales generalizados en R a través de menús

Capítulo 9. Aprendizaje supervisado. Modelos logít y probit. Modelos de recuento. Ejemplos con r
9.1 Aprendizaje supervisado. modelos predictivos de variable dependiente limitada

9.2 Aprendizaje supervisado: modelos de elección discreta
9.3 Aprendizaje supervisado: modelos de elección discreta binaria

9.3.1 Aprendizaje supervisado: Modelo MLP (Modelo lineal de probabilidad)
9.3.2 Aprendizaje supervisado: Modelos Probit y Logit binarios

9.4 Aprendizaje supervisado: modelos de elección múltiple

9.4.1 Aprendizaje supervisado: Modelo Logit Multinomial
9.4.2 Aprendizaje supervisado: Modelo Logit Condicional
9.4.3 Aprendizaje supervisado: Modelo Logit Anidado
9.4.4 Aprendizaje supervisado: Modelo Probit Multinomial

9.5 Aprendizaje supervisado: modelos logit y probit ordenados

9.6 Aprendizaje supervisado: modelos de datos de recuento
9.6.1 Aprendizaje supervisado: Modelo de Regresión de Poisson
9.6.2 Aprendizaje supervisado: Modelo de Regresión de Binomial Negativa
9.6.3 Aprendizaje supervisado: Modelo de Regresión Exponencial
9.6.4 Aprendizaje supervisado: Modelo de Regresión Normal

9.7 Aprendizaje supervisado: modelos logit y probit a través de R
9.8 Aprendizaje supervisado: modelos logit y probit binarios a través de menús en R
9.9 aprendizaje supervisado: modelo logit multinomial a través de menús en R
9.10 Aprendizaje supervisado: modelos logit y probit multinomiales ordenados a través de menús en R

Capítulo 10. Aprendizaje supervisado con r. Redes neuronales.
10.1 Descripción de una red neuronal

10.1.1 Definición
10.1.2 Función de salida y funciones de transferencia o activación

10.2 Redes neuronales y ajuste de modelos de regresión

Capítulo 11. Predicción de series temporales mediante redes neuronales
11.1 Análisis de series temporales mediante redes neuronales

11.2 Redes neuronales para predicción de series temporales en R

11.2.1 Redes LSTM para predicción de series temporales en R
11.2.2 Redes Recurrentes RNN para predicción de series temporales en R
11.2.3 Redes GRU para predicción de series temporales

11.3 R y las series temporales mediante redes neuronales con forecast, NNET y NNAR

11.3.1 Predicción de series temporales con la librería forecast
11.3.2 Redes neuronales dinámicas en R. Predicción de series temporales con la librería nnet
11.3.3 Predicción de series temporales autorregresivas con el modelo NNAR

También le puede interesar