Udemy

Platform

Español

Language

Math

Category

Estadística inferencial para Machine Learning con R y Python

Las bases de estadística inferencial en R y Python, desde cero aplicada al mundo del análisis y el data science

4.34 (195 reviews)

Students

59 hours

Content

Apr 2021

Last Update
Regular Price

SKILLSHARE
SkillShare
Unlimited access to 30 000 Premium SkillShare courses
30-DAY FREE TRIAL

What you will learn

Resolver problemas del ámbito de la estadística usando el entorno estadístico R

Estimar parámetros de una población a partir de una muestra

Calcular un intervalo de confianza tanto a mano como con R

Calcular e interpretar un contraste de hipótesis paramétrico y no paramétrico tanto a mano como con R

Realizar el análisis de la varianza tanto de un factor como de varios factores

Ajustar mediante modelos de regresión lineal simple y múltiple

Clasificar mediante diferentes técnicas de clustering


Description

Conoce toda la estadística inferencial de la mano de Juan Gabriel Gomila, Arnau Mir y Ricardo Alberich, expertos en la estadística y con más de 30 años de experiencia tanto en su docencia como en su aplicación práctica en la empresa. Asienta las bases para convertirte en el Data Scientist del futuro con todo el contenido de estadística inferencial del curso. En particular verás los mismos contenidos que explicamos en la carrera a los matemáticos, ingenieros, economistas, biólogos, médicos o informáticos como por ejemplo:

  • Logística e instalación de R y RStudio y de Anaconda Navigator para Python

  • Diseño experimental y tipos de muestreo, para que aprendas cómo se deben recopilar los datos para que el análisis estadístico o de Machine Learning tenga sentido.

  • Estimación puntual de parámetros poblacionales, incluyendo la media, la proporción, la desviación típica, el tamaño de la población o el máximo entre otros.

  • Elaboración de todos los intervalos de confianza para los parámetros poblacionales y su correcta interpretación desde el inicio, para que nunca más te equivoques al leer esa salida de un algoritmo de R o de Python.

  • Contrastes de hipótesis de una muestra, de dos muestras independientes y de dos muestras emparejadas para todos los estadísticos de contraste que estudiaremos, incluso cómo automatizar el análisis con R y con Python

  • Bondad de ajuste, de homogeneidad y de independencia para verificar si los datos proceden de poblaciones normales, o de poblaciones independientes entre otros. Incluido el test chi cuadrado de Pearson y el test de Kolmogorov Smirnov entre otros.

  • Análisis de la varianza para estudiar k poblaciones en paralelo y ver si todas ellas tienen la misma media o bien alguna destaca, muy útil en marketing para detectar filones de segmentos a explotar para maximizar las ventas y los beneficios.

  • Regresión lineal simple, múltiple y clustering desde cero, para que luego puedas expandir tus conocimientos en los cursos de Machine Learning de la A a la Z

  • Tareas, ejercicios, tests, problemas y casos reales para que pongas en práctica todo lo que aprendas con nosotros en el curso.

  • Repositorio Github con todo el material del curso para disponer de los mismos scripts que usamos en clase desde el minuto inicial.

Una vez termines el curso podrás seguir con los mejores cursos de análisis de datos publicados por Juan Gabriel Gomila como los cursos de Machine Learning o Inteligencia Artificial con Python o RStudio, el Curso de Data Science con Tidyverse y RStudio o incluso los varios cursos de Deep Learning1! Todo el material del curso está enfocado en resolver los problemas de falta de base en el ámbito de estadística inferencial que presentan los estudiantes de esos cursos avanzados y poderlo hacer en un curso a parte te permitirá nivelar tus conocimientos y tomar los otros cursos con garantías de éxito.


Screenshots

Estadística inferencial para Machine Learning con R y Python
Estadística inferencial para Machine Learning con R y Python
Estadística inferencial para Machine Learning con R y Python
Estadística inferencial para Machine Learning con R y Python

Content

Introducción

Introducción

Conoce a Ricardo Alberich y a Arnau Mir, doctores en matemáticas y estadística

Conoce a Juan Gabriel Gomila, tu instructor en Udemy

Cómo hacer preguntas en el curso de Udemy

La comunidad de Discord para aprender online

Repositorio Github del curso de estadística inferencial

Sacando el máximo provecho del curso

No valores el curso hasta no llevar más contenido visualizado

Pre requisitos del curso

Instalar y dominar las herramientas del curso

Cómo instalar R y RStudio

Navegar por la interfaz de RStudio

Ficheros, scripts y R markdowns

Instalación de Python y Anaconda

La librería reticulate

¿Donde puedo encontrar más ayuda si me falta base de R o Python?

Muestreo estadístico

Introducción al muestreo

Muestreo aleatorio con reposición

Muestreo aleatorio sin reposición

Muestreo sistemático

Muestreo estratificado

Muestreo por conglomerados

Muestreo polietápico

Funciones de muestreo en Python

Cuestionario de muestreo

Estimación puntual

Estadísticos

Definiciones formales usando variables aleatorias

La media muestral

Poblaciones normales

Ejercicio: calcular el error estándar de la media

La proporción muestral

La varianza y desviación típica muestral

Estimadores insesgados

Estimadores eficientes

El problema de los tanques alemanes

Estimadores máximo-verosímiles

Ejercicio: El estimador máximo verosímil de la lambda de una Poisson

Ejercicio: El estimador máximo verosímil de la varianza de una Normal

Ejercicio: El estimador máximo verosímil de la proporción de una Geométrica

Ejercicio: El estimador máximo verosímil de la proporción de una Geométrica

Ejercicio: Estimadores de la media y varianza para normales independientes

Ejercicio: media y varianza para normales con los mismos parámetros

Ejercicio: Un estimador consistente para la varianza

Ejercicio: Estimador del extremo superior de una variable uniforme

Ejercicio: ¿Cuántos libros hay en esta biblioteca?

Ejercicio: estudiar la consistencia y eficiencia de dos estimadores

Ejercicio (continuación)

Marca y recaptura

El paquete fitdistr de R

Estimación con scipy.stats en Python

Ejercicio: estimación de los parámetros de una distribución Rayleigh

Cuestionario de estimación puntual

Intervalos de confianza

El concepto de Intervalo de confianza

Intervalo de confianza para la media poblacional con desviación típica conocida

Interpretación y simulación de los intervalos de confianza

Ejemplos de cálculo de intervalos de confianza

Amplitud y error máximo cometido

Intervalo de confianza para media poblacional con desviación típica desconocida

Ejemplos de cálculo de intervalos de confianza

Intervalos de confianza para poblaciones normales con n grande

Amplitud y muestra piloto

La distribución t de Student en R

Un experimento sobre la confianza

Método exacto de Clopper-Pearson para el intervalo de confianza de la proporción

Métodos aproximados para grandes poblaciones

Amplitud del intervalo de confianza para la proporción

Intervalo de confianza para la varianza de una población normal

Ejercicio: Cálculos para hallar un intervalo de confianza concreto

La función varTest del paquete EnvStats

Bootstrap o remuestreo

Cuestionario de intervalos de confianza

Pon en práctica tu habilidad con la estimación e intervalos de confianza

Ejercicio: intervalo de confianza para la confiabilidad de ruptura del hilo

Repaso de estimación e intervalos con R y la importancia de los informes

Repaso de estimación puntual en Python

Intervalos de confianza con Python

El teorema central del límite y la interpretación de los intervalos de confianza

Contrastes de hipótesis paramétricos

La necesidad de contrastar afirmaciones

Tipos de hipótesis alternativas

Tipos de errores

Intervalo de confianza para μ en poblaciones normales con σ conocida

Intervalos unilaterales vs bilaterales

El p-valor de un contraste de hipótesis

Metodología para hacer un contraste de hipótesis

Contrastes de hipótesis para μ de una normal con σ desconocida: Z-test

Contrastes de hipótesis para μ de una normal con σ desconocida: T-test

Contrastes en R: función t.test

Contrastes de hipótesis para el parámetro p de una variable de Bernoulli

Contrastes para proporciones en R

Contrastes para proporciones cuando n es grande

Ejercicio: porcentaje de clientes interesados en un artículo

Contrastes para σ de una distribución normal: χ2-test

Contrastes de hipótesis para dos muestras

Contrastes para dos medias poblacionales independientes μ1 y μ2

Más sobre la función t.test de R

Ejercicio: Determinar cual es la hipótesis alternativa

Ejercicio: Demostración del intervalo de confianza para la diferencia de medias

Ejercicio: Error de tipo I y de tipo II en experimentos de Bernoulli

Ejercicio: Contrastando el parámetro de una uniforme

Contrastes para dos proporciones p1 y p2

Test de Fisher en R

Introducción a las odds

Contraste para dos proporciones: muestras grandes

Contrastes de dos muestras más generales

Contrastes para dos varianzas

Contrastes para varianzas en R

Muestras emparejadas

Contrastes para medias emparejadas en R. El test t

Contrastes de proporciones de muestras emparejadas

Contrastes para proporciones de muestras emparejadas en R

Contrastes para proporciones con binom.test

Contrastes de hipótesis para la proporción en Python

Contrastes de hipótesis para la media en Python

La librería scipy y sus tests en Python

Ejercicio: entendiendo los contrastes con diferentes ejemplos

Analizando los errores de tipo 1 y errores de tipo 2

Cuestionario de contraste de hipótesis

Bondad de ajuste

Contrastes paramétricos vs contrastes no paramétricos

Pruebas Gráficas: histogramas y qqplots

El test chi cuadrado de Pearson

El test chi cuadrado en R

Cómo comprobar si unos datos se distribuyen según una normal

Test de la chi cuadrado de Pearson con parámetros desconocidos

Ejercicio: el atleta universitario

Ejercicio: los coches en el aparcamiento del supermercado

Ejercicio: el número de muertos en las carreteras españolas

El test de Kolmogorov-Smirnov

Ejercicio: el tiempo de vida de un componente electrónico

Ejercicio: como elegir el precio razonable de un producto de hogar

Ejercicio: el tiempo transcurrido entre dos vuelos reservados

El test de normalidad de Kolmogorov-Smirnov-Lilliefors

El test de normalidad de Anderson-Darling

Test de Shapiro-Wilks

Test omnibus d'Agostino-Pearson

Test chi cuadrado de Pearson para bondad de ajuste en Python

Otra forma de implementar el test de la chi cuadrado en Python

Los test de normalidad en Python

Más sobre la librería scipy y su correcto uso

Cuestionario de bondad de ajuste

Contrastes de independencia y homogeneidad

¿Reducen las vacunas el riesgo de enfermar?

El test chi cuadrado de independencia

Las tablas de contingencia

Ejemplos de contrastes de independencia

Ejercicio: ¿son independientes fumar y morir de cancer?

Contrastes de independencia en R

El contraste con el p-valor simulado

Ejercicio: estimadores máximo verosímiles en contrastes de independencia

Contrastes de homogeneidad

La importancia del diseño experimental

Los contrastes de independencia y homogeneidad en Python

Cuestionario de independencia

Análisis de la varianza

El análisis de la varianza entre subpoblaciones

El almacenamiento de los datos para el ANOVA de un factor

Las sumas de los cuadrados totales, de los tratamientos y de los errores

Los estadísticos de contraste para el ANOVA

Comparaciones por parejas - Test de Bonferroni

Comparaciones por parejas - Test de Holm

Comparaciones por parejas - Test de Duncan y de Tukey

ANOVA de efectos aleatorios

Cómo comprobar las condiciones del ANOVA

Los tests de homocedasticidad en R

Ejercicio: los retrasos en los vuelos de dos compañías aéreas

Bloques completos aleatorios

Estadísticos del ANOVA por bloques

Identidad de la suma de cuadrados

Los estadísticos de contraste

ANOVA por bloques en R

Eficiencia relativa en la construcción de los bloques

ANOVA de dos vías

Estadísticos del ANOVA de dos vías

Identidad de la suma de cuadrados

Los estadísticos de contraste

ANOVA de dos vías en R

Los gráficos de interacción en R

El resumen en la Guía Rápida

Cuestionario de ANOVA

El ANOVA de una vía en Python

Comparación por parejas y el test de Tukey en Python

Cómo comprobar la normalidad y la homocedasticidad en Python

Cuestionario práctico de ANOVA

Regresión lineal

El problema de la regresión lineal simple

La técnica de los mínimos cuadrados

Función lm en R y propiedades de la recta de regresión lineal

Coeficiente de determinación

Errores típicos de novato: el cuarteto de Anscombe

Intervalos de confianza en la regresión lineal

Contraste de hipótesis para la pendiente ß1

El modelo de regresión lineal múltiple

Estimación de los parámetros por mínimos cuadrados

Propiedades de la función de regresión y coeficiente de determinación

Comparación de modelos: coeficiente de determinación ajustado, AIC y BIC

Intervalos de confianza para los coeficientes de la regresión lineal múltiple

Contraste de hipótesis para los parámetros ßi

Homocedasticidad de los errores con el test de White

Homocedasticidad de los errores con el test de Breusch-Pagan

Normalidad de los residuos

Correlación de los residuos

Aditividad y linealidad de las variables

Outliers, leverage y observaciones influyentes

La función step y la simplificación de los modelos

El resumen de toda la regresión lineal

Cómo hacer un modelo lineal en Python

El análisis de los residuos y el RMSE como métrica entre modelos

El análisis de outliers en Python

La regresión polinómica y por donde seguir estudiando acerca de la regresión

Overfitting o sobreajuste

La regresión lineal múltiple en Python

Cuestionario de regresión lineal

Introducción al clustering

Introducción al clustering

El algoritmo de los k-means

El algoritmo paso a paso

Las limitaciones de k-means

El método del codo para determinar el número de clusters

k-means en R

k-means en Python (del curso de Machine Learning de la A a la Z)

El clustering jerárquico y las distancias

Distancias en datos binarios

Distancias en datos continuos

Distancias en R

Escalado de variables

Clustering jerárquico aglomerativo

El algoritmo paso a paso

Clustering jerárquico aglomerativo en R

Cómo dibujar un dendrograma

Cómo hallar los clusters definidos por un cluster jerárquico

Propiedades del clustering jerárquico

Un resumen final de clustering

Cuestionario de clustering

Enhorabuena por completar el curso

Enhorabuena por completar el curso

BONUS: Un regalo para ti


Reviews

C
Cecilia23 October 2020

excelente curso, costo beneficio superior. Aunque se requiere tener conocimientos básicos de estadística.

J
Juan14 October 2020

Excelente curso y muy completo, muchas gracias los profesores Ricardo Alberich, Juan Gabriel Gomila y Arnau Mir.

G
Gonzalo12 October 2020

El curso en líneas generales me pareció muy muy completo, incluso va bastante mas allá que las asignaturas de estadística que se imparten en la universidad, me ha servido para refrescar conceptos, aprender algunos nuevos. Dicho esto (como todo en la vida siempre hay algún pero), si bien el curso esta bastante bien, el enfoque didáctico, en mi opinión es muy similar al que se aplican en las universidades, muy teórico con ejercicios para practicar con mayor o menor complejidad. En mi opinión (al menos hasta ahora) si el curso dispusiera de proyectos algo mas complejos, que fueran integrando las distintas partes/temas y ayudaran a aterrizar el uso de dichos conceptos a problemas mas tangibles, ya sean de estadística o Aprendizaje Automático, y además fueran capaces de sintetizar un poco mas la teoría sería perfecto. No obstante es mas fácil decirlo que hacerlo y es una apreciación personal. El curso acorde al precio pagado es muy recomendable.

I
Iván30 August 2020

Me está convenciendo bastante por la capacidad de los instructores. Sólo recomiendo que si el curso necesita niveles avanzados en algunos temas, lo escriban en los requerimientos.

O
Oscar25 June 2020

Muy buen curso y muy ameno. La única pega que podría poner, es que estaría bien que en los ejercicios de google collaborate, ampliara el zoom de la pantalla porque es letra muy pequeña y a los que nos falla la vista, nos cuesta leerla.

A
Abel29 May 2020

Muy buen curso y muy completo, excelente base para continuar con cursos y conocimientos de machine learning

J
Juan20 May 2020

Parece que el curso cubre el objetivo que busco, que es entender que hay detrás de los algoritmos de MAchine Learning y que hay después, a la hora de interpretar resultados. Espero que así sea.

P
Paulino15 May 2020

Fue una elección muy acertada para recordar conceptos y teoría aprendidos en la universidad y ampliarlos

B
Bruno25 March 2020

No he terminado el curso por lo que no sé si seguirá repitiéndose en futuros videos. En los videos en la parte de abajo a la izquierda hay un diagrama de barras que no para de moverse y me dificulta la atención, es meramente decorativo, no aporta nada y sin embargo ahí está siempre. Por todo lo demás los contenidos (los pocos que he podido ver) son más que correctos y están bien explicados. Si no te afecta ver cosas moviéndose en la pantalla (insisto es solo una pequeña animación abajo a la izquierda) no te lo pienses mucho y apúntate.

H
Hernan5 March 2020

El curso de Estadistica Inferencial con R y Python ofrecido por Juan Gabriel y Arnau Mir es super completo tanto en el aspecto teorico como practico, ha superado mis expectativas!

J
Johnny19 February 2020

Este curso es el más interesante por mayor relación con el machine Learning, respecto a los otros cursos aunque son necesarios también. Explica Clustering, Regresión lineal, intervalos de confianza etc con mayor profundidad que en la Universidad.

J
Jose18 February 2020

El curso es bueno, a la altura de los tutores. Después de ya unos cuantos de Juan Gabriel, sigue el mismo estilo de calidad. No le pongo 5 estrellas porque el curso está más pensado para R que para Python y aunque es cierto que sería interesante conocer ambos, yo no puedo permitírmelo por falta de tiempo y prefiero dedicar mis esfuerzos a un único lenguaje. No he completado todavía el 100% del curso pero de lo que llevo, está muy bien explicado, como siempre se nota una compresión de la materia por parte del tutor y buena capacidad didáctica. Creo que hay un error en uno de los notebooks de Python referente a la bondad de ajuste ya que me aparece dos veces el de "Test de Normalidad.ipynb". Quizás deberían estar también en el github del curso. Si puedo pedir más cursos, me gustaría seguir profundizando en Machine Learning con temas más específicos como por ejemplo análisis de series temporales. Muchas gracias por el esfuerzo y el buen trabajo.

R
Ricardo4 January 2020

Este curso es probablemente uno de los mejores para aquellos que queremos profundizar mas en el tema de ciencia de datos, los profesores son expertos y dominan los temas fácilmente, me ha encantado y ayudado demasiado.

Y
Yeison2 January 2020

Excelente curso. Al igual que los otros cursos dados por el profesor Juan Gabriel, cuenta con una metodología teórico-practica excelente, lo cual junto con los demás cursos (Estadística Descriptiva, Álgebra Lineal y Probabilidad), me dan las bases solidas para abordar los conocimientos en ML.

J
José31 December 2019

Excelente curso. Los profesores están ampliamente capacitados para impartirlo. Muchas gracias por compartir sus conocimientos.


Coupons

DateDiscountStatus
12/30/201993% OFFExpired
11/25/202092% OFFExpired
3/1/202194% OFFExpired
3/9/202192% OFFExpired
6/27/202194% OFFExpired
7/9/202194% OFFValid

2595826

Udemy ID

10/7/2019

Course created date

12/30/2019

Course Indexed date
Bot
Course Submitted by