Imprimir

Programa

CURSO:TEORIA DE APRENDIZAJE AUTOMATICO 
TRADUCCION:MACHINE LEARNING I
SIGLA:IMT2260
CREDITOS:10
MODULOS:03
CARACTER:MINIMO
TIPO:CATEDRA	
CALIFICACION:ESTANDAR
PALABRAS CLAVE:CIENCIA DE DATOS, APRENDIZAJE AUTOMATICO, PREDICCION, APRENDIZAJE SUPERVISADO
NIVEL FORMATIVO:PREGRADO


I.DESCRIPCIÓN DEL CURSO

En este curso los estudiantes desarrollaran los fundamentos estadisticos y algoritmicos de la teoria de aprendizaje. Tras cursar este curso, el estudiante debe ser capaz de clasificar un problema de aprendizaje de acuerdo a sus caracteristicas, escoger un modelo apropiado para su resolucion, producir una garantia teorica de la complejidad muestral para dicho problema, y proponer un metodo computacional para resolverlo.


II.RESULTADOS DE APRENDIZAJE 

1.Clasificar problemas de aprendizaje de acuerdo a su estructura.

2.Escoger un modelo de aprendizaje para resolver un problema.

3.Producir garantias teoricas de la complejidad muestral para un problema de aprendizaje.

4.Proponer un metodo computacional para resolver un problema de aprendizaje.


III.CONTENIDOS

1.Problemas de Aprendizaje:
1.1.Estadistico, Adversarial, En-Linea, Supervisado, No-Supervisado
1.2.Validacion cruzada y tradeoff sesgo-varianza
1.3.Ejemplos y Aplicaciones

2.Modelos Lineales y Regresion
2.1.Breve repaso de modelos de regresion
2.2.Regularizacion
2.3.LASSO

3.Modelos Lineales en Clasificacion
3.1.Linear Discriminant Analysis
3.2.Regresion Logistica 
3.3.Separacion Lineal por Hiperplanos

4.Expansiones en bases y regularizacion
4.1.Interpolacion polinomial y splines 
4.2.Filtering y seleccion de atributos 
4.3.Suavizamiento
4.4.Regresion Logistica No-Parametrica
4.5.Espacios de Hilbert con Nucleo Reproducente
4.6.Wavelets

5.Metodos de suavizacion por kernels
5.1.Suavizacion en una dimension
5.2.Regresion local en R
5.3.Kernel Density Estimation
5.4.Modelos de mezclas para estimacion de densidad

6.Evaluacion y Seleccion de Modelos
6.1.Analisis de sesgo y varianza
6.2.Error empirico y generalizacion
6.3.Medidas de capacidad: numero efectivo de parametros, dimension de Vapnik-Chervonenkis y cotas de PAC-Bayes
6.4.Validacion cruzada
6.5.Bootstrap

7.Inferencia de modelos y averaging
7.1.Bootstrap y Estimador de Maxima Verosimilitud (MLE)
7.2.El algoritmo EM
7.3.Bagging

8.Modelos Aditivos y Arboles
8.1.Modelos aditivos generalizados
8.2.Metodos Basados en arboles 
8.3.Mezcla de expertos jerarquica

9.Boosting y Arboles Aditivos
9.1.Metodos de boosting
9.2.Perdida exponencial y ada-boost
9.3.Funciones de perdida y robustez
9.4.Boosting tres
9.5.Gradient Boosting
9.6.Regularizacion


IV.ESTRATEGIAS METODOLOGICAS

-Clases expositivas.

-Ayudantias. 

-Talleres practicos.


V.ESTRATEGIAS EVALUATIVAS 

-Interrogaciones: 40% 

-Tareas: 30% 

-Examen final escrito: 30% 


VI.BIBLIOGRAFIA

Minima

The Elements of Statistical Learning: Data Mining, Inference, and Prediction. Hastie, Tibshirani & Friedman. Second Edition. Springer, 2009

Understanding Machine Learning: From Theory to Algorithms. S. Shalev-Schwartz, S. Ben-David. Cambridge Univ Press, 2014


Complementaria

Neural Network Learning: Theoretical Foundations. M. Anthony & P. Bertlett. Cambridge University Press, 1999

Learning from Data, Y.S. Abu-Mostafa, M. Magdon-Ismail, H.-T. Lin. AMLBook, 2017.


PONTIFICIA UNIVERSIDAD CATOLICA DE CHILE
INSTITUTO DE INGENIERIA MATEMATICA Y COMPUTACIONAL / SEPTIEMBRE 2020