Imprimir

Programa

CURSO:FUNDAMENTOS MATEMÁTICOS PARA INTELIGENCIA ARTIFICIAL	 
TRADUCCIÓN:MATHEMATICAL FOUNDATIONS FOR ARTIFICIAL INTELLIGENCE
SIGLA:IMT3850
CRÉDITOS:05 
MÓDULOS:02	
CARÁCTER:MÍNIMO
TIPO:CÁTEDRA,LABORATORIO
CALIFICACIÓN:ESTÁNDAR
DISCIPLINA:INGENIERÍA,COMPUTACIÓN
PALABRAS CLAVE:COMPUTACIÓN,INTELIGENCIA,ARTIFICIAL,FUNDAMENTOS,MATEMÁTICOS,DATA,SCIENCE


I.DESCRIPCIÓN DEL CURSO 

En este curso los estudiantes adquirirán las herramientas matemáticas básicas para analizar los modelos y algoritmos detrás del aprendizaje automático e inteligencia artificial. En el curso, los estudiantes abordarán el álgebra lineal, incluyendo ejemplos y aplicaciones en optimización y aprendizaje estadístico para posteriormente distinguir herramientas básicas de probabilidades, y aplicaciones a estadística y ciencia de datos.


II.RESULTADOS DE APRENDIZAJE 

1.Distinguir conceptos básicos de algebra lineal y su aplicación en inteligencia artificial. 

2.Analizar los modelos y algoritmos que se encuentran en la base del aprendizaje de máquina. 

3.Aplicar herramientas básicas de probabilidad, estadística y ciencia de datos para resolver problemas de aprendizaje de máquina.


III.CONTENIDOS

1.Espacios vectoriales: vectores, funciones lineales, normas, independencia lineal.

2.Matrices: operaciones con matrices, rango, diagonalización, descomposición en valores singulares y factorizaciones.

3.Ejemplos y aplicaciones: clustering, sistemas dinámicos lineales, mínimos cuadrados, LASSO y factorización no-negativa de matrices (topic models).

4.Probabilidades: eventos y probabilidades, variables aleatorias y ejemplos de distribuciones clásicas, ley de los grandes números y teorema del límite central.

5.Momentos y desvíos: desigualdades de Markov, Chebyshev y Hoeffding.

6.Ejemplos y aplicaciones: Estimación de parámetros en altas dimensiones, minimización de riesgo empírico para aprendizaje estadístico.

7.Métodos de gradiente para optimización estocástica: funciones convexas suaves, convergencia del método del gradiente, método de gradiente estocástico.

8.Dualidad Lagrangeana para minimización con restricciones, condiciones de KKT, y aplicación al problema de minimización de riesgo empírico.


IV.ESTRATEGIAS METODOLÓGICAS 

-Clases expositivas.

-Actividades prácticas en clases. 


V.ESTRATEGIAS EVALUATIVAS

-Controles: 50%

-Tareas Aplicadas: 50%


VI.BIBLIOGRAFÍA 

Mínima

Boyd, S.,Vanderberghe, L.“Introduction to Applied Linear Algebra: Vectors, Matrices and Least Squares”,Cambridge University Press,2018

Mitzenmacher, M.,Upfal, E.“Probability and Computing. Randomization and Probabilistic Techniques in Algorithms and Data Analysis”,Cambridge University Press, 2017


Complementaria

Boyd, S., Vanderberghe, L. “Convex Optimization”, Cambridge University Press, 2004


PONTIFICIA UNIVERSIDAD CATÓLICA DE CHILE 
ESCUELA DE INGENIERÍA / ENERO 2020