


WHAT WE DO

Objetivos
Proveer al alumno de los detalles formales matemáticos necesarios para continuar el estudio sistemático de machine learning
Comprender los detalles de las soluciones más eficientes computacionalmente para regresiones lineales (si el tiempo lo permite redes neuronales también)
Motivar el estudio de procesos estocásticos y su relación con machine learning.
Estudiar con detalle algunos algoritmos estocásticos y su relación con aproximación estocástica.
Iniciar el estudio de aspectos en paralelo de la ciencia de datos
Temario del curso uno
1. Regresiones lineales
Repaso y definiciones formales
Solución exacta y condiciones estadísticas
Sobre-ajuste y regularidad
Descomposición QR matricial
Método del gradiente en dos dimensiones
Método del gradiente en general
Aspectos computacionales del método del gradiente
2. Método del gradiente estocástico
Complementos de probabilidad
Funciones de Lypschitz y funciones de pérdida
Resultados generales y aplicaciones
Ventajas estadísticas y computacionales
Relación con aproximación estocástica
3. Algoritmos y aproximación estocástica
Invitación a procesos estocásticos
Algunas martingalas
Aprendizaje en línea
Urnas de Polya
Funciones de Lyaopunov
Redes neuronales