Oportunidades de Investigación Públicas

05-06-2025 Análisis e Implementación de un Método de Suavización Aleatorizada para Optimización Convexa Estocástica
Este proyecto busca investigar teórica y computacionalmente la técnica de suavización aleatorizada ({\em randomized smoothing}) en optimización estocástica en altas dimensiones. Se explorarán casos específicos, tales como modelos intrinsecamente de baja dimensión, o redes neuronales de una capa oculta. Los objetivos del proyecto son múltiples. El principal es determinar cotas precisas en las tasas de convergencia en estas estructuras particulares de funciones objetivo, y determinar a partir de estas tasas el mejor diseño de arquitectura y elección de parámetros para los algoritmos. Sin embargo, otro aspecto importante es la comparación en el desempeño de los algoritmos usando información de primer orden (gradientes) versus de orden cero (evaluaciones). En este último caso es de interés estudiar modelos locales para métodos de región de confianza ({\em trust region}). Finalmente, es de interés estudiar el efecto de la elección de la distribución en la regularidad de la función suavizada
Keywords:       Optimización convexa
Prerequisitos:  IMT3150

Tiene un método de evaluación Nota 1-7, con 10 créditos y tiene 1/1 vacantes disponibles

Mentor(es): Ver en la plataforma

Public Research Opportunities

05-06-2025
Referencias: • Nesterov, Y., Spokoiny, V. Random Gradient-Free Minimization of Convex Functions. Found Comput Math 17, 527–566 (2017) • Diakonikolas J., Guzmán C.: Optimization on a Finer Scale: Bounded Local Subgradient Variation Perspective. ArXiv:2403.16317 (2024)
Keywords:       Optimización convexa
Prerequisites:  IMT3150

Evaluation method: Nota 1-7, with 1/1 available vacants

Mentor(s): Open in the plataform