Oportunidades de Investigación Públicas

27-06-2024 LLMs para generación de revisiones de código de seguridad
El proyecto tiene como objetivo evaluar la factibilidad de utilizar Modelos de Lenguaje Grande (LLMs) para generar comentarios de revisión de código (code review) similares a los que haría un desarrollador en Pull Requests de Github. La investigación se divide en dos partes: primero, se realizará una revisión manual de un conjunto de commits extraídos de Github para identificar aquellos relacionados con parches de seguridad y crear un dataset etiquetado. En la segunda parte, se emplearán LLMs para generar y evaluar comentarios a partir de los commits etiquetados. El objetivo es determinar la efectividad de los LLMs en la replicación de revisiones de código humanas, con el fin de mejorar la eficiencia y calidad en la detección de errores y vulnerabilidades en el desarrollo de software.
Prerequisitos:  IIC2233 IIC2143

Tiene un método de evaluación Nota 1-7, con 10 créditos y tiene 1/1 vacantes disponibles

Mentor(es): Ver en la plataforma

Public Research Opportunities

27-06-2024 LLMs for security code review generation
The project's objective is to assess the feasibility of using Large Language Models (LLMs) to generate code review comments similar to those a developer would make on GitHub Pull Requests. The research is divided into two parts: first, a manual review of a set of commits extracted from GitHub will be conducted to identify those related to security patches and create a labeled dataset. In the second part, LLMs will be used to generate and evaluate comments based on the labeled commits. The goal is to determine the effectiveness of LLMs in replicating human code reviews, aiming to improve efficiency and quality in detecting errors and vulnerabilities in software development.
Prerequisites:  IIC2233 IIC2143

Evaluation method: Nota 1-7, with 1/1 available vacants

Mentor(s): Open in the plataform