22 meneos
49 clics
GitHub Copilot generó código inseguro en un 40% de los casos durante un experimento de la Universidad de Nueva York
GitHub anunció a finales de junio una sorprendente y polémica herramienta que permitía programar código recurriendo a la inteligencia artificial, autocompletando a partir de pequeños fragmentos proporcionados por el desarrollador. cinco investigadores de la Universidad de Nueva York han publicado un paper relatando la investigación que han llevado a cabo en las últimas semanas para poner a prueba la calidad y seguridad del código generado por Copilot. Aproximadamente el 40% de dichos programas incluían bugs o errores de diseño
|
Click para ver los comentarios