GitHub anunció a finales de junio una sorprendente y polémica herramienta que permitía programar código recurriendo a la inteligencia artificial, autocompletando a partir de pequeños fragmentos proporcionados por el desarrollador. cinco investigadores de la Universidad de Nueva York han publicado un paper relatando la investigación que han llevado a cabo en las últimas semanas para poner a prueba la calidad y seguridad del código generado por Copilot. Aproximadamente el 40% de dichos programas incluían bugs o errores de diseño
|
etiquetas: github , github copilot , inteligencia artificial , investigación , bugs