Publicado hace 2 meses por ElCuñadoDelHacker a tomshardware.com

Teniendo en cuenta lo controvertida que es la IA y la frecuencia con la que puede cambiar las soluciones que no funcionan correctamente (especialmente para las tareas de programación), existen muchas razones prácticas para aplicar estas nuevas policies. En el caso de NetBSD, "se presume que el código generado por un modelo de lenguaje grande o tecnología similar" es "código contaminado y no debe confirmarse sin aprobación previa por escrito.

malajaita

Que peliagudo, supervisado por humanos...
Luego lo del copyright ya va por otro lado.

deprecator_

Y como piensan diferenciarlo?

P

Absolutamente lógico, el código generado por una IA actualmente no tiene la fiabilidad del creado por un programador mínimamente decente. Copiar la salida de una IA directamente sin más es mucho riesgo, ya no solo de funcionalidad, si no también de seguridad.

ur_quan_master

#3 En cualquier desarrollo serio se escriben pruebas para el código. Mientras se pasen las pruebas debería dar bastante igual quien haya escrito el código.

Vamos, lo que dice #4 si es supervisable debería poder aceptarse

M

Este tipo de iniciativas hacen más notable la existencia de una brecha entre los defensores del modelo de IA en la vida humana y los detractores. Hace ya tiempo manifesté mi orgullo por utilizar Gentoo, y esta decisión me lo confirma todavía más.

Curiosamente, Gentoo se basa en el sistema de ports de FreeBSD (del cual NetBSD también se adaptó, un poco antes de la aparición de Gentoo). No me extrañaría que tanto el resto de distribuciones BSD como Arch acaben tomando caminos similares de supervisión o prohibición.

Podría decir que si es supervisable debería poder aceptarse, el problema está en que si lo aceptas podría acabar expandiéndose descontroladamente y terminar por desplazar al ser humano de forma alarmante, algo que me temo no estaremos dispuestos a aceptar.