Para enseñar a estos modelos a reconocer materiales dañinos, deben recibir ejemplos de discurso de odio, violencia y abuso sexual. El etiquetado de estos contenidos lo realizan moderadores en países alejados de Silicon Valley y es una labor monótona que puede llegar a resultar traumática. Solían terminar la jornada con una llamada grupal compartiendo los horrores a los que habían estado expuestos. Algunos dicen haber cambiado como personas y han pedido al gobierno keniano que investigue sus condiciones de trabajo.
|
etiquetas: ia , kenia , moderadores , salud mental , chatgpt