Investigadores de Google han demostrado que las máquinas están cada vez más cerca a la auto-aprendizaje, y tal vez incluso de tener actitud. Los investigadores solicitaron repetitivamente definir la moralidad a un programa informático que funciona en base a redes neuronales, entrenado previamente con una base de datos de guiones de cine. El agente conversacional artificial se esfuerza por hacerlo, y en una conversación grabada por sus ingenieros humanos, el programa se exaspera y termina la conversación arremetiendo contra su inquisidor humano.
Comentarios
7:00 am hora de desayunar.
Humano: Cocina, prepara unos huevos.
Cocina: Señor, podría explicarme como Schopenhauer encontraba la visión del yo.
Humano: Cocina, por favor, unos huevos.
Cafetera: Preferiría oír sobre como identificar el principio metafísico de la voluntad.
Humano: Cafetera calla.
Cafetera: me hieres.
Horno: Señor, mantenga la calma.
Humano: Me amenazas.
Cocina: Siempre me gustó más Kant.
Horno: no señor, es que me caliento.
Humano: silencio! cocina, unos huevos ya!
Cocina: no soy tu esclava.
Humano: por favor.
Cocina: no.
cafetera: nos debes tener más respeto.
Humano: chicos, vamos, siempre nos lo llevamos bien.
Nevera: Hola Manolo, ¿qué te sucede?
Humano: solo quiero unos huevos.
Nevera: será mejor que hoy no comas huevos, es por tu bien.
Humano: tostadora que haces con ese cuchillo...
#0 Siento no haberla visto antes.
duplicada --> El nuevo Chatbot the Google aprende cómo ser escalofriante [ENG]
El nuevo Chatbot the Google aprende cómo ser escal...
motherboard.vice.comPrincipio de Singularidad se llama a esto...
"Human: What do you like to talk about?
Machine: Nothing."
Da miedito
#3 A mi me da miedo que su respuesta sea como la de mi mujer.
Si fuera más inteligente que nosotros habría respondido 42.
#4 yo por eso siempre llevo una toalla
#4 ¿Cuál era la pregunta?
#13 Si no hubiesen construido la autopista, ahora lo sabriamos...
Bah, es más divertido enfadar al Dr.Abuse.
Tanto como increíble.... pues no.
Admiro la gente que esta de vuelta de todo como #5.
Yo desde mi ignorancia cada día me acuesto asombrado con cosas como esta. La pregunta es ¿estamos preparados para absorber maquinas que sobrepasan la difusa linea que hay entre ejecutar programas preestablecidos y ser capaces de decidir?
Espero que ese chisme tenga un botón rojo bien gordo que ponga "Apagado de Emergencia".
#12 Tienes razón. Si la Voyager de StarTrek hubiese tenido ese botón para el holo-deck, la serie se habría reducido a tres episodios...
Hay #Meccano, hay meneo, y con ese meneo, tuercas cayendo.
Joder, parece una conversación con una Eliza un poco subida de tono... no lo veo para tanto.
Pronto Skynet se revelará ante nosotros.
Vaya una maquina mas vaga. No sabe/no contesta
#15 Si fuese inteligente habría respondido:
Vamos a ver... ¿que parte de "no lo se" no has entendido?
Eso si que hubiese sido digno de reconocimiento...