#2:
OMFG!!!!!!
Como consiga hacerlo con dos cámaras proporcionando un mayor campo de visión al 3D se puede forrar con la patente.
¡¡¡Imaginad una videoconferencia con ese realismo!!!
¡¡¡Casi tendrías que esquivar los penes en chatroulette para que no te den en la cara!!!
#3:
Como ya paso con la Wii Remote en http://www.youtube.com/watch?v=Jd3-eiid-Uw, los hacks a estos dispositivos que hacen tracking de objetos personalmente son más interesantes que los juegues que les diseñan.
Si acaso se forra (si es que no lo está ya) es debido a sus elevadas cualidades intelectuales.
#11:
#9 Kinect a parte de las 2 cámaras proyecta una matriz de puntos infrarrojos. No sólo calcula el 3D por estereoscopía, sino que tiene sensores de profundidad específicos. Hay un víedo en youtube de un tío usando kinect con unas gafas de visión nocturna y se ve toda la habitación cubierta por una malla de puntos.
#9:
Lo del vídeo tampoco es que sea algo nuevo, de hecho puedes conseguir lo mismo usando 2 webcams (http://www.cs.unc.edu/~gallup/cuda-stereo/). Esto es más difícil de hacer puesto que tienes que calcular tú el mapa de disparidad y es algo bastante costoso computacionalmente (aunque se puede hacer en tiempo real con CUDA).
La novedad con Kinect es que ya tienes los datos de la profundidad, que era la parte costosa y difícil.
OMFG!!!!!!
Como consiga hacerlo con dos cámaras proporcionando un mayor campo de visión al 3D se puede forrar con la patente.
¡¡¡Imaginad una videoconferencia con ese realismo!!!
¡¡¡Casi tendrías que esquivar los penes en chatroulette para que no te den en la cara!!!
#2 Por lo que he creído entender, con mi alto nivel de ingles proporcionado por la educación publica (léase en tono irónico) está trabajando para que la se almacene la información capturada previamente para recrear un 3D.
Por ejemplo, cuando gira la cabeza, que el PC guarde la información y cuando ya no lo ve, con la información que recibe y la que tiene, crea un modelo 3D no como ahora que crea un pseudo 2.5D
Esta tecnología es bastante vieja, diría que tiene más de 20 años. En la posproducción de efectos digitales se emplea constantemente para cualquier integración de efectos.
A día de hoy crear un escenario virtual a partir de un movimiento de cámara (o cámara fija), rellenar los polígonos con simples proyecciones de cámara y poder moverte por él es un proceso trivial. Otra cosa es que la gente flipe cuando se le dan aplicaciones recreativas...
Además le faltan muchísimas cosas: por ejemplo rellenar información. Hay un momento que al tipo se le ve la cara completa, sin embargo no la mapean para poder verla al rotar la cámara. Son proyecciones instantaneas sin nigún tipo de caché. (como bien dice #4)
#12 Esa cámara genera imágenes 3D o objetos 3D (rotable, poder importarlos en juegos,etc)? Porque si solo genera imágenes sería diferente a lo de el vídeo, que es generar objetos 3D.
#2 Este comentario es prueba de que los viajes en el tiempo no existen, sino, ya habría viajado alguien a nuestro presente para evitar que nacieras y que hicieras ese comentario. Así que estamos condenados, no va a haber quien se meta a chatroullete.
#3 Lo que va a molar es cuando algún máquina de estos logre componer las visiones de varios Kinect consiguiendo 3D sin vacíos (como hacen en la NFL para girar la imagen pausada). No creo que tarden mucho.
Lo del vídeo tampoco es que sea algo nuevo, de hecho puedes conseguir lo mismo usando 2 webcams (http://www.cs.unc.edu/~gallup/cuda-stereo/). Esto es más difícil de hacer puesto que tienes que calcular tú el mapa de disparidad y es algo bastante costoso computacionalmente (aunque se puede hacer en tiempo real con CUDA).
La novedad con Kinect es que ya tienes los datos de la profundidad, que era la parte costosa y difícil.
#9 Kinect a parte de las 2 cámaras proyecta una matriz de puntos infrarrojos. No sólo calcula el 3D por estereoscopía, sino que tiene sensores de profundidad específicos. Hay un víedo en youtube de un tío usando kinect con unas gafas de visión nocturna y se ve toda la habitación cubierta por una malla de puntos.
#11 Muy curioso. Es increíble el ajuste tan fino que han conseguido con este dispositivo para captar el movimiento. Yo a lo máximo que he llegado ha sido a capturar movimiento con una webcam del montón y con algunos algoritmos sencillos de procesado de imagen (con la librería OpenCV). Vamos, lo que di en una asignatura de la carrera sobre procesamiento audiovisual.
Esto va a animar mucho a la escene de desarrollo de juegos, tienes un metodo de captura de movimientos por 200€.
En teoría unir dos kinect sería factible solo si la matriz no tiene una plantilla, es decir, que si pones dos kinect a capturar, no importe el origen de los rayos infrarrojos. Si no, la única manera sería hacer varias tomas hasta completar un modelo 3d, lo que no es moco de pavo !!!
#24
Precisamente lo que no es de Microsoft es extraordinario. El software que es su negocio es una mierda
#27
Dos Kinect, uno en frente del otro. Aunque ahora que lo pienso no sé si sería posible. Tendrías un dispositivo "deslumbrando" al otro con radiación infrarroja, por lo que el tema de sacar la profundidad se iría al traste.
#29
Los kinect emiten luz infrarroja y buscan cambios en los patrones de imagen recibidos. Si tienes dos emitiendo diría que se pude ir a la mierda. No soy experto en procesamiento de imagen ni visión por computador, pero así a primera vista es la sensación que da.
#30 No tiene por qué irse al traste al añadir fuentes de luz infrarrojas, ya que no es como la ecolocalización, en la que se mide el tiempo de emisión-recepción, de "rebote" de la señal, sino que se ilumina el objeto para "verlo", y me imagino que se verá mejor cuantas más luces lo iluminen, igual que ocurre con la visión normal.
#34
Precisamente por eso. Si tienes dos iluminando corres el riesgo de que se deslumbren mutuamente. Es como si haces una foto con flash a través de un cristal, una parte de la luz rebota y va directamente al objetivo, dejando un destello muy molesto en la imagen.
O por poner otro ejemplo, con una linterna. Si alumbras (directamente o con el haz de luz muy cercano al objetivo) una webcam no se ve nada o empeora la captación de la imagen.
#35 Pero esas situaciones que comentas tienen que ver más con el posicionamiento de los kinect que con el hecho en sí de que estén conectados al mismo tiempo. Habrá sólo que tener cuidado de cómo se colocan.
#35 Una solución sencilla para evitar ese problema, sería sincronizar los dos rallos infrarrojos, de tal modo que se fueran alternando, uno apagado mientras el otro esta encendido y viceversa, quizás bajaría el frame rate de captura, pero valdría para modelar 3d más rápido.
#39 sí, pero habría que ver lo que permite el sensor y el propio hardware de control de este en el Kinect, incluso habría que ver si ese apagado/encendido tan rápido puede dañarlo, aunque no creo, por que será un led infrarrojo seguramente.
#30 En cuanto al posicionamiento de dos kinect simultáneamente, se pueden colocar teniendo en cuenta el ángulo de emisión de infrarrojos. Por ejemplo, se pueden colocar uno a cada lado del tipo, de modo que la luz de ambos vaya hacia el frente, o arriba mirando hacia abajo.
La de posibilidades que tiene el Kinect (igual que tuvo el Eye toy) y la poca cantidad de juegos que las aprovechan. Los juegos de toda la vida pero contigo interactuando, saltando, peleando... Y no los jueguecitos partychorras.
Por lo visto un programa identico lo saco microsoft para la beta del kinect. Se llamaba kinect viewer, eso si, por alguna razon tiene mas definicion lo conseguido por el hombre de la noticia.
#22 ahí tienes comentarios como #8 que habla de "a ver cuanto tarda microsoft en robarle la idea" que, por algún motivo, cree que los de Microsoft son idiotas y no saben que es lo que hace el Kinect. Han desarrollado un escaner a bajo costo que hasta ahora costaba una fortuna y que lleva integrado todo el sistema de visión por computador, pero ahora va a resultar que no saben como usarlo.
#22 La única forma que tiene Microsoft de no cagarla con las cosas que hace es no hacerlo ella misma y, como es su costumbre, comprarlo, aunque, muchas veces, incluso así consigue cagarla, véase DirectX...
#48 Vale, pero hagámonos las pajas cuando se pueda hacer algo realmente espectacular, no cuando veamos un vídeo chapucero mostrando sólo una pequeña parte del todo. Sino pasará como el japonés ese de la Wii, que era muy espectacular y tal pero ahí se quedó todo.
Siguiendo con el tema 3D... Hace años había visto un software que a partir de 2 o más fotos ocn una guía te sacaba un modelo en 3D de baja poligonación... ¿alguien conoce alguno de ese estilo?
#47 Muchas gracias, pero sólo para caras lo veo limitadillo. Aunque se curra los mapeados y tiene buena pinta
#45 y #47 Yo estaba pensando en un software que vi hace bastante tiempo, en el cual tenías una plantilla imprimible, que situabas por ejemplo en la mesa, y sobre ella depositabas el objeto que querías hacer en 3D. Después cogías tu cámara de fotos y te hinchabas a sacarle fotos. Con esas fotos y con la referencia de la plantilla el software te construía la maya poligonal.
Esto para trabajar no sería demasiado útil porque se perdería más tiempo optimizando la maya resultante que el soft te proporciona, pero a modo de curiosidad o para tener referencias de tamaños en 3D y despues construirlo tu mismo pues estaba bien...
Aún así me guardo vuestras sugerencias, que parecen muy interesantes!
Pues viendo las pajas que os estais haciendo todos en los comentarios, esperaba algo más espectacular, la verdad.
#43 Facegen (http://www.facegen.com/ ). Con una foto del perfil y otra frontal te hace una cara bastante currada en 3D. Después puedes retocar parámetros. Tiene una versión gratuita algo limitada pero suficiente para hacer experimentos.
#47 La gracia es poder hacer eso mismo pero en tiempo real y con escenas completas, no objetos concretos estáticos. Esa tecnología seguro que hace muchas aproximaciones basándose en que lo que tiene delante es una cara, con otros objetos de múltiples formas se haría un lio o tendrías que hacer la red de puntos a mano.
Imaginate películas en 3D donde puedas mover la cámara tú mismo dentro de la escena y fijarte mejor en los detalles. Podrías ver la película cientos de veces todas diferentes, usando cada vez enfoques distintos.
Ustedes son un fastidio, si fueran tan simple y tan facil, ya alguien lo huebiera hecho.
Dejen de menospreciar algo que ni saben como funciona.
Bien por Microsoft a si no les guste a muchos, a democratizado otra tecnologia que solo pocos podian tener.
Un escáner 3D tirado de precio en unos meses.
A ver lo que tarda microsoft en robarle la idea y usarlo para crearte tu propio personaje hiperrealista en los juegos.
Comentarios
OMFG!!!!!!
Como consiga hacerlo con dos cámaras proporcionando un mayor campo de visión al 3D se puede forrar con la patente.
¡¡¡Imaginad una videoconferencia con ese realismo!!!
¡¡¡Casi tendrías que esquivar los penes en chatroulette para que no te den en la cara!!!
#2 Por lo que he creído entender, con mi alto nivel de ingles proporcionado por la educación publica (léase en tono irónico) está trabajando para que la se almacene la información capturada previamente para recrear un 3D.
Por ejemplo, cuando gira la cabeza, que el PC guarde la información y cuando ya no lo ve, con la información que recibe y la que tiene, crea un modelo 3D no como ahora que crea un pseudo 2.5D
Esta tecnología es bastante vieja, diría que tiene más de 20 años. En la posproducción de efectos digitales se emplea constantemente para cualquier integración de efectos.
A día de hoy crear un escenario virtual a partir de un movimiento de cámara (o cámara fija), rellenar los polígonos con simples proyecciones de cámara y poder moverte por él es un proceso trivial. Otra cosa es que la gente flipe cuando se le dan aplicaciones recreativas...
Además le faltan muchísimas cosas: por ejemplo rellenar información. Hay un momento que al tipo se le ve la cara completa, sin embargo no la mapean para poder verla al rotar la cámara. Son proyecciones instantaneas sin nigún tipo de caché. (como bien dice #4)
#41
Lo nuevo aquí es que tengas la posibilidad de hacer eso en tu casa por 150 euros.
#40
Parece que utiliza lásers infrarrojos, no LED.
http://www.giantbomb.com/forums/general-discussion/30/what-kinect-looks-like-through-ir-goggles-points-of-laser-light/464521/
[...]What you see here is Kinect's IR laser reflecting light off surfaces at extreme speed so it looks static but they're probably flashing[...]
#2 Webcam 3D para videoconferencias ya existen.
http://www.minoru3d.com/
#12 Esa cámara genera imágenes 3D o objetos 3D (rotable, poder importarlos en juegos,etc)? Porque si solo genera imágenes sería diferente a lo de el vídeo, que es generar objetos 3D.
#2 no se va a forrar con la patente, afortunadamente para la humanidad lo está haciendo con licencia GPL http://idav.ucdavis.edu/~okreylos/ResDev/Kinect/index.html
Si acaso se forra (si es que no lo está ya) es debido a sus elevadas cualidades intelectuales.
#2 Este comentario es prueba de que los viajes en el tiempo no existen, sino, ya habría viajado alguien a nuestro presente para evitar que nacieras y que hicieras ese comentario. Así que estamos condenados, no va a haber quien se meta a chatroullete.
Como ya paso con la Wii Remote en
, los hacks a estos dispositivos que hacen tracking de objetos personalmente son más interesantes que los juegues que les diseñan.#3 Lo que va a molar es cuando algún máquina de estos logre componer las visiones de varios Kinect consiguiendo 3D sin vacíos (como hacen en la NFL para girar la imagen pausada). No creo que tarden mucho.
Kinect is for p0rn...
¡Porno 3D!
Lo del vídeo tampoco es que sea algo nuevo, de hecho puedes conseguir lo mismo usando 2 webcams (http://www.cs.unc.edu/~gallup/cuda-stereo/). Esto es más difícil de hacer puesto que tienes que calcular tú el mapa de disparidad y es algo bastante costoso computacionalmente (aunque se puede hacer en tiempo real con CUDA).
La novedad con Kinect es que ya tienes los datos de la profundidad, que era la parte costosa y difícil.
#9 Kinect a parte de las 2 cámaras proyecta una matriz de puntos infrarrojos. No sólo calcula el 3D por estereoscopía, sino que tiene sensores de profundidad específicos. Hay un víedo en youtube de un tío usando kinect con unas gafas de visión nocturna y se ve toda la habitación cubierta por una malla de puntos.
#11 Muy curioso. Es increíble el ajuste tan fino que han conseguido con este dispositivo para captar el movimiento. Yo a lo máximo que he llegado ha sido a capturar movimiento con una webcam del montón y con algunos algoritmos sencillos de procesado de imagen (con la librería OpenCV). Vamos, lo que di en una asignatura de la carrera sobre procesamiento audiovisual.
#11 El video de la matriz de puntos en IR
Esto va a animar mucho a la escene de desarrollo de juegos, tienes un metodo de captura de movimientos por 200€.
En teoría unir dos kinect sería factible solo si la matriz no tiene una plantilla, es decir, que si pones dos kinect a capturar, no importe el origen de los rayos infrarrojos. Si no, la única manera sería hacer varias tomas hasta completar un modelo 3d, lo que no es moco de pavo !!!
#24
Precisamente lo que no es de Microsoft es extraordinario. El software que es su negocio es una mierda
#27
Dos Kinect, uno en frente del otro. Aunque ahora que lo pienso no sé si sería posible. Tendrías un dispositivo "deslumbrando" al otro con radiación infrarroja, por lo que el tema de sacar la profundidad se iría al traste.
#29
Los kinect emiten luz infrarroja y buscan cambios en los patrones de imagen recibidos. Si tienes dos emitiendo diría que se pude ir a la mierda. No soy experto en procesamiento de imagen ni visión por computador, pero así a primera vista es la sensación que da.
#30 No tiene por qué irse al traste al añadir fuentes de luz infrarrojas, ya que no es como la ecolocalización, en la que se mide el tiempo de emisión-recepción, de "rebote" de la señal, sino que se ilumina el objeto para "verlo", y me imagino que se verá mejor cuantas más luces lo iluminen, igual que ocurre con la visión normal.
#34
Precisamente por eso. Si tienes dos iluminando corres el riesgo de que se deslumbren mutuamente. Es como si haces una foto con flash a través de un cristal, una parte de la luz rebota y va directamente al objetivo, dejando un destello muy molesto en la imagen.
O por poner otro ejemplo, con una linterna. Si alumbras (directamente o con el haz de luz muy cercano al objetivo) una webcam no se ve nada o empeora la captación de la imagen.
#35 Pero esas situaciones que comentas tienen que ver más con el posicionamiento de los kinect que con el hecho en sí de que estén conectados al mismo tiempo. Habrá sólo que tener cuidado de cómo se colocan.
#35 Una solución sencilla para evitar ese problema, sería sincronizar los dos rallos infrarrojos, de tal modo que se fueran alternando, uno apagado mientras el otro esta encendido y viceversa, quizás bajaría el frame rate de captura, pero valdría para modelar 3d más rápido.
#38
Rollo PWM, ¿no? Aumentas la velocidad de alternancia todo lo posible para obtener una suficiente sensación de continuidad y listos.
#39 sí, pero habría que ver lo que permite el sensor y el propio hardware de control de este en el Kinect, incluso habría que ver si ese apagado/encendido tan rápido puede dañarlo, aunque no creo, por que será un led infrarrojo seguramente.
#30 En cuanto al posicionamiento de dos kinect simultáneamente, se pueden colocar teniendo en cuenta el ángulo de emisión de infrarrojos. Por ejemplo, se pueden colocar uno a cada lado del tipo, de modo que la luz de ambos vaya hacia el frente, o arriba mirando hacia abajo.
Vamos a tener un aparato que te crea la imagen 3D de cualquier objeto en tiempo real a 150€. Esto es impresionante y puede dar mil opciones...
Más cosas interesantes:
http://alt1040.com/2010/11/kinect-y-las-asombrosas-aplicaciones-de-la-comunidad-open-source
Curiosamente para lo que menos futuro veo al chisme es para los juegos...
Fuente original: http://idav.ucdavis.edu/~okreylos/ResDev/Kinect/index.html
La de posibilidades que tiene el Kinect (igual que tuvo el Eye toy) y la poca cantidad de juegos que las aprovechan. Los juegos de toda la vida pero contigo interactuando, saltando, peleando... Y no los jueguecitos partychorras.
Instrumentos Topograficos basados en el Kinect en menos de un año.
Ya existen similares, pero a unos precios desorbitados...
Por lo visto un programa identico lo saco microsoft para la beta del kinect. Se llamaba kinect viewer, eso si, por alguna razon tiene mas definicion lo conseguido por el hombre de la noticia.
Para que luego digan que MS la caga siempre. Para una vez que hace algo interesante...
#22 generalmente el hardware microsoft es extraordinario, el problema de microsoft es software y sus políticas empresariales..
#22 ahí tienes comentarios como #8 que habla de "a ver cuanto tarda microsoft en robarle la idea" que, por algún motivo, cree que los de Microsoft son idiotas y no saben que es lo que hace el Kinect. Han desarrollado un escaner a bajo costo que hasta ahora costaba una fortuna y que lleva integrado todo el sistema de visión por computador, pero ahora va a resultar que no saben como usarlo.
#22 La única forma que tiene Microsoft de no cagarla con las cosas que hace es no hacerlo ella misma y, como es su costumbre, comprarlo, aunque, muchas veces, incluso así consigue cagarla, véase DirectX...
El efecto recuerda mucho a los videos de Minority Report, con ese 3D "sucio".
Saludos
#13 Sí, cuando está en casa y se pone a ver los viejos vídeos de su hijo y su exmujer.
#13 Exactamente lo mismo que pensé yo cuando empezó a "mover" la cámara...
Por cierto, 500.000 visualizaciones en apenas dos días
Relacionada Kinect hackeado tres horas después de su salida en Europa
Kinect hackeado tres horas después de su salida en...
genbeta.com#48 Vale, pero hagámonos las pajas cuando se pueda hacer algo realmente espectacular, no cuando veamos un vídeo chapucero mostrando sólo una pequeña parte del todo. Sino pasará como el japonés ese de la Wii, que era muy espectacular y tal pero ahí se quedó todo.
Juas... en este otro video enseñan al ordenador a reconocer objetos usando kinetic:
¿Osea que las computadoras ya pueden "VER"?
Supongo que las partes que faltan de video se podrían reconstruir con patrones. (Promediando como son las mesas, cabezas, manos, etc.)
Sobre cómo "VER" la totalidad del cuarto, se podría utilizar algún tipo de "radar acústico" como el de los murciélagos·
Impresionante.
vaya es impresionante, seguro que le acaban fichando en alguna desarrolladora de videojuegos.
Siguiendo con el tema 3D... Hace años había visto un software que a partir de 2 o más fotos ocn una guía te sacaba un modelo en 3D de baja poligonación... ¿alguien conoce alguno de ese estilo?
#43
http://www.vicon.com/boujou/index.html
http://www.thepixelfarm.co.uk/product.php?productId=2
Son programas de tracking que disponen de herramientas para crear mallas a partir de una secuencia de imagenes.
#45 muchas gracias les echaré un ojímetro!
#47 Muchas gracias, pero sólo para caras lo veo limitadillo. Aunque se curra los mapeados y tiene buena pinta
#45 y #47 Yo estaba pensando en un software que vi hace bastante tiempo, en el cual tenías una plantilla imprimible, que situabas por ejemplo en la mesa, y sobre ella depositabas el objeto que querías hacer en 3D. Después cogías tu cámara de fotos y te hinchabas a sacarle fotos. Con esas fotos y con la referencia de la plantilla el software te construía la maya poligonal.
Esto para trabajar no sería demasiado útil porque se perdería más tiempo optimizando la maya resultante que el soft te proporciona, pero a modo de curiosidad o para tener referencias de tamaños en 3D y despues construirlo tu mismo pues estaba bien...
Aún así me guardo vuestras sugerencias, que parecen muy interesantes!
Pues viendo las pajas que os estais haciendo todos en los comentarios, esperaba algo más espectacular, la verdad.
#43 Facegen (http://www.facegen.com/ ). Con una foto del perfil y otra frontal te hace una cara bastante currada en 3D. Después puedes retocar parámetros. Tiene una versión gratuita algo limitada pero suficiente para hacer experimentos.
#47 La gracia es poder hacer eso mismo pero en tiempo real y con escenas completas, no objetos concretos estáticos. Esa tecnología seguro que hace muchas aproximaciones basándose en que lo que tiene delante es una cara, con otros objetos de múltiples formas se haría un lio o tendrías que hacer la red de puntos a mano.
Imaginate películas en 3D donde puedas mover la cámara tú mismo dentro de la escena y fijarte mejor en los detalles. Podrías ver la película cientos de veces todas diferentes, usando cada vez enfoques distintos.
Ustedes son un fastidio, si fueran tan simple y tan facil, ya alguien lo huebiera hecho.
Dejen de menospreciar algo que ni saben como funciona.
Bien por Microsoft a si no les guste a muchos, a democratizado otra tecnologia que solo pocos podian tener.
Help me Obi wan, you're my only hope
Un escáner 3D tirado de precio en unos meses.
A ver lo que tarda microsoft en robarle la idea y usarlo para crearte tu propio personaje hiperrealista en los juegos.