¿Qué es exactamente? Pues Intel ha creado una CPU óptica creada a base de fotónica con tejido Mesh to Mesh. Intel lleva trabajando con DARPA desde los albores de la tempestad que fue la creación de Internet para su servicio de defensa militar allá por el siglo pasado.
#3:
Tiene buena pinta pero hay cosas que no me encajan:
- 66 threads y solo 192 Kb de caché L1 ... no le va a durar ná. Y los 4 MB de L2, menos.
- 32 GB de RAM DDR5 ¿en un servidor? Coño que nosotros llevamos tiempo con el TB de RAM y más.
- 16 sockets con medio TB de RAM.
¿esto es para IA o algo similar? Me salen muchos núcleos con muy poca RAM para que esto sea para computación tradicional.
Esto no es una CPU tradicional, esto es otra cosa.
#33:
#11 Normalmente se hace en Tierra como #12 y #18 comentan.
Pero no solo por esas razones, sino porque interesa tener los datos en bruto para poder procesarlo de mil maneras, y que si dentro de 2 años sale una tecnología de procesamiento mejor, puedan volver a reprocesarse.
En astrofoto me ocurre igual. Hace 4 años no había técnicas basadas en IA para el procesado. Ahora, con las técnicas actuales se pueden hacer cosas que no podía antes. Si hubiera guardado sólo mis datos procesados, ahora no podría hacer el reprocesado con las nuevas técnicas, pero al haberlos guardado en bruto, puedo sacar detalles que antes no podría haber sacado ni aunque quisiera.
#25:
#3 También estaba bien leer el artículo, que explica el uso, en vez de solo el titular y la entradilla (que sí, que leer el artículo es de cobardes). El procesador está diseñado para manejar consultas sobre grafos a escalas muy grandes. Las bases de datos basadas en grafos son muy potentes para esto, pero esto requiere una escala gigante y querían un procesador dedicado para esto.
#41:
#8 En el espacio no se atreven a llevar procesadores con tamaños de transistores tirando a grandes, por aquello de la radiación espacial y esos detalles casi sin importancia.
Dudo muchísimo que se les ocurra llevar procesadores de 7nm, o que ni siquiera funcionen sin errores en el espacio.
#10:
#3 CPU fotónica, suena a que están montando un Mazinger Z
#38:
#3
Esta diseñado para uso militar, en concreto para usar un programa que se llama HIVE. Con esta arquitectura se busca llegar a la escala del Petabyte de gráficos analíticos , de ahí los 66 hilos por núcleo , 8 núcleos. HIVE estaba desaprovechando sobre el 80% de los datos en 8b por una mala usabilidad de la caché y como lo que buscaban es hacer funcionar el programa , ajustaron el procesador al HIVE , y no al revés.
#4:
#3 igual es un demostrador tecnologico, una nueva via de desarrollo de procesadores o estan enfocados en un nicho muy muy concreto
#14:
#1: Y que vuelvan al logotipo de 2006, que el nuevo es una birria.
Eso se hace en Tierra. Las naves tienen otro problema que es la energía (dependen de paneles solares o de generadores de radioisótopos) y el calentamiento (bueno, el enfriar las cosas)
Tiene buena pinta pero hay cosas que no me encajan:
- 66 threads y solo 192 Kb de caché L1 ... no le va a durar ná. Y los 4 MB de L2, menos.
- 32 GB de RAM DDR5 ¿en un servidor? Coño que nosotros llevamos tiempo con el TB de RAM y más.
- 16 sockets con medio TB de RAM.
¿esto es para IA o algo similar? Me salen muchos núcleos con muy poca RAM para que esto sea para computación tradicional.
Esto no es una CPU tradicional, esto es otra cosa.
Sería interesante saber qué aplicación tiene en el espacio algo tan potente. No sé qué CPU tienen ahora, pero lo que lanzan al espacio es bastante menos potente que cualquier CPU actual de las pochas.
#7 tener un procesador tan potente en el espacio seria un adelanto importante, imaginate que ahora los datos se mandan practicamente en bruto porque los procesadores no son muy potentes, tener procesadores muy potentes permitiria procesar parte de la informacion en origen y por tanto usar menos ancho de datos a la hora de mandar la informacion, porque ahora mismo ese es el cuello de botella, la red profunda de la nasa es muy lenta
Eso se hace en Tierra. Las naves tienen otro problema que es la energía (dependen de paneles solares o de generadores de radioisótopos) y el calentamiento (bueno, el enfriar las cosas)
#12 claro que se hace en tierra, pero si puedes procesar esos datos en orbita entonces a tierra mandas muchos menos datos, y para eso podria servir un procesador como este
#16 Pero eso es un poco como hacer un documental sobre leones en Kenia, pero después de rodar todo, grabas las locuciones, creas la música y montas el vídeo allí mismo con los gatitos mirando.
#16 No tiene sentido, los datos originales siempre te harán falta precisamente porque es investigación. Esos datos se archivan, y se pueden usar en investigaciones nuevas, se pueden revisar por pares, etc. Si fuera para datos que necesiten tratamiento en tiempo real tendría sentido, pero si necesitas fiarte de esos datos, entonces es porque su tratamiento es algo asentado, no tanto investigación, y supongo que en ese caso lo que tendrías sería un satélite, que igualmente a menos que sea algo básico, lo que hará será mandar datos al a tierra en tiempo real.
En fin, hablando desde el desconocimiento y en base a suposiciones, claro.
#12 se hace en tierra ya que no se puede hacer más en en el espacio, es un punto donde se encuentra la potencia máxima en nave y las comunicaciones, una nueva tecnología solo desplaza algo a potencia en nave(al final también aumentara la demanda de comunicación).
Luego están los minutos de terror de amartizar, autónomo y a ver esto para el año que viene: https://www.nasa.gov/press-release/nasa-selects-intuitive-machines-for-new-lunar-science-delivery
#11 Normalmente se hace en Tierra como #12 y #18 comentan.
Pero no solo por esas razones, sino porque interesa tener los datos en bruto para poder procesarlo de mil maneras, y que si dentro de 2 años sale una tecnología de procesamiento mejor, puedan volver a reprocesarse.
En astrofoto me ocurre igual. Hace 4 años no había técnicas basadas en IA para el procesado. Ahora, con las técnicas actuales se pueden hacer cosas que no podía antes. Si hubiera guardado sólo mis datos procesados, ahora no podría hacer el reprocesado con las nuevas técnicas, pero al haberlos guardado en bruto, puedo sacar detalles que antes no podría haber sacado ni aunque quisiera.
#33 Como bien habéis explicado, los datos se necesitan en bruto en la Tierra, por lo que lo que se está es intentando mejorar la tecnología en cuanto a comunicaciones y probando cosas como la transmisión por láser. De hecho, en octubre en la misión Psyche volará un demostrador tecnológico para transmitir con láser los datos de la misión desde una gran distancia y comprobar si efectivamente podemos aumentar el ancho de banda de las misiones, lo que nos permitirá hacer mucha más ciencia.
Es fundamental que los datos estén en bruto para su archivado y reprocesado posterior. Uno sabe que técnicas tiene hoy pero no con las que contará mañana, por lo que en la medida de lo posible imágenes y cualquier otro tipo de datos las necesitamos en bruto.
¿Quiere decir eso que no se beneficiaría la tecnología espacial de procesadores más rápidos? Claro que si. Hemos visto por ejemplo al Ingenuity volar con un procesador comercial más rápido, lo que permite una navegación mejor porque puede trabajar a tiempo real con imágenes más grandes y buscar un sitio de aterrizaje, cosa que con procesadores más lentos sería muy difícil.
Así que quien sabe si veremos en el futuro misiones remotas que no podemos pilotar a tiempo real (básicamente cualquier cosa más allá de la Luna) que sean capaces de tomar decisiones en base a modelos y que se beneficien de una mejor capacidad de procesado para tomar decisiones rápidas y con más datos, ya sea para la navegación, para la elección de objetivos de estudio más interesantes o para otras cuestiones.
#33 Imagino que para misiones espaciales a mucha distancia es mejor que se procesen y se envíen la menor cantidad de datos posibles.
Los datos en bruto ocupan mucho y tardan más en transmitirse. A mucha distancia las posibilidades de error en la comunicación aumentan, por lo que o se meten muchos códigos de corrección (lo cual aumenta más el tamaño de los datos enviados) o se reduce la cantidad de información a enviar, para que disminuyan esas posibilidades de error/interferencias, etc.
#8 Si no se envían procesadores mas potentes al espacio es porque no se quiere hacer.
Al espacio todo lo que va esta ampliamente probado ya que en la practica no hay posibilidad de reparación. Así que para que lancen estos chips al espacio todavía faltan 10 años.
#21 por eso se está probando desde hace una década sistemas de procesamiento potentes a la ISS, lo mismo que almacenamiento en SSD, menos peso y demás, para ensayar lo que se va a usar en el futuro.
#8 Porque la potencia no es lo único a tener en cuenta, el consumo y la fiabilidad/durabilidad pueden ser más importantes. (Y esto lo digo desde la ignorancia más absoluta)
#8 En el espacio no se atreven a llevar procesadores con tamaños de transistores tirando a grandes, por aquello de la radiación espacial y esos detalles casi sin importancia.
Dudo muchísimo que se les ocurra llevar procesadores de 7nm, o que ni siquiera funcionen sin errores en el espacio.
#3 Ese tipo de aplicaciones para los que está diseñado tiene baja localidad de datos y por tanto la cache no ayuda tanto. De ahí el uso de scratchpads, buscar mucho paralelismo a nivel de hilo y mucho ancho de banda para alimentar los núcleos. Sí és cierto que no cuadra la poca capacidad de memoria.
#20 Si la velocidad de procesamiento es muy rápida y la capacidad de procesamiento enorme, entonces no necesitas memoria para retener ni los datos que entran ni los datos que salen, sobre todo si es para IA, siempre que puedas enviar y recibir muchos datos a la vez.
Vamos, imagina que la memoria es un sitio de almacenamiento de datos mientras entran y salen del procesador que los convierte. Si el procesador es tan bestia que puede tener la mayoría de los datos en su interior mientras se procesan pues entonces no necesitas tanta memoria: solo la necesaria para ir sacando los que necesites e ir metiendo los nuevos...
#28 Tal vez el enlace que proporcioné para indicar el procesador fotónico cuántico que están desarrollando los chinos no hablaba de que ya lo están usando, aquí tienes otro que sí lo comenta
Por otro lado, los chinos están más avanzados en la mayoría de campos importantes de la ciencia hoy en día:
Australian Strategic Policy Institute lleva un seguimiento de los avances en nuevas tecnologías (China está por delante en 37 de 44 campos más punteros en tecnología)
#3 También estaba bien leer el artículo, que explica el uso, en vez de solo el titular y la entradilla (que sí, que leer el artículo es de cobardes). El procesador está diseñado para manejar consultas sobre grafos a escalas muy grandes. Las bases de datos basadas en grafos son muy potentes para esto, pero esto requiere una escala gigante y querían un procesador dedicado para esto.
#49 técnicamente, a nivel de definición académica, big data es el análisis de datos a escala de petabytes. Académicamente estás es lo correcto, aunque como norma general en el mundo de los datos de solía asociar el big data al mundo de los data lakes y no se usa ya la expresión, suena viejuna
#3 No no. No es así, además de que tu último párrafo da en el quid de la cuestión.
- La caché, como te digo arriba, es solo la prueba, puesto que no utiliza conectores normales, usa haces de luz para conexión.
- ¿Quién nosotros? En lo que ves es solo de I/O, osease de entrada/salida, no de socket en RAM como tal. ¿Dónde manejas Teras de RAM?
- Es que creo que sigues flipando con lo que hay ahora.
No, es de pruebas para un nuevo tipo de ordenador.
#3
Esta diseñado para uso militar, en concreto para usar un programa que se llama HIVE. Con esta arquitectura se busca llegar a la escala del Petabyte de gráficos analíticos , de ahí los 66 hilos por núcleo , 8 núcleos. HIVE estaba desaprovechando sobre el 80% de los datos en 8b por una mala usabilidad de la caché y como lo que buscaban es hacer funcionar el programa , ajustaron el procesador al HIVE , y no al revés.
#3 si, a mi también me ha parecido que ese planteamiento tan multihilo está pensado para la ejecución de redes neuronales.
Supongo que el destino será un cazabombardero capaz de pilotarse a sí mismo, analizar el escenario de batalla, destruir al enemigo esté en el aire o en tierra, esquivar las contraofensivas, etc.
Con un arma así.... quién le toserá a los USA? Los chinos podrán estar a la altura? No tienen esa excelencia en la tecnología de chips....
#3 En la noticia pone claro clarinete que esto no es una CPU tradicional, que es par otra cosa.
En concreto para análisis de grafos (en la noticia lo traducen malamente como análisis de gráficos). Básicamente lo que a veces se conoce como big data.
Esto, y teniendo en cuenta que son aplicaciones militares... pues jeje, te puedes hacer una idea de que la idea es inteligencia militar. (=no hemos escatimado en gastos)
Aquí un pequeño paper que básicamente cuenta que la problemática del procesamiento de análisis de grafos, que implica falta de capacidad de procesamiento (e intenta dividirlo en subgrafos, pero se pierde un poco el todo). https://humming80.github.io/papers/Yan-Vol7-DBS-056.pdf
#24: En los nuevos no creo, pero en los ordenadores antiguos seguro que sí.
Y no me extrañaría que haya pegatinas no oficiales con el primer logo (en el que la "e" está un poco más baja y representa una patilla en una PCB) y el siguiente, que es el que digo, y que a mí es el que más me gusta, aunque también valoro el primero porque representa bien la electrónica, las soldaduras con estaño y todo ese rollo.
#31: Exacto, el logo nuevo además es muy estático, no representa para nada la velocidad de proceso como el anterior.
#2 Te lo explico: se ha conseguido que un microprocesador funcione con energía FOTO-ATÓMICA, la energía foto-atómica del reactor de Japonium y ya no es necesaria la aleación Z que conforma los circuitos, dado que se hace todo ópticamente, basándose en los estudios de Gō Nagai.
#39#56#72
Si queréis profundizar en el tema, os dejo una breve conferencia de Ichiro Mizuki que, como seguro sabéis, tiene mucho que decir sobre la aplicación práctica de la ciencia descrita...
Tanta búsqueda de rendimiento y luego nos damos cuenta que prácticamente todo lo que tiene el más común de los humanos mortales rinde de forma similar en todo momento, sólo que para mantener un poquito mejor de apariencia y, en algún caso, más funcionalidades. A cambio, evidentemente, del hiperinflado del software. Hace poco lo conversé con un compañero: no me rinde mejor el i5 de la empresa que equipos de hace 20 o 25 años si mantengo el sistema por defecto que viene incluido en él. Si lo cambio, vuela.
Tras esta aparición es probable que se terminen por ver equis problemas de vulnerabilidades cuyos remedios supondrán en la reducción de un elevado porcentaje de rendimiento. Y así seguiremos hasta que no tengamos comunmente operativa una arquitectura basada en hardware y software libre.
#19 Ni eso, lo único óptico es la entrada de datos al chip. Eso sí, 16 entradas de fibra por chip.
"cada SLED tendrá 16 sockets con 16 TB/s de ancho de banda óptico"
Pero todo el funcionamiento interno es eléctrico... esto no es lo que yo llamo una "CPU fotónica".
Hicieron una prueba llevando este cacharro a la ISS en 2017 https://www.lavanguardia.com/tecnologia/20170814/43559226274/nasa-hp-superordenador-iss-mision-marte-spacex.html para saber como estaba la situación para llevar ordenadores decentes en un viaje a Marte. El ordenador en general se portó muy bien excepto el disco duro que dió problemas. Parece que como en giróscopos y demás que giran muy rápido y tienen material conductor los rayos cósmicos inducen corrientes eléctricas en ellos. En giróscopos de posición calentando el aceite con lo que tienen que llevar de reserva y que gire un sustituto y dejar descansar si no hay daños... Y en ese disco duro pues que se fastidiaban datos. Pero hay otros medios para almacenar incluso fotomagnéticos etc...
#37 son muy diferentes. Los fotones se mueven todo el rato a la velocidad de la luz en el medio que estén. En comparación los electrones están muy quietecitos. Suelen estar dando vueltas alrededor de una zona bastante bien delimitada como cerca de protones o nucleos atómicos. Si se comportaran igual no existiría la materia como la conocemos y al tener masa tendrían energía infinita moviéndose a la velocidad de la luz.
Algun ingeniero que sepa porque hemos tenido que esperar tanto para empezar a ver dispositivos fotonicos en competición con los electronicos? Intuitivamente parece mas sencillo y barato crear circuiteria fotonica que electronica. Quiza fue porque se los electronicos se desarrollaron primero y funcionaban tan bien y eran tan utiles que se "conformaron" con eso de momento?
#29 los fotones no se quedan quietos asi que tener memoria es complicado. Y cuando digo memoria es cualquier cosa desde una caché a un registro.
Ahora que venga alguien que sepa de verdad
#35 Los lasers funcionan cargando un atomo con un salto de electron. Si esta cargado, al mandarle un foton en lugar de subir, suelta otro foto. Seria una forma de almacenar bits.
De forma mas mecanica, hay DMD, con espejos microscopicos. En una posicion pueden reflejar la luz y en otra no. Seria otra forma.
Los condensadores almacenar carga estatica, igual que un globo flotado. El primer condensador era una botella.
#37 Hay LDR, que son transistores que controla la electricidad por luz en lugar de por otra corriente/voltaje. Tal vez te refieeres a controlar otro flujo de luz.
Las pantallas LCD, bloquena o desbloquean los pixeles. Es otra opcion.
#85 mola! Todas esas tecnicas cuanto se pueden miniaturizar? Comparado con lo que pueden ocupar los registros de una CPU normal, sabes si estamos muy lejos?
Comentarios
Tiene buena pinta pero hay cosas que no me encajan:
- 66 threads y solo 192 Kb de caché L1 ... no le va a durar ná. Y los 4 MB de L2, menos.
- 32 GB de RAM DDR5 ¿en un servidor? Coño que nosotros llevamos tiempo con el TB de RAM y más.
- 16 sockets con medio TB de RAM.
¿esto es para IA o algo similar? Me salen muchos núcleos con muy poca RAM para que esto sea para computación tradicional.
Esto no es una CPU tradicional, esto es otra cosa.
#3 igual es un demostrador tecnologico, una nueva via de desarrollo de procesadores o estan enfocados en un nicho muy muy concreto
#4
Uff, entonces va para largo.
#3 conjetura, usar eso en el espacio.
https://www.doeeet.com/content/testing-eee-parts/photonic-integrated-circuits-radiation/
#5
Sería interesante saber qué aplicación tiene en el espacio algo tan potente. No sé qué CPU tienen ahora, pero lo que lanzan al espacio es bastante menos potente que cualquier CPU actual de las pochas.
https://en.wikipedia.org/wiki/RAD5500
#7 tener un procesador tan potente en el espacio seria un adelanto importante, imaginate que ahora los datos se mandan practicamente en bruto porque los procesadores no son muy potentes, tener procesadores muy potentes permitiria procesar parte de la informacion en origen y por tanto usar menos ancho de datos a la hora de mandar la informacion, porque ahora mismo ese es el cuello de botella, la red profunda de la nasa es muy lenta
#8
Para comprimir datos no necesitas algo con 66 threads por core.
#9 no digo comprimir, digo procesar datos, imagenes, analisis....
#11
Eso se hace en Tierra. Las naves tienen otro problema que es la energía (dependen de paneles solares o de generadores de radioisótopos) y el calentamiento (bueno, el enfriar las cosas)
#12 claro que se hace en tierra, pero si puedes procesar esos datos en orbita entonces a tierra mandas muchos menos datos, y para eso podria servir un procesador como este
#16 Pero eso es un poco como hacer un documental sobre leones en Kenia, pero después de rodar todo, grabas las locuciones, creas la música y montas el vídeo allí mismo con los gatitos mirando.
#45 Y que no les guste la edición y te coman, no sé yo...
#16 No tiene sentido, los datos originales siempre te harán falta precisamente porque es investigación. Esos datos se archivan, y se pueden usar en investigaciones nuevas, se pueden revisar por pares, etc. Si fuera para datos que necesiten tratamiento en tiempo real tendría sentido, pero si necesitas fiarte de esos datos, entonces es porque su tratamiento es algo asentado, no tanto investigación, y supongo que en ese caso lo que tendrías sería un satélite, que igualmente a menos que sea algo básico, lo que hará será mandar datos al a tierra en tiempo real.
En fin, hablando desde el desconocimiento y en base a suposiciones, claro.
#12 se hace en tierra ya que no se puede hacer más en en el espacio, es un punto donde se encuentra la potencia máxima en nave y las comunicaciones, una nueva tecnología solo desplaza algo a potencia en nave(al final también aumentara la demanda de comunicación).
Luego están los minutos de terror de amartizar, autónomo y a ver esto para el año que viene: https://www.nasa.gov/press-release/nasa-selects-intuitive-machines-for-new-lunar-science-delivery
#11 Normalmente se hace en Tierra como #12 y #18 comentan.
Pero no solo por esas razones, sino porque interesa tener los datos en bruto para poder procesarlo de mil maneras, y que si dentro de 2 años sale una tecnología de procesamiento mejor, puedan volver a reprocesarse.
En astrofoto me ocurre igual. Hace 4 años no había técnicas basadas en IA para el procesado. Ahora, con las técnicas actuales se pueden hacer cosas que no podía antes. Si hubiera guardado sólo mis datos procesados, ahora no podría hacer el reprocesado con las nuevas técnicas, pero al haberlos guardado en bruto, puedo sacar detalles que antes no podría haber sacado ni aunque quisiera.
#33 Como bien habéis explicado, los datos se necesitan en bruto en la Tierra, por lo que lo que se está es intentando mejorar la tecnología en cuanto a comunicaciones y probando cosas como la transmisión por láser. De hecho, en octubre en la misión Psyche volará un demostrador tecnológico para transmitir con láser los datos de la misión desde una gran distancia y comprobar si efectivamente podemos aumentar el ancho de banda de las misiones, lo que nos permitirá hacer mucha más ciencia.
Es fundamental que los datos estén en bruto para su archivado y reprocesado posterior. Uno sabe que técnicas tiene hoy pero no con las que contará mañana, por lo que en la medida de lo posible imágenes y cualquier otro tipo de datos las necesitamos en bruto.
¿Quiere decir eso que no se beneficiaría la tecnología espacial de procesadores más rápidos? Claro que si. Hemos visto por ejemplo al Ingenuity volar con un procesador comercial más rápido, lo que permite una navegación mejor porque puede trabajar a tiempo real con imágenes más grandes y buscar un sitio de aterrizaje, cosa que con procesadores más lentos sería muy difícil.
Así que quien sabe si veremos en el futuro misiones remotas que no podemos pilotar a tiempo real (básicamente cualquier cosa más allá de la Luna) que sean capaces de tomar decisiones en base a modelos y que se beneficien de una mejor capacidad de procesado para tomar decisiones rápidas y con más datos, ya sea para la navegación, para la elección de objetivos de estudio más interesantes o para otras cuestiones.
#33 Imagino que para misiones espaciales a mucha distancia es mejor que se procesen y se envíen la menor cantidad de datos posibles.
Los datos en bruto ocupan mucho y tardan más en transmitirse. A mucha distancia las posibilidades de error en la comunicación aumentan, por lo que o se meten muchos códigos de corrección (lo cual aumenta más el tamaño de los datos enviados) o se reduce la cantidad de información a enviar, para que disminuyan esas posibilidades de error/interferencias, etc.
#8 Si no se envían procesadores mas potentes al espacio es porque no se quiere hacer.
Al espacio todo lo que va esta ampliamente probado ya que en la practica no hay posibilidad de reparación. Así que para que lancen estos chips al espacio todavía faltan 10 años.
cc
#21 por eso se está probando desde hace una década sistemas de procesamiento potentes a la ISS, lo mismo que almacenamiento en SSD, menos peso y demás, para ensayar lo que se va a usar en el futuro.
#8 Porque la potencia no es lo único a tener en cuenta, el consumo y la fiabilidad/durabilidad pueden ser más importantes. (Y esto lo digo desde la ignorancia más absoluta)
#8 En el espacio no se atreven a llevar procesadores con tamaños de transistores tirando a grandes, por aquello de la radiación espacial y esos detalles casi sin importancia.
Dudo muchísimo que se les ocurra llevar procesadores de 7nm, o que ni siquiera funcionen sin errores en el espacio.
#41 hay misiones especiales con FPGAs de 7 nm. Tampoco hay más opciones para tener redundancia sin que se dispare el peso y el consumo.
#7 para manejar cañones fotónicos, obviamente.
#13 Pero tenemos cristales de Dilitio para alimentar el reactor principal?
#3 CPU fotónica, suena a que están montando un Mazinger Z
#10
Veo que no he sido el único que lo ha pensado.
#10 Photonic Engine, la palabra ya está escogida https://www.pocket-lint.com/es-es/smartphones/noticias/apple/162585-apple-motor-fotonico-fotos-con-poca-luz-como-funciona-camara-del-iphone/
#3 Ese tipo de aplicaciones para los que está diseñado tiene baja localidad de datos y por tanto la cache no ayuda tanto. De ahí el uso de scratchpads, buscar mucho paralelismo a nivel de hilo y mucho ancho de banda para alimentar los núcleos. Sí és cierto que no cuadra la poca capacidad de memoria.
#19 los chinos están a un paso de tener un procesador fotónico
zu-chongzhi-posibilidad-computacion-cuantica-universal-traves/c03#c-3
Zu Chongzhi : posibilidad de computación cuántica ...
globaltimes.cn#20 Si la velocidad de procesamiento es muy rápida y la capacidad de procesamiento enorme, entonces no necesitas memoria para retener ni los datos que entran ni los datos que salen, sobre todo si es para IA, siempre que puedas enviar y recibir muchos datos a la vez.
Vamos, imagina que la memoria es un sitio de almacenamiento de datos mientras entran y salen del procesador que los convierte. Si el procesador es tan bestia que puede tener la mayoría de los datos en su interior mientras se procesan pues entonces no necesitas tanta memoria: solo la necesaria para ir sacando los que necesites e ir metiendo los nuevos...
#22 Los chinos siempre están a un paso de todo, leyendo las noticias, el problema es que nunca dan ese paso y ahí se quedó la noticia.
#28 "Nunca dan ese paso". Con el 5G ya lo dieron, y mira lo que ha ocurrido. Se cuidarán muy mucho antes de volver a hacer algo así públicamente
#28 Tal vez el enlace que proporcioné para indicar el procesador fotónico cuántico que están desarrollando los chinos no hablaba de que ya lo están usando, aquí tienes otro que sí lo comenta
ia-crea-primer-procesador-sin-intervencion-humana-qimeng-no-1/c024#c-24
Una IA crea el primer procesador sin intervención ...
elchapuzasinformatico.comPor otro lado, los chinos están más avanzados en la mayoría de campos importantes de la ciencia hoy en día:
Australian Strategic Policy Institute lleva un seguimiento de los avances en nuevas tecnologías (China está por delante en 37 de 44 campos más punteros en tecnología)
(bajar en la web para ver la tabla completa)
https://www.aspi.org.au/report/critical-technology-tracker
#22 Dice que es cuántico no fotónico clásico que por cierto de estos tienen desde hace unos años para GPUs creo
#3 También estaba bien leer el artículo, que explica el uso, en vez de solo el titular y la entradilla (que sí, que leer el artículo es de cobardes). El procesador está diseñado para manejar consultas sobre grafos a escalas muy grandes. Las bases de datos basadas en grafos son muy potentes para esto, pero esto requiere una escala gigante y querían un procesador dedicado para esto.
#25 es decir, análisis de datos a gran escala, otra manera de analizar big data?
#49 técnicamente, a nivel de definición académica, big data es el análisis de datos a escala de petabytes. Académicamente estás es lo correcto, aunque como norma general en el mundo de los datos de solía asociar el big data al mundo de los data lakes y no se usa ya la expresión, suena viejuna
#3 No no. No es así, además de que tu último párrafo da en el quid de la cuestión.
- La caché, como te digo arriba, es solo la prueba, puesto que no utiliza conectores normales, usa haces de luz para conexión.
- ¿Quién nosotros? En lo que ves es solo de I/O, osease de entrada/salida, no de socket en RAM como tal. ¿Dónde manejas Teras de RAM?
- Es que creo que sigues flipando con lo que hay ahora.
No, es de pruebas para un nuevo tipo de ordenador.
#27 ¿ teras de ram? Busca SAP Hana:-)
#74 He dicho tu. Que donde las manejas tu.
#3
Esta diseñado para uso militar, en concreto para usar un programa que se llama HIVE. Con esta arquitectura se busca llegar a la escala del Petabyte de gráficos analíticos , de ahí los 66 hilos por núcleo , 8 núcleos.
HIVE estaba desaprovechando sobre el 80% de los datos en 8b por una mala usabilidad de la caché y como lo que buscaban es hacer funcionar el programa , ajustaron el procesador al HIVE , y no al revés.
#3 si, a mi también me ha parecido que ese planteamiento tan multihilo está pensado para la ejecución de redes neuronales.
Supongo que el destino será un cazabombardero capaz de pilotarse a sí mismo, analizar el escenario de batalla, destruir al enemigo esté en el aire o en tierra, esquivar las contraofensivas, etc.
Con un arma así.... quién le toserá a los USA? Los chinos podrán estar a la altura? No tienen esa excelencia en la tecnología de chips....
#43 Vamos, el nuevo cerebro de Skynet
#50 TAL CUAL
#43 Es uno de los pocos campos de la tecnología en la que están por detrás.
Sin embargo, con los nuevos desarrollos que publican advierten de que quieren liderar también ese campo
ia-crea-primer-procesador-sin-intervencion-humana-qimeng-no-1/c0108#c-108
Una IA crea el primer procesador sin intervención ...
elchapuzasinformatico.com#59 joder, eso si que es una buena aplicación de que vale más maña que fuerza....
#3 En la noticia pone claro clarinete que esto no es una CPU tradicional, que es par otra cosa.
En concreto para análisis de grafos (en la noticia lo traducen malamente como análisis de gráficos). Básicamente lo que a veces se conoce como big data.
Esto, y teniendo en cuenta que son aplicaciones militares... pues jeje, te puedes hacer una idea de que la idea es inteligencia militar. (=no hemos escatimado en gastos)
Aquí un pequeño paper que básicamente cuenta que la problemática del procesamiento de análisis de grafos, que implica falta de capacidad de procesamiento (e intenta dividirlo en subgrafos, pero se pierde un poco el todo).
https://humming80.github.io/papers/Yan-Vol7-DBS-056.pdf
#3 A mi lo que me flipa son los 66 hilos por núcleo
#66 Y que 64 de ellos estén ocupados con svchost.exe
#3 A mi me llama la atención que es RISC V
Espero que lleve condensador de fluzo.
#1: Y que vuelvan al logotipo de 2006, que el nuevo es una birria.
#14 Lo sigo viendo a menudo, no se...
#24: En los nuevos no creo, pero en los ordenadores antiguos seguro que sí.
Y no me extrañaría que haya pegatinas no oficiales con el primer logo (en el que la "e" está un poco más baja y representa una patilla en una PCB) y el siguiente, que es el que digo, y que a mí es el que más me gusta, aunque también valoro el primero porque representa bien la electrónica, las soldaduras con estaño y todo ese rollo.
#31: Exacto, el logo nuevo además es muy estático, no representa para nada la velocidad de proceso como el anterior.
#88: Aunque yo soy fan del de 2006, ese también me gustaba mucho, como digo en #73, representa bien el look & feel de la electrónica antigua.
#14 Es ver éste logo y venirme a la cabeza el jingle
#14 te voté positivo, pero a mí el que me mola es el de Intel Inside, parecido a ese y con la e baja.
#1 Y que lleve algo de grafeno
#1 seguro que le falla la junta de la trocola.
#17 o que no se puede reparar la abrazadera del manguito del bendi
#1 Y wue esté hecho de grafeno.
#1 edta obsoleto desde 1985. Ahora se lleva el mister fusión.
#1 La siguiente generación será la cpu positrónica.
#72 Eso tiene mas años pero muchos mas que Aliexpress
Parece un título de ciencia ficción de los 60, lo que no se es si atómica vendría antes y neutrónica después o como
Ej. la venganza de la CPU neutrónica
#2 Te lo explico: se ha conseguido que un microprocesador funcione con energía FOTO-ATÓMICA, la energía foto-atómica del reactor de Japonium y ya no es necesaria la aleación Z que conforma los circuitos, dado que se hace todo ópticamente, basándose en los estudios de Gō Nagai.
#39 queda claro
#56 No pidas tus Mazingers en Aliexpress...
#39 #56 #72
Si queréis profundizar en el tema, os dejo una breve conferencia de Ichiro Mizuki que, como seguro sabéis, tiene mucho que decir sobre la aplicación práctica de la ciencia descrita...
#78 Ains, la lagrimilla
#72 Bueno, ese es más bien de Corea de los 70, tendrías que ver los peinados y los trajes de los actores de la peli.
Sólo fotónica? está por debajo de las gafas radiónicas de sandro rey
Todo lo que sea nueva tecnología bienvenido sea.
tejido mesh to mesh... como mis zapatillas de "running"
Bah, NADA que los chinos no hagan mejor...
Tanta búsqueda de rendimiento y luego nos damos cuenta que prácticamente todo lo que tiene el más común de los humanos mortales rinde de forma similar en todo momento, sólo que para mantener un poquito mejor de apariencia y, en algún caso, más funcionalidades. A cambio, evidentemente, del hiperinflado del software. Hace poco lo conversé con un compañero: no me rinde mejor el i5 de la empresa que equipos de hace 20 o 25 años si mantengo el sistema por defecto que viene incluido en él. Si lo cambio, vuela.
Tras esta aparición es probable que se terminen por ver equis problemas de vulnerabilidades cuyos remedios supondrán en la reducción de un elevado porcentaje de rendimiento. Y así seguiremos hasta que no tengamos comunmente operativa una arquitectura basada en hardware y software libre.
Esto de la fotónica me da pereza. Me espero a la positrónica.
esto no es una CPU fotónica.
es una CPU electrónica con enlaces entre dies por fibra optica
Si pero corre Linux?
Entiendo que lo fotónico aquí es la red dentro del chip (la Network on Chip o NoC). Estamos muy lejos de tener núcleos fotónicos aún.
#19 Ni eso, lo único óptico es la entrada de datos al chip. Eso sí, 16 entradas de fibra por chip.
"cada SLED tendrá 16 sockets con 16 TB/s de ancho de banda óptico"
Pero todo el funcionamiento interno es eléctrico... esto no es lo que yo llamo una "CPU fotónica".
Valiente entradilla de noticia...
Y que lleve aire acondicionado integrado para evitar calentamientos.
Hicieron una prueba llevando este cacharro a la ISS en 2017 https://www.lavanguardia.com/tecnologia/20170814/43559226274/nasa-hp-superordenador-iss-mision-marte-spacex.html para saber como estaba la situación para llevar ordenadores decentes en un viaje a Marte. El ordenador en general se portó muy bien excepto el disco duro que dió problemas. Parece que como en giróscopos y demás que giran muy rápido y tienen material conductor los rayos cósmicos inducen corrientes eléctricas en ellos. En giróscopos de posición calentando el aceite con lo que tienen que llevar de reserva y que gire un sustituto y dejar descansar si no hay daños... Y en ese disco duro pues que se fastidiaban datos. Pero hay otros medios para almacenar incluso fotomagnéticos etc...
#37 son muy diferentes. Los fotones se mueven todo el rato a la velocidad de la luz en el medio que estén. En comparación los electrones están muy quietecitos. Suelen estar dando vueltas alrededor de una zona bastante bien delimitada como cerca de protones o nucleos atómicos. Si se comportaran igual no existiría la materia como la conocemos y al tener masa tendrían energía infinita moviéndose a la velocidad de la luz.
#58 Cuestion de materiales casi seguro. Venga ese ingeniero que nos explique bien el tema !!!!
Algun ingeniero que sepa porque hemos tenido que esperar tanto para empezar a ver dispositivos fotonicos en competición con los electronicos? Intuitivamente parece mas sencillo y barato crear circuiteria fotonica que electronica. Quiza fue porque se los electronicos se desarrollaron primero y funcionaban tan bien y eran tan utiles que se "conformaron" con eso de momento?
#29 los fotones no se quedan quietos asi que tener memoria es complicado. Y cuando digo memoria es cualquier cosa desde una caché a un registro.
Ahora que venga alguien que sepa de verdad
#35 Koño, ni los electrones. Tengo que leer como seran los "transistores" fotonicos.
#35 Los lasers funcionan cargando un atomo con un salto de electron. Si esta cargado, al mandarle un foton en lugar de subir, suelta otro foto. Seria una forma de almacenar bits.
De forma mas mecanica, hay DMD, con espejos microscopicos. En una posicion pueden reflejar la luz y en otra no. Seria otra forma.
Los condensadores almacenar carga estatica, igual que un globo flotado. El primer condensador era una botella.
#37 Hay LDR, que son transistores que controla la electricidad por luz en lugar de por otra corriente/voltaje. Tal vez te refieeres a controlar otro flujo de luz.
Las pantallas LCD, bloquena o desbloquean los pixeles. Es otra opcion.
#85 porque hemos esperado tanto para que empiece a hablarse de fotónica?
Que ventajas tiene? Que inconvenientes?
Gracias de antemano. No te positivizo porque estoy por debajo de 6
#86 #90 Estoy elucubrando bastante no soy ingeniero pero tal vez os interese investigar como funcionan los laseres.
https://es.wikipedia.org/wiki/Dispositivo_digital_de_microespejos
https://es.wikipedia.org/wiki/Fotorresistor
Hay otras formas de haceer computadoras como con burbujas.
Hay un video narrado por Quevedo, pero no lo encuentro.
#85 mola! Todas esas tecnicas cuanto se pueden miniaturizar? Comparado con lo que pueden ocupar los registros de una CPU normal, sabes si estamos muy lejos?
Se podrá embeber un Doom?
Lo importante, ¿correrá el Doom y el Crysis?
Edito no había visto a #46