Es que a los mayores de 40 no nos han prohibido todavia volver a la universidad.
Y ademas ahora existe Internet y puedes sacarte una carrera en universidades en otro continente.
En mi caso estoy intentando una segunda carrera en Ciencia de Datos y estoy pegandome con las asignaturas de matematicas porque hace mas 25 anios que me hice las de la carrera.
Soy mas bien calvo, que cuando empece usabamos el Turbo Pascal y el Turbo C, y OWL era un adelanto de la polla en vez de programar windows con la API en C a pelo,... y teniendo que cargar las entradas de las dll mirando los segmentos de memoria porque era win32 y en mi memoria de persono mayor me acuerdo de que habia un pollo bien montado con los puntos de entrada de las dll si tenias win32 en vez de 16 bits... pero hace mucho de eso.
#141 Bueno, realmente no he dicho nada, sólo parafraseado al usuario anterior aplicándolo a otro ámbito, pero ya te he revelado mi línea de pensamiento.
Así que ese "según dices" es una proyección tuya. Sin acritud, solo por aclarar.
#141 En ningún momento he dicho que Rust (u otro lenguaje memory-safe) sea la solución a los accidentes de programación, si no que mitiga y previene muchos de ellos. Igual que los elementos de seguridad activa y pasiva de un coche no son la solución a los accidentes de tráfico.
Sólo apuntaba que ese razonamiento lleva a la conclusión de que no merece la pena invertir en herramientas más seguras, porque el problema son los malos conductores/programadores (que casualmente siempre son otros y no uno mismo).
#64 Eso sí que es cierto, en analógico la señal se degrada gradualmente (tiene mucha redundancia), mientras que en digital, al principio la corrección de errores evita la degradación, pero llegado un punto, falla totalmente, y pierdes macrobloques enteros (16x16 pixels).
#52 También hay que tener en cuenta que la calidad de emisión de la TDT ha mejorado mucho estos años, porque cuando empezaron a emitir era bastante mala, sobre todo en directos. Puede que por eso tengas el recuerdo de que la emisión analógica era "mejor".
#26 Yo le haría un test a ciegas, a ver si es capaz de diferenciar un piano a 440 de 442, porque si saca el afinador para comprobar su requisito, entonces veo más postureo que verdadera intención.
Ya pasó con los violines, se hicieron audiciones a ciegas entre Stradivarius originales y violines de fibra y quedaban ahí igualados.
Que sí, que hay gente con oído absoluto y todo lo que quieras, pero por cada uno de esos, hay cien haciendo tonterías de postureo.
#96¿Quieres decir que los que hacen peer review no llegan a "científico con un mínimo de competencia y experiencia"? No sé si me está tranquilizando mucho tu comentario, la verdad...
Tampoco van por ahí los tiros. Sencillamente, un artículo basura probablemente se envíe a una revista que publica constantemente basura. La gente que se presta a revisar para revistas así ya sabe a lo que va: a poner el listón bien bajo y dejar pasar los artículos porque "hoy por ti, mañana por mí". Si por casualidad un revisor honrado y exigente cae en una revista así, probablemente no le hagan mucho caso (he visto casos de revistas de ésas recibiendo comentarios que dejan un paper a la altura del betún y aceptándolo igual... pista: muchas de ellas son revistas que cobran por publicar) y no lo llamen otra vez.
Vamos, que no es que los revisores que dejan pasar la basura no sepan distinguirla, es que la dejan pasar porque ellos mismos viven de generar basura y les interesa que se siga generando. Es un quid pro quo.
#5#35 Es que lo que defines como "ruido" es a medida de nuestra percepción. Una máquina percibe las cosas de forma diferente, así que lo que es ruido para ti, puede no serlo para la IA y viceversa. De hecho en otros ámbitos es muy tolerante al ruido que haría dudar a un humano.
#73Las IA no son perfectas y, por lo que dice el artículo, nunca lo serán. ¿y que?: Aquí estás moviendo la portería. Tu argumento en #44 era que en algún momento dejarán de equivocarse, y ponías varios ejemplos de mejoras, pidiendo tiempo para aquellos problemas aún no resueltos (meses o años).
Tienes razón en eso, es porque no me había leído el artículo. Esto es menéame...
#49 No seré yo quien desmienta a investigadores de la universidad de Copenhague, mucho más listos y leídos que yo. Lo que vengo a decir es que a los humanos se nos engaña igualmente. Las IA no son perfectas y, por lo que dice el artículo, nunca lo serán. ¿y que? Son y serán mucho mejores en ciertas tareas de lo que será mejor el humano medio. Y no estamos hablando de cuando "viajemos a las estrellas", estamos hablando de hoy o de dentro de unos pocos meses o años. Si quieres resultados matemáticamente perfectos una IA no es el camino, para eso están los algoritmos deterministas y las calculadoras. Las IA tienen margen de error, se equivocan, igual que nos equivocamos los humanos. Porque se han diseñado simulando en cierta medida nuestros procesos neuronales.
Por otro lado, el titular no lo veo correcto. Es mucho más acertado el subtitular: "Investigadores de la Universidad de Copenhague se han convertido en los primeros del mundo en demostrar matemáticamente que, más allá de los problemas sencillos, es imposible desarrollar algoritmos para la IA que sean siempre estables."
#35 Ya, pero me apetecía contar mi anécdota para criticar a la guardia urbana de Barcelona
Las IA siguen evolucionando, quizás ahora una pegatina les confunda, pero dejará de hacerlo. Igual que hace no tanto habría que repetir 20 veces "si acepto" a los robots telefónicos para que te entendieran y hora puedes tener una conversación fluida con ellos, o hace tan solo unos meses las IA generaban manos de 7 dedos y ahora mismo ya son indistinguibles de una fotografía. Dales tiempo.
#80#70 toda la noticia es un "ad hominem", porque se basa únicamente en su opinión (que, por cierto, tampoco ha dicho nada que no se hubiera dicho antes). Pero me parece relevante dar ese contexto, porque sabiendo de qué pie cojea me puedo imaginar que toma esta postura porque es lo que más le interesa a él personalmente.
#18 Nadie ha creado nada similar a un humano. Los resultados de ChatGPT son interesantes y demuestran que es posible hacer algo interesante de otra forma distinta. Lo que no es, es útil.
#18 No es, ni de lejos, el primer intento. Se ha intentado y fracasado en multitud de ocasiones. Esta vez nos hemos inspirado en la biología para el diseño del cerebro digital y hemos usado la cultura humana como fuente de entrenamiento de ese cerebro digital. Todo ello teniendo como objetivo que los resultados sean lo más parecidos a los humanos posibles.
No tendría nada de increíble ni nada de casualidad que los resultados fueran equiparables debido a que el proceso para llegar a ellos fuera equiparable.
Es que a los mayores de 40 no nos han prohibido todavia volver a la universidad.
Y ademas ahora existe Internet y puedes sacarte una carrera en universidades en otro continente.
En mi caso estoy intentando una segunda carrera en Ciencia de Datos y estoy pegandome con las asignaturas de matematicas porque hace mas 25 anios que me hice las de la carrera.
Soy mas bien calvo, que cuando empece usabamos el Turbo Pascal y el Turbo C, y OWL era un adelanto de la polla en vez de programar windows con la API en C a pelo,... y teniendo que cargar las entradas de las dll mirando los segmentos de memoria porque era win32 y en mi memoria de persono mayor me acuerdo de que habia un pollo bien montado con los puntos de entrada de las dll si tenias win32 en vez de 16 bits... pero hace mucho de eso.