#28 Los globos suben por ser menos densos que el aire. Si sigues subiendo, la densidad del aire va bajando hasta el punto de que tu globo no sirve para nada.
#146 Lo he visto. No deja de ser un finetuning de LLaMa de Meta. De hecho, solo pueden publicar las diferencias entre los parámetros de Llama y los suyos. Osea, nada público. Tienes que pasar por Meta y ellos te dirán si te dan los parámetros o no. Eso de basado en GPT4 es mentira.
El único problema que hay ahora con la IA es que son solo las grandes empresas las que están teniendo estas IAs tochas. Estas cosas deberían de salir de un laboratorio público y ser accesibles a todo el mundo.
Es que ese es el problema de estas cosas a tan gran escala. Los falsos positivos, que aunque tu algoritmo sea un 99,99% eficiente, no dejas de estar buscando una aguja en un pajar (el ratio delincuente/ persona no delincuentr) y aquí el señor Bayes con su teorema tiene mucho que decir.
No es así como realmente se entrena una red neuronal. Que como curiosidad usar un algoritmo genético para encontrar los pesos me parece genial, pero no es así como funciona.
#74 Vaya no más largo. ¿Y recomiendas a alguien con la cabeza en su sitio que relacione las nuevas tecnologías y cómo las usan gobiernos y empresas privadas para sus cositas?
Que los ultramillonarios estén deseando de largarse de este planeta debería de dar alguna pista, y gente aquí defendiéndolos. Os creéis que vais a ser los elegidos para ir a vivir a Marte (cuando se pueda vivir, que ya ha anunciado que los primeros pringados palmarán, ahí si podréis ir) o a las estaciones espaciales que quieren crear en órbita para vivir.
#10 Como cada vez que se da un % siempre falta algún dato, en este caso sería ver la sensibilidad y especificidad de la prueba. es.wikipedia.org/wiki/Sensibilidad_y_especificidad
En el caso que nos ocupa, que preferimos, ¿un falso negativo o un falso positivo? Si tenemos un falso negativo, significa que ese individuo tiene la enfermedad y no la detectamos, ¡MEC! Cagada, necesitamos una sensibilidad alta para evitar esto. Por contra, si tenemos un falso positivo, en este caso, a unas malas te llevas un susto del copón y pruebas para seguirte la evolución; una putada, pero preferible a lo de antes. Por tanto en este caso la especificidad nos da un poco igual aunque obviamente queremos controlarla también.
Respondiéndote directamente, lo cierto es que nunca se va a saber algo con un 100% de seguridad. Entonces al final es: tenemos este grupo de 100 personas que con estas características han desarrollado la enfermedad (80) y otras tantas que no (20). Si alguien viene con esas características, la probabilidad de desarrollar la enfermedad pues sería del 80%. Lo que digo hay que cogerlo a grandes rasgos porque obviamente hay mucha más ciencia y más detalles sutiles de fondo, pero a grosso modo sería eso.
#12 Tienes un fallo de concepto bastante grande con lo de algoritmo. Parece algo estás metido en el tema, pero te falta revisar conceptos, más profundidad y sobre todo algo de humildad, chaval.
Primero, las redes neuronales son algoritmos, te pongas como te pongas. De hecho, cualquier cosa que estés ejecutando en el PC es un algoritmo, que como bien has dicho, es una receta, una serie de instrucciones. Que luego de un resultado que para un humano no sea interpretable no lo convierte en algo que no es un algoritmo.
Luego, no se trata de ir neurona por neurona u operación por operación para entender como funciona por ejemplo una red neuronal. Si nos vamos a la convolucionales, con cada capa de profundida vas viendo que en cada paso va pasando de los objectos abstractos de la imagen a los detalles más finos. Con esto te puede valer o hacerte una idea de como trabaja la red y poder cambiar la arquitectura. Los "recientes" transformers, puedes ir viendo como cada "head" se va centrando en verbos, pronombres, etc... y como en una frase se le va dando más o menos valor a una palabra u otra dependiendo del contexto.
Aparte, esta frase "pero la complejidad es tal que ni vas a ver los errores, ni vas a saber cómo corregirlos una vez los encuentres" vuelve a carecer de sentido en el contexto de una red neuronal. La red o hace lo que quieres o no lo hace, no por eso es un error. Simplemente o te faltan datos, o entrenas de forma que no toca u otra de las mil cosas posibles, pero no es un error entendido como error de programación.
#6 Estás hablando de las redes neuronales y se está avanzando bastante en ese aspecto. Y no todo en IA son redes neuronales. Tienes árboles de decisión y otros algoritmos similares que son perfectamente interpretables. Y te repito, la frase "no funcionan como un algoritmo" carece de sentido. Que sea interpretable o que sea más o menos determinista no tiene nada que ver con que sea o se comporte como un algoritmo.
#5 De ahí mi primera frase. No le quitaba razón con lo de los datos sesgados. Mi comentario va más encaminado a la última parte dónde desmiente la frase hecha por uno de los investigadores cuándo en la cita que puse demuestra claramente que no sabe del todo bien lo que habla.
#21 Ya bueno, pero te puedo sacar un ojo con ella.
Si te doy la razón en lo de las redes sociales, la gente no es consciente de lo que se puede llegar a hacer para manipular con estas herramientas. Pero por cada mal uso, hay también usos decentes. El problema es más a nivel de sociedad, ¿qué es lo que da pasta? Pues por ejemplo usar estos algoritmos para tener enganchados al personal al móvil mientras le metes tu propaganda por redes sociales.