cultura y tecnología
142 meneos
1397 clics

La Teoría de la Adquisición del Lenguaje de Noam Chomsky: La Revolución del Innatismo

La adquisición del lenguaje es uno de los logros cognitivos más notables de los seres humanos. Desde sus primeros años de vida, los niños son capaces de aprender y dominar un sistema de comunicación complejo, y lo hacen de manera sorprendentemente rápida y eficiente. A lo largo de la historia, los científicos y los lingüistas han tratado de comprender cómo se produce este proceso fundamental.

| etiquetas: noam chomsky , innatismo , adquisición lengueje
#7 Que los niños tienen lenguaje de forma innata es algo que solo tú estás diciendo.

Aquí se habla de que la capacidad innata de adquirir el lenguaje es asombrosa y se está aún estudiando.
#7 suscribo a #8, parece que no estás entendiendo que no dice que el lenguaje sea innato sino la capacidad de comunicarse, y por ello se adquiere tan pronto.
El lenguaje, junto con la mente humana, es una de las peores cosas que le han pasado a este planeta, al nivel de el meteorito más destructivo que haya pasado por aquí.
Que una especie haya dejado de vivir en el ahora como todos las demás para hacerlo en ridículos planes de futuro, acompañados por una retórica limitada y subjetiva destinada a hacerse creer a sí mismo las ideas que surgen de la pura contingencia ha resultado ser una desgracia.
Los cíclopes quisieron conocer el destino y desde…   » ver todo el comentario
#13 Al planeta le da igual lo que le pase, el concepto de bien y del mal es un constructo humano.
La humanidad se extinguirá, el planeta desaparecerá y a nadie le importará nada, el universo seguirá su curso.
#30 Ya, pero yo no soy el universo, no me es indiferente. Bueno, que digo, si lo soy y si me importa.
#13 También la mente humana es capaz de conocer, explicar y manipular su entorno, con consecuencias a veces terribles y a veces maravillosas.
El presente cobra sentido sólo en relación con el pasado y el futuro. Para los animales no existe el presente y los salvajes viven en un estado de ansiedad casi permanente. No lo saben. Pero, aún así, no me dan envidia.
Y bueno, este planeta sin humanos sería precioso hasta su desaparición, y feo, y varias veces cada cosa. Y sin nadie para observarlo, nada de ello vale nada.
#32 Pues yo creo que para el resto de animales sólo existe el presente.
Tampoco creo que el fin del universo sea ser observado... Es bella también la idea de un universo que no se observa a si mismo y crece en la inconsciencia.
#33 ¿Es una idea bella para quién? Si no hay consciencia no hay belleza.
#34 Para mi que ahora soy consciente
#7 La teoría de Chomsky, que hoy está sobradamente aceptada, es que el ser humano tiene cableada la capacidad de adquirir un lenguaje (o varios). Lo que no tiene sentido seguir creyendo en la tabula rasa como hacen muchos y muchas, y en una gran variedad de temas. (No digo que lo hagas tú.)
el innatismo está a la misma altura que el creacionismo, si ahondas en esta teoría del lenguaje al final se llega a que hay un ser o una inteligencia anterior que lo creó todo. resbalones los tiene cualquiera, Chomsky también. además, es contradictorio: si es innato entonces no lo adquieres, pero bueno, es Chomsky, se le permite todo
#1 Lo de la gramática universal innata, no es que sea imposible de entrada, pero si miras la diversidad de idiomas que hay, no se parece nada una gramática a la otra, pero nada.

Un conlang llamado lojban fue diseñado con el requisito de que su gramática fuera lo más distinta posible de todo idioma existente. Hablar lojban es de lo más natural que hay a la que te acostumbras a sus giros, algo que se consigue muy rápido.
#5 O sea que para construir una frase primero dices una palabra y luego, a continuación, dices otra.

Si lo haces aún más genérico te recompensaré con un positivo.
#3 Cómo que no se parece en nada? Hasta donde sé, todos los idiomas tienen nombres, verbos, adjetivos ...
#24 Si te sirve de algo, lojban puede usar nombres (como el nombre de una persona), pero no verbos. Cualquier concepto puede funcionar como denominador o como calificador dependiendo de su posición. También existen prefijos para clarificar cuando sea necesario, así pues

mlatu - ser un gato
lo mlatu - el/un gato
poi mlatu - el cual es un gato

Por lo que "hasta donde sabes" no incluye los conlangs, que es un espacio de gran creatividad.

Hay una anécdota de cuando Humberto Eco, que…   » ver todo el comentario
#25 Por lo que cuentas, ese lenguaje (que no conocía) es gramaticalmente común con muchos otros. No veo nada que impida que pueda responder a una meta-gramática.

De hecho, desde el momento que trata de aproximar los lenguajes formales de las máquinas al lenguaje para comunicarse humano, participa de estructuras de ambos modelos de lenguaje.

En definitiva, más que un argumento contrario a un principio de "innatismo" del lenguaje, me parece un argumento a favor!
#1 No es cierto. Todos los animales tienen habilidades y capacidades que no son adquiridas, si no que son innatas.

Por ejemplo, la misma capacidad de aprender

Puedes verlo como la "BIOS" o el "UEFI" animal. Sin ella no funcionaríamos.
#4 es lo que estoy diciendo en mi comentario, que el innatismo no puede ser una teoría de la "adquisición" del lenguaje, porque innatismo es lo contrario a adquisición. a ver si leemos antes de "no es cierto" y cosas así
#7 No sé si te estoy entendiendo bien, en tal caso me parece que confundes términos: que sea "innato" no tiene nada que ver con que haya habido un "creador original de todas las cosas", eso te lo has inventado tú.
Tal y como yo lo veo, símplemente se obvia explicitar que los cerebros humanos estén predispuestos a desarrollar un lenguaje como consecuencia de decenas de miles de años de selección natural y evolución. Desde la perspectiva presente y en cuanto a lo que es relevante en lingüística, un bebé nace precableado para hablar. Los debates sobre intervenciones divinas anteriores sencillamente no aplican.
#1 Todos los bichos vivientes tienen habilidades innatas como dice #4.

Un cervatillo está programado para ponerse de pie poco después de nacer. Un bebé humano puede, perfectamente, estar programado para llamar mamá a su madre.

El simple hecho de que sólo los humanos hayan desarrollado el lenguaje en la tierra lleva a pensar que dicho lenguaje es "innato". Millones de años de evolución han llevado al cerebro humano a interiorizar el lenguaje. La idea de una meta-gramática predefinida en nuestras neuronas no me parece más descabellada que la existencia de unas neuronas que identifiquen los sonidos y otras que identifiquen los colores.
#1 Lo mismo he pensado yo. Es exactamente eso.
#16 O dicho de otro modo, que hay unas reglas subyacentes a todo idioma. Reglas que intuitivamente desciframos y aplicamos los humanos en etapas infantiles

Reglas que ha formalizado matemáticamente y que han demostrado su utilidad en múltiples ocasiones
#17 nadie ha formalizado matemáticamente las normas universales del lenguaje natural. Si lo hubiera hecho no habría necesidad de LLMs
#38 Digamos que se está muy muy cerca:

es.m.wikipedia.org/wiki/Jerarquía_de_Chomsky
#39 eso es una clasificación. Si hubiera esas normas podríamos hacer compiladores de español a “lenguaje natural universal” o traductores.

Sin embargo los mayores avances en traducción se han hecho siguiendo un enfoque opuesto al de Chomsky
#40 Hay traductores desde hace muuucho tiempo.

Y de donde sacas que los traductores no hacen uso de la gramática formal ??
#41 los traductores no basados en IA no tienen ni comparación con los basados en IA, ya no en LLMs, en ML y aprendizaje reforzado.

Ningún traductor competitivo hace uso de gramáticas codificadas porque eso es un callejón sin salida.

No hay forma de reducir el lenguaje natural a una gramática formal. Las observaciones que Chomsky hizo para indicar que si existe una gramática universal subyacente se están probando erróneas ahora mismo con los llm.

Los LLM, con un enfoque más cercano al…   » ver todo el comentario
#42 Que la gramática no esté codificada.no quiere decir que no exista y que no tenga unas reglas formales.
#43 si, estoy de acuerdo.

Sin embargo si partes de la premisa de que existe y tratas de simular el lenguaje con una máquina no llegas a ningún sitio. Si asumes que no existe y sigues un enfoque conductista si llegas a resultados.

Tampoco se puede demostrar que la tierra no es el centro del sistema solar, ya que todo movimiento es relativo al espectador, pero si partes de esa base explicar los movimientos de los planetas es extremadamente complejo (solo hay que ver los modelos que se manejaban justo antes de abandonar ese modelo). Con el sol en el centro el modelo se simplifica y permite poner cohetes en Marte.
#44 Hombre, establecer el centro de algo del que desconoces su extensión....

Para otra cosa, navaja de Occam. Lo más probable es que no lo sea.. o que todos los puntos del universo sean su centro
#45 pues si aplicas esa misma navaja de Occam al tema gramatical universal vs conductismo gana, por ahora, el conductismo.
#46 ???
No veo por qué
#47 porque usando el enfoque conductista tenemos LLMs que procesan y devuelven lenguaje natural y siguiendo las tesis de Chomsky no.

Siguiendo el modelo geocéntrico no se pueden predecir movimientos de cometas Per con el heliocentrico si
#36 Las LLM están entrenadas para encontrar la siguiente palabra más probable, de entre todas las que han visto. Lo que no van a hacer, precisamente, es inventar construcciones nuevas ni mucho menos intuir una estructura que no han visto antes. No funcionan como el cerebro humano.
#48 si que son capaces de generar frases que no están en sus datos de entrenamiento, ese es el punto justamente
#49 La clave es cómo las generan. Si fuesen capaces de hacer algo nuevo, de ser creativas, que es lo que dice Chomsky que hace el ser humano, estariamos hablando de inteligencia artificial fuerte. Y la de ahora es débil porque no crea nada, sólo Junta letras.
#52 no mezclemos cosas. Las IAs son capaces de generar respuestas coherentes que no son exclusivamente un remix de frases que aprendieron. Generan las frases desde la entrada recibida y no tienen frases de respuesta predeterminadas, la generan sobre la marcha.

Chomsky dice que tenemos un mecanismo innato, biológico, que ya tiene una estructura del lenguaje. Cuando nacemos lo que aprendemos es un mecanismo que “compila” la lengua existente al mecanismo biológico. Y dice que los niños no…   » ver todo el comentario
#53 Estás comparando una inteligencia débil con una fuerte. La ventaja que tienen las IA actuales con respecto a los humanos es que pueden hacer cosas que han aprendido mucho más rápido que un humano. Pero el avance es de la miniaturización. La teoría de lo que podían hacer ya existía en 1970. Es sólo que entonces no existía el hardware necesario.

De hecho, la teoría inicial de Chomsky es una crítica al postulado de Skinner de que a los humanos se les puede enseñar el lenguaje mediante condicionamiento operante. La crítica era valida entonces y lo sigue siendo ahora. La IA actual es débil. Incapaz de creatividad, así que meterla en la discusión es o no entender a Chomsky o no entender las IA actuales.
#53 Las LLM calculan cuál es la siguiente palabra más probable. No infieren ninguna gramática.
Chomsky multiplicó, multiplicó y multiplicó, obteniendo los resultados que le dió la gana, como siempre ocurre cuando te lias a multiplicar valores razonables de muchos factores.

La realidad: Los bebés humanos tienen la capacidad de deducir la gramática de un idioma a base de escucharlo mucho, sin necesidad para ello de entender lo que escuchan.
#2 Ha dicho Chomsky algo de "entender"??

Los analisis del lenguaje de Chomsky son básicos en la ciencia del lenguaje de hoy en día... Y en la informática .

Chomsky es simplemente un genio.
#6 En algunas cosas un genio, por supuesto, pero sigue siendo biologista e iusnaturalista a estas alturas.
Es curioso que uno de los pensadores que en sus reflexiones sociales apela al contexto, no lo tenga en cuenta en la adquisición del lenguaje.
Visto que las LLM son capaces de generar frases nuevas despues de haber sido entrenadas con sets de frases y mediante refuerzos ha sido un duro golpe para lo que quedaba en pie de las teorías de Chomsky
#9 Y eso por qué exactamente?
#11 en la noticia:

“ La teoría de Chomsky fue una respuesta directa a las teorías conductistas dominantes en su época. Los conductistas sostenían que la adquisición del lenguaje era el resultado de la imitación y el refuerzo, es decir, los niños aprendían a hablar imitando a los adultos y recibiendo refuerzos positivos o negativos en función de sus respuestas lingüísticas.

Chomsky argumentó que esta teoría no podía dar cuenta de la riqueza y la complejidad del lenguaje humano. Señaló que los niños producen oraciones que nunca han escuchado antes y que, por lo tanto, no pueden haber imitado.”
#9 las LLM son capaces de generar, pero no de entender. Cuando responden a una pregunta o petición responden con una respuesta que los humanos sí podemos leer y comprender. Y nos engañan porque por probabilidad suelen generar algo que puede interpretarse como una repuesta correcta, porque la respuesta está basada en contenido que sí han escrito humanos.

Bueno, que me enrollo. Si nos centramos en la representación interna del lenguaje y su comprensión, no veo por qué las LLM son un duro golpe para esta otra teoría. Es como comparar dos tecnologías que no tienen nada que ver (nuestros cerebros no son LLMs ni funcionan basados en ellas)
#18 y que mas da que no entiendan, no hablamos de eso ahora.

Por supuesto que las llm no funcionan como nuestro cerebro, ese el punto. No necesitan funcionar como nuestro cerebro porque nuestro cerebro no tiene una gramática universal dentro que es requisito para manejar el idioma, las llm aprenden de una manera similar (o más que similar, compatible) con las teorías conductistas opuestas a la de Chomsky
#37 sí que hablamos de eso, o al menos yo sí hablo de eso. Para mí el punto de la comprensión y representación interna es crítico en la discusión.

Nuestros perros y gatos son muy inteligentes y aun asi no consiguen hablar. No ya por no poder vocalizar sino con sistemas de apretar botones para palabras. Asocian palabras pero nunca las combinan en frases.

Los bebes humanos sin embargo siendo menos inteligentes que las mascotas (segun en qué cosas) consiguen hablar sin esfuerzo, al igual que…   » ver todo el comentario
#9 Parece que no tienes claro de qué va la investigación de Chomsky en materia de lenguaje. O bien no sabes cómo funcionan las IA generadoras de lenguaje. O las dos cosas al mismo tiempo.
#28 iluminame.

Las LLM son entrenadas en l línea de pensamiento de los conductistas y si son capaces de generar texto que no estaba en sus sets de entrenamiento y que es coherente. Nadie les ha enseñado una gramática universal ni una reglas básicas a priori.
Un judío de los buenos.
#12 no es nazisionista
xD xD xD xD xD

Huy sí, un golpe fortísimo, vamos

menéame