4  La revolución cognitiva

NotaResumen del capítulo

El capítulo examina la revolución cognitiva como proceso interdisciplinar extendido (1950–2025) que transformó las ciencias de la mente. Parte de la convergencia entre psicología, lingüística, computación y neurociencia para desmontar la narrativa simplificada del “reemplazo del conductismo”, y reconstruye las sucesivas ampliaciones del paradigma: del computacionalismo clásico a la neurociencia cognitiva, de la reivindicación del componente emocional a la cognición corporizada, y de la convergencia con la biología evolutiva hasta los retos epistemológicos que plantean los sistemas de IA generativa en el siglo XXI. Cierra con un marco integrador (cognición 4E) y un análisis de las implicaciones del giro artificial para la epistemología contemporánea.

4.1 Giro metodológico y periodos de referencia

El término revolución cognitiva describe el giro teórico-metodológico significativo que se produjo en Psicología durante la segunda mitad del siglo XX, cuando el enfoque conductista dominante quedó desplazado por un marco de investigación centrado en el estudio de los procesos mentales internos, con nuevas herramientas y metodologías proporcionadas por disciplinas emergentes.

Precisando algo más su origen histórico, esta “revolución” se inicia a partir de 1950 y termina consolidándose en las tres décadas siguientes. Autores como George Miller, Noam Chomsky, Jerome Bruner y Herbert Simon cuestionaron aspectos y limitaciones de la ortodoxia conductista y reivindicaron el estudio científico de la mente con nuevas herramientas y metodologías (Miller, 2003).

Al psicólogo estadounidense George Armitage Miller se le atribuye un papel clave en el origen de la psicología cognitiva y, más ampliamente, de la ciencia cognitiva y de la psicolingüística. Las técnicas experimentales y métodos matemáticos que elaboraron Miller, Chomsky y otros investigadores interesados en el habla y el lenguaje permitieron alinear nuevos protocolos de investigación en psicología con la teoría de la información, la teoría de la computación y la lingüística (Chomsky, 1957; Miller, 1951).

Miller menciona al menos seis disciplinas cuyas aportaciones hicieron posible la revolución cognitiva: psicología, lingüística, computación, neurociencias, antropología y filosofía, siendo centrales las tres primeras. Sus diferentes pautas de evolución y concreción institucional han consolidado maneras peculiares de entender la cognición y la relevancia de ciertos problemas, probablemente más por accidente histórico que por exigencias epistémicas. Lo interesante fue la convicción compartida de que en todas se había progresado lo bastante como para reconocer la interdependencia mutua, si se quería avanzar en la solución a problemas cuya complejidad excedía las posibilidades de disciplinas tradicionales.

La perspectiva adquirida sobre el desarrollo de la inteligencia artificial permite enfatizar el potencial que tuvo en estas décadas iniciales (1950–1980) el recurso a los lenguajes artificiales como modelos del pensamiento humano, en paralelo a los primeros trabajos en programación de ordenadores. Un ámbito emergente de conocimiento teórico y aplicado hizo verosímil el intento de compatibilizar aportaciones en las tecnologías de computación con el estudio de los procesos mentales que el conductismo había soslayado (Smith & Green, 1980).

La lógica de la máquina expresada a través de un lenguaje artificial obligaba a los programadores a «pensar» en los términos de esta, «ajustándose» a la recursividad inherente de los bucles del programa. El modo de abordar ciertos problemas por parte de programadores expertos podía interpretarse como una externalización de las representaciones mentales —comúnmente ilustrada mediante diagramas de flujo— donde la solución requiere partir de una planificación metódica ajustada a la lógica de la máquina. Esto se aproximaba al objetivo de las investigaciones sobre los procesos humanos de verificación de hipótesis y exploración de patrones (Restle, 1970; Simon & Kotovsky, 1963; Wiener, 1948).

El foco de atención apuntaba a la lógica subyacente a los procesos de razonamiento humano, en términos adecuados a su utilización en la máquina. Este enfoque dio lugar a numerosos trabajos de psicología cognitiva referidos al razonamiento proposicional, la categorización silogística y el tipo de abstracción que subyace a las representaciones mentales útiles para resolver problemas de dificultad variable (Heinonen et al., 2025; Mayer, 1976).

No obstante, las formas diferentes de representación entre humanos y máquinas sugerían más un procedimiento metodológico que una equivalencia sustantiva. Lo habitual en los seres humanos que no se dedican a la programación es involucrar en sus procesos cognitivos elementos de naturaleza no estrictamente lógica ni racional (Mayer, 1983; McCarthy & Hayes, 1969).

4.2 ¿Supuso la revolución cognitiva un cambio de paradigma?

Varias décadas de coexistencia entre conductismo y psicología cognitiva hacen plausible la interpretación integradora y continuista del periodo de investigaciones en psicología que abarca desde mediados de los años cincuenta hasta la década de los ochenta, por más que una parte de la comunidad investigadora aplicara quizá un tanto a la ligera los conceptos kuhnianos de paradigma y cambio revolucionario para justificar o promover ciertas prácticas y creencias (Primero & Barrera, 2020).

Los matices que aporta una perspectiva histórica amplia cuestionan tanto la idea de enfoques hegemónicos como las simplificaciones acerca de reemplazos e inconmensurabilidad radical, complicando los indicios para considerar obsoletos algunos estilos de trabajo en psicología. Las discrepancias metodológicas nunca fueron tan radicales como para impedir el entendimiento y la comparación de resultados —es decir, se trataría de un caso de inconmensurabilidad local, que no supone la imposibilidad de traducir los términos de una teoría en el vocabulario de otra (Kuhn, 1982).

Otros autores consideran desafortunado hablar de revolución cognitiva, puesto que implica sobredimensionar la idea de un reemplazo total del conductismo. Patrick Friman descarta que el conductismo haya sido refutado en el sentido popperiano y que fracasara como programa de investigación por acumulación de anomalías; más que el fracaso de sus explicaciones, fueron cuestiones sociológicas las que decantaron el interés de los investigadores por otros enfoques (Friman et al., 1993).

Hobbs y Chiesa aluden expresamente al “mito” de la revolución cognitiva, argumentando que raramente se ha podido constatar un paradigma hegemónico único en psicología. Al menos desde los años 60 en adelante, lo razonable es reconocer la coexistencia de múltiples enfoques, en muchos casos con supuestos de fondo compartidos. El recurso normalizado a la terapia cognitivo-conductual para el tratamiento de diversos síndromes y trastornos psicológicos sugiere una integración eficaz de las teorías conductistas del aprendizaje con las cognitivas (British Psychological Society, 2024; Hobbs & Chiesa, 2011).

Cabe caracterizar el proceso como una pérdida progresiva de interés de la comunidad investigadora en contribuciones que dejaban de lado ciertos temas y metodologías, cuyo reflejo puede rastrearse en las redes de citas estudiadas mediante análisis bibliométricos (Engelen et al., 2022). Aunque en la década de los ochenta continuaron apareciendo obras de autores afines al conductismo, un sector amplio, dinámico e innovador compartía preferencias temáticas propias de lo que Howard Gardner denominó “la nueva ciencia de la mente”. Pero desmitificar su aparición, incorporando los detalles de un proceso interdisciplinar más complejo y extendido en el tiempo, dista mucho del enfoque negacionista (Gardner, 1985; Leahey, 1991; Pérez Acosta et al., 2002; Schlinger, 2009).

4.3 Hitos principales de la revolución cognitiva

El fin del conductismo como enfoque heurístico preferente se asocia con la aceptación de la teoría sintáctica como una mejor explicación de los procesos cognitivos responsables de los aspectos estructurales del lenguaje humano. Para un número creciente de investigadores —Peter Wason, Nelson Goodman y Noam Chomsky, entre otros—, las reglas gramaticales debían interpretarse como hipótesis mentalistas sobre los procesos cognitivos responsables de los comportamientos verbales observables. Miller y Chomsky compartían la insatisfacción de entender la psicología meramente como ciencia del comportamiento (Miller, 2003).

Si las explicaciones en términos mentalistas resultaban incómodas, el recurso a la cognición parecía ahuyentar la desconfianza entre quienes seguían interesados en la psicología experimental. El estudio de la cognición humana daba cobertura tanto a la investigación social como a diversas líneas de trabajo experimental sobre la mente (Bruner, 1986).

El simposio de 1956 en el MIT sobre inteligencia artificial (el Dartmouth Summer Research Project) se considera el evento fundacional en la interpretación de la mente como entidad procesadora de información. El proyecto fue presentado por John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon:

Proponemos que se lleve a cabo un estudio de inteligencia artificial de dos meses de duración y con 10 personas durante el verano de 1956 en el Dartmouth College. El estudio se basará en la conjetura de que todo aspecto del aprendizaje o cualquier otra característica de la inteligencia puede, en principio, describirse con tanta precisión que una máquina puede simularlo. (McCarthy et al., 1955; Solomonoff, 2023)

El interés de este nuevo enfoque quedó reforzado con las críticas de Chomsky al conductismo de Skinner y el recurso al modelo computacional como estrategia metodológica para simular procesos mentales (Chomsky, 1959).

El paradigma cognitivo adquiere impulso entre 1960 y 1970, diversificándose en múltiples campos bajo el rótulo de ciencias cognitivas. En 1976, la Fundación Sloan patrocinó la creación de programas formales en Ciencias Cognitivas; en 1977 se fundó la Cognitive Science Society y en 1979 la revista Cognitive Science (Thagard, 2023).

Hacia finales de los 70 ya existían subcampos mixtos como la psicolingüística, la lingüística computacional, la IA inspirada en procesos cognitivos y la neurociencia integrativa. Quedó establecido el marco teórico que dominaría las décadas siguientes: la mente entendida como sistema de procesamiento de información, estudiado desde múltiples niveles (Cosmides & Tooby, 1992; J. A. Fodor, 1983; Newell & Simon, 1976).

La lingüística computacional tomó forma en la década de 1950, con el marco establecido por Turing para el procesamiento simbólico (Turing, 1950). Tras el informe ALPAC (1966) —véase el estudio de caso más abajo—, se produjo un giro hacia enfoques más realistas, con pasos significativos en la aplicación de técnicas de IA al análisis lingüístico (Jurafsky & Martin, 2009). El desarrollo posterior de los modelos de aprendizaje profundo transformó el campo, permitiendo avances espectaculares en traducción automática y sistemas conversacionales (Aggarwal, 2023; Costa-jussà, 2016; Koehn, 2020; Zhang & Zong, 2015).

En 1966, el comité ALPAC (Automatic Language Processing Advisory Committee) presentó un informe decisivo en la historia de la traducción automática. El documento cuestionaba la viabilidad económica de los sistemas de traducción automática (TA) existentes, limitándose a considerar las necesidades gubernamentales de Estados Unidos, principalmente la traducción del ruso al inglés. Los documentos procesados requerían largos periodos de post-edición (hasta 109 días), frente a los 15 días de las traducciones humanas.

  1. Foco limitado: ALPAC ignoró el creciente interés comercial y global por la TA.
  2. Desestimación de avances: Subestimó el potencial de la TA como herramienta independiente.
  3. Inadecuada previsión tecnológica: Declararon que no había perspectivas de desarrollo útil, sin prever las mejoras que producirían la IA y el aprendizaje automático.

Las conclusiones llevaron al estancamiento de la financiación de la investigación en TA en Estados Unidos durante dos décadas. Este caso ilustra cómo un informe técnicamente sólido en su momento puede producir consecuencias epistémicas negativas cuando carece de visión prospectiva sobre el potencial de líneas de investigación emergentes —un fenómeno recurrente en la evaluación de políticas científicas.

4.4 Computacionalismo y neurociencia cognitiva

Las bases conceptuales de la psicología cognitiva como disciplina emergente quedaron establecidas con la publicación en 1967 de Cognitive Psychology de Ulric Neisser, quien define la cognición como «todos los procesos mediante los cuales la entrada sensorial es transformada, reducida, elaborada, almacenada, recuperada y utilizada» (Neisser, 1967). Suponía focalizar la investigación en el procesamiento mental interno y reforzaba la necesidad de estudiar diversos niveles, fomentando la integración de disciplinas como la IA, la lingüística, la neurociencia y la filosofía.

Las alusiones a transformar y almacenar denotan una visión mecanicista de la mente como sistema de procesamiento de información. Este enfoque impulsó el desarrollo de modelos computacionales para simular procesos mentales, influyendo tanto en la psicología cognitiva como en la IA (Baars, 1986).

En la década de 1980 se consolida la interdependencia entre psicología cognitiva y neurobiología bajo la denominación de neurociencia cognitiva. El computacionalismo —una teoría funcionalista en filosofía de la mente— tenía ya un extenso recorrido como marco que entendía la mente como sistema de tratamiento de información y el pensamiento como cómputo. Los desarrollos se produjeron sobre todo por las aportaciones de Hilary Putnam y Jerry Fodor (J. Fodor, 1975; Putnam, 1960; Pylyshyn, 1986; Reeke & Sporns, 1993).

En la perspectiva funcionalista de Putnam los estados mentales son estados funcionales, y cualquier sistema puede tener una mente si su configuración funcional es la adecuada. El comportamiento casi siempre resulta de la interacción entre distintos estados mentales, y cada estado puede ser realizado por diversos sistemas físicos (Putnam, 1967).

Aunque «computable» es sinónimo de calculable, calculabilidad refiere aquí a las posibles transformaciones de una señal de entrada en una de salida mediante un algoritmo bien definido. David Marr distinguió tres niveles de descripción de los procesos cognitivos: el nivel computacional (qué problema se resuelve), el nivel algorítmico (qué algoritmo se utiliza) y el nivel implementacional (cómo se implementa físicamente en el cerebro) (Marr, 1982).

La teoría computacional de la mente ha recibido críticas sustantivas. Fodor considera que difícilmente podría explicar la cognición de naturaleza abductiva y global, dependiente de creencias de fondo (J. Fodor, 2000). También Putnam criticó el computacionalismo apoyándose en el argumento de la habitación china de John Searle (Putnam, 1975, 1988; Searle, 1980).

4.5 Conexionismo, cerebro dividido y la noción de intérprete

A finales de los 80 la neurociencia disponía de nuevas herramientas para cartografiar los procesos mentales, en particular gracias a la resonancia magnética funcional (fMRI), que hizo posible observar el cerebro «en vivo» mientras realiza tareas cognitivas (Raichle, 2003).

Michael Gazzaniga desarrolló estudios en pacientes con callosotomía (cerebro dividido), demostrando que cada hemisferio contribuía de manera diferente a la cognición. Diversos hallazgos hicieron verosímil la noción de intérprete del hemisferio izquierdo —el mecanismo cerebral que construye narrativas para dar coherencia a nuestras acciones— (Gazzaniga, 2015; Roser & Gazzaniga, 2007).

Los hallazgos dieron plausibilidad a múltiples extrapolaciones sobre cómo el cerebro articula la experiencia consciente. La evidencia reforzó intuiciones previas de Bernard Baars, cuya teoría sobre el espacio de trabajo global sugiere una función ejecutiva que presta atención selectiva a un número incalculable de procesos compitiendo por ser escuchados (Baars, 1997; Gazzaniga, 2012; Wolman, 2012).

El conexionismo de segunda generación y las redes neuronales irrumpen a mediados de los ochenta como modelos alternativos. En Parallel Distributed Processing (1986), Rumelhart y McClelland explicaron fenómenos cognitivos mediante redes neuronales artificiales con procesamiento masivo en paralelo: el conocimiento no como algo localizado, sino como resultado de conexiones distribuidas por la red (Rumelhart et al., 1986).

El conexionismo expandió la influencia interdisciplinar de la neurociencia en computación, lingüística e IA. Las técnicas de deep learning, cruciales en el entrenamiento de los modelos actuales de IA, descienden directamente de los modelos conexionistas (Chen & Yadollahpour, 2024; G. F. Marcus, 2003). Es importante señalar, no obstante, que la arquitectura transformer (Vaswani et al., 2017) —base de los LLM actuales— introduce un mecanismo de atención que difiere sustancialmente de las redes conexionistas clásicas, operando mediante pesos de atención aprendidos sobre secuencias completas de tokens en lugar de activaciones distribuidas locales (Barrow, 1996).

4.6 La década del cerebro y las emociones en la cognición

En los años noventa el estudio del cerebro alcanzó un sólido respaldo institucional, con fuertes inversiones en investigación neurocientífica. Se aceleró la convergencia de disciplinas en el desarrollo de técnicas de mapeo cerebral para avanzar en el estudio de las redes neuronales. A finales de los 90 se hablaba ya de una segunda revolución cognitiva, con la incorporación de la magnetoencefalografía, la estimulación magnética transcraneal y el análisis computacional de grandes bases de datos cognitivos (Gazzaniga et al., 2018; Glimcher, 2013; Lende & Downey, 2012).

Las aportaciones de Antonio Damasio y otros cuestionaban la separación rígida entre emoción y cognición, demostrando que la toma de decisiones racionales depende críticamente de respuestas emocionales viscerales (marcadores somáticos) que señalizan el valor de las opciones. En El error de Descartes (1994), Damasio argumentó que razón y emoción operan conjuntamente para producir un comportamiento adaptativo (A. R. Damasio, 1994; Overskeid, 2021).

La hipótesis del marcador somático postula que las emociones, codificadas como estados corporales, guían la toma de decisiones al «marcar» ciertas opciones como positivas o negativas antes de que el razonamiento deliberativo entre en juego. Los pacientes con lesiones en la corteza prefrontal ventromedial —que interrumpen la conexión entre procesamiento emocional y deliberación— muestran capacidades intelectuales preservadas pero una incapacidad sistemática para tomar decisiones ventajosas en contextos de incertidumbre, lo que evidencia el papel constitutivo —no meramente auxiliar— de las respuestas emocionales en la racionalidad práctica (A. Damasio, 2021).

Jaak Panksepp y otros investigadores mapearon circuitos emocionales básicos en el cerebro de mamíferos, constatando la influencia de estados emocionales en la atención, la memoria y la toma de decisiones. Panksepp identificó siete sistemas emocionales primarios (SEEKING, RAGE, FEAR, LUST, CARE, PANIC/GRIEF y PLAY) anclados en circuitos subcorticales conservados evolutivamente (Panksepp, 1998).

Esta línea de investigación se desarrolló en convergencia con los trabajos de Daniel Kahneman y Amos Tversky sobre sesgos cognitivos y heurísticas de decisión. Su distinción entre Sistema 1 (rápido, intuitivo, emocional) y Sistema 2 (lento, deliberativo, analítico) proporcionó un marco integrador que conectaba la neurociencia afectiva de Damasio con la psicología experimental del juicio y la decisión (Kahneman, 2011; Kahneman & Tversky, 1979).

Este enfoque rápidamente captó el interés de economistas —por la posibilidad de explicar decisiones irracionales mediante sesgos cognitivo-emocionales— y de expertos en ciencia política. Joseph LeDoux profundizó en las vías neurales del miedo, mostrando que las respuestas amigdalares pueden preceder y moldear el procesamiento cortical (LeDoux, 2015). Lisa Feldman Barrett, desde la teoría de la emoción construida, ha cuestionado incluso la noción de circuitos emocionales discretos, proponiendo que las emociones son categorías conceptuales activamente construidas por el cerebro a partir de señales interoceptivas y contextuales (Barrett, 2017).

El cambio de foco hacia el componente emocional puso de manifiesto el sesgo que una perspectiva de arriba hacia abajo (cortical hacia subcortical) dominante había introducido en el estudio de la cognición. Las redes inferiores del cerebro resultan fundamentales para la construcción de los aspectos superiores de procesamiento de información y las posibilidades de control afectivo y motivacional (Cromwell & Panksepp, 2011).

4.7 Consiliencia y cognición distribuida

Las limitaciones del modelo cognitivista clásico resultaban evidentes para muchos investigadores al inicio del siglo XXI. En su valoración personal de la revolución cognitiva publicada en 2003, G. Miller expresaba con cierta nostalgia su apego al modelo clásico:

Algunos veteranos de aquellos días se preguntan si el programa tuvo éxito. Yo prefiero hablar de ciencias cognitivas, en plural. Pero el sueño original de una ciencia unificada que descubriera las capacidades de representación y computación de la mente humana sigue teniendo un atractivo que no puedo resistir. (Miller, 2003, p. 144)

La ciencia cognitiva resultó una pieza central en las perspectivas integradoras de otros autores como el biólogo Edward O. Wilson, quien en Consilience (1998) propuso conectar las explicaciones que permitían establecer el puente entre las ciencias del cerebro, las ciencias del comportamiento y las ciencias sociales, sobre la base de un lenguaje común (Wilson, 1998).

En clave epistemológica, Wilson reformuló la cuestión de la consciencia incorporando aportaciones del modelo conexionista:

«La consciencia consiste en el procesamiento en paralelo de un enorme número de redes de codificación. ¿Quién o qué en el interior del cerebro supervisa toda esta actividad? Nadie. Nada. Los escenarios no son vistos por alguna otra parte del cerebro. Simplemente, son. La consciencia es el mundo virtual compuesto por los escenarios.» (Consilience, 1999: 162–163)

Esta evolución del interés multidisciplinar significó un alejamiento de visiones reduccionistas: ni la psicología podía explicar todo el comportamiento ignorando al cerebro, ni la biología podía explicar la mente sin conceptos de niveles superiores. Se dieron las condiciones para una aproximación más amplia donde mente, cerebro, cuerpo y entorno debían estudiarse en interacción dinámica (Quirós et al., 2024).

La revolución iniciada a mediados de siglo XX sentó las bases para una secuencia de revoluciones secundarias —conexión con la neurociencia, integración del sustrato emocional, incorporación de los estudios evolutivos, culturales y en filosofía de la mente— que ampliaron extraordinariamente el ecosistema interdisciplinar. Las ciencias cognitivas abarcan hoy desde el nivel molecular (genética del comportamiento) hasta el social (dinámicas cognitivas en grupos), con metodologías que van de la modelación computacional a la etnografía (Araya-Véliz et al., 2017; Gazzaniga & Mangun, 2014).

4.8 Convergencia con la biología evolutiva y la antropología cognitiva

Por su naturaleza transversal, la ciencia cognitiva resultó una pieza central en las perspectivas integradoras de autores como Wilson, quien en Consilience propuso conectar las ciencias del cerebro con las del comportamiento y las ciencias sociales. Wilson incorpora aportaciones del modelo conexionista pero intenta superar las limitaciones del enfoque clásico:

«La creencia en la unidad intrínseca del conocimiento cabalga en último término sobre la hipótesis de que cualquier proceso mental tiene un fundamento físico y es consistente con las ciencias naturales. La mente es sumamente importante para el programa de consiliencia: todo lo que conocemos y podremos llegar a conocer acerca de la existencia se crea allí.» (Consilience —trad. esp.—: 143) (Wilson, 1998)

La intersección de estas disciplinas con la antropología generó la antropología cognitiva como subcampo formal, dedicado a investigar cómo los procesos cognitivos universales interactúan con la diversidad cultural para producir sistemas de clasificación, creencias y prácticas sociales. Los debates sobre el peso relativo de lo innato frente a lo adquirido en la cognición humana encontraron en la psicología evolucionista un campo de experimentación especialmente fértil y controvertido (Kronenfeld et al., 2011).

Wilson ya había apostado desde la sociobiología por un puente entre biología y ciencias sociales (Wilson, 1975), lo que desencadenó una de las controversias científicas más intensas del siglo XX. La psicología evolucionista —representada por Barkow, Cosmides y Tooby— radicalizó la propuesta, postulando que la mente humana es un conjunto de módulos especializados, diseñados por la selección natural para resolver problemas adaptativos recurrentes en el entorno ancestral (Barkow et al., 1992).

Esta visión encontró resistencias tanto desde la biología —Stephen Jay Gould la calificó de «fundamentalismo darwiniano»— como desde perspectivas más cautelosas sobre la aplicabilidad de modelos adaptativos a la cognición (Gould, 1997; Lewontin, 1998). La arqueología cognitiva y los enfoques culturalistas han contribuido a matizar las posiciones más extremas, mostrando que la evolución cognitiva humana es un proceso donde factores genéticos, ecológicos y culturales interactúan de forma compleja (Overmann & Coolidge, 2019; Pagel, 2012).

4.9 El papel de la cultura en la cognición

Varios experimentos de Michael Tomasello mostraron que mientras los chimpancés tienen habilidades notables para la resolución de problemas físicos, los niños humanos pequeños los superan ampliamente en tareas de cognición social. La hipótesis de la inteligencia cultural enfatizaba el papel de ciertas habilidades especializadas de cognición social, determinantes de la mayor ventaja cognitiva general de los humanos (Herrmann et al., 2007).

En The Cultural Origins of Human Cognition (1999), Tomasello descarta el papel de nuevas mutaciones cerebrales en la explicación del «asombroso conjunto de habilidades cognitivas» humanas. Su aparición sería más bien un efecto de modos únicos de transmisión cultural acumulativa, sustentados en la imitación pormenorizada, la enseñanza activa y la comunicación referencial. Este «efecto de trinquete» cultural —observado en cierto grado en animales no humanos (Caicedo, 2016)— hizo posible la acumulación de conocimientos con cada generación (Tomasello et al., 2005; Wolf & Tomasello, 2023).

Tomasello consideró que la intencionalidad compartida es la capacidad distintiva de los humanos frente a otros primates: la aptitud para participar en actividades conjuntas con metas y atenciones compartidas, lo que resulta especialmente útil a la hora de colaborar y de enseñar o aprender intencionalmente (Tomasello, 2016, 2019).

A poco de nacer, los bebés captan una intencionalidad compartida con los cuidadores, indicativa según Tomasello de un dispositivo innato. Tomasello y otros sugieren tres niveles de comprensión de la acción intencional antes de los dos años: (1) comprensión de los otros como agentes animados (~6 meses); (2) comprensión de las acciones dirigidas a metas (~9 meses); y (3) comprensión de que los agentes eligen planes de acción (~12–14 meses). Las interpretaciones difieren según se hagan desde la etología (y el neonativismo) o la ciencia del desarrollo (Müller & Giesbrecht, 2008; Velásquez et al., 2023).

Para Tomasello, este primer paso de los infantes en la comprensión de las personas como agentes intencionales facilita el aprendizaje cultural y la intencionalidad compartida, mediante el uso de símbolos compartidos cuya versatilidad admite una dimensión convencional, normativa y reflexiva. Sobre los 4 años se constata un desarrollo muy notable que les faculta para tomar en cuenta las perspectivas de otras personas e internalizar valores compartidos por su comunidad (Brandone, 2015; Tomasello & Rakoczy, 2007).

En paralelo, otras investigaciones aportaban resultados que obligaban a redefinir la cognición al margen de la especie humana: memoria episódica en aves, uso de herramientas en primates y aves, transmisión de tradiciones entre cetáceos y rudimentos de teoría de la mente en cuervos y chimpancés (Clayton & Dickinson, 1998; Griffin, 2001; Hunt & Gray, 2004; Rendell & Whitehead, 2001).

4.10 Etología y epistemología evolutiva

Modelos teóricos aplicados al estudio de las prácticas culturales como entidades sujetas a procesos de evolución darwiniana fueron propuestos por Cavalli-Sforza y Feldman (1981) y Boyd y Richerson (1985), quienes plantearon que la cultura puede ser vista como un sistema hereditario paralelo al genético: las ideas se replican a través del aprendizaje social y sufren variaciones y selecciones (Boyd & Richerson, 1985; Cavalli-Sforza & Feldman, 1981).

Boyd y Richerson estudiaron varias formas de transmisión cultural: vertical (de padres a hijos), horizontal (entre individuos de la misma generación) y oblicua (de una generación mayor a una menor). La selección natural pudo favorecer ciertos modos de transmisión que aumentan la adaptabilidad, como la adopción de pautas de aprendizaje conformista (seguir la conducta mayoritaria). Comparada con la evolución genética, la evolución cultural puede ser mucho más rápida y acumulativa (Haselton et al., 2015; Henrich, 2015).

Chris Buskes argumenta que la evolución cultural, aunque más lamarckiana y direccional que la biológica, se ajusta a los requisitos de un proceso darwiniano: variación, herencia y selección diferencial. Destaca la importancia del efecto asociado con la construcción de nicho: los humanos modificamos nuestro entorno a través de la cultura, y esos entornos a su vez cambian las presiones selectivas sobre nosotros (Buskes, 2013, 2015).

La epistemología evolucionista que propone Buskes tiene implicaciones notables. Adopta una especie de realismo evolutivo: las capacidades perceptivas y cognitivas evolucionaron para detectar aspectos relevantes del mundo, aunque de manera incompleta y filtrada por necesidades adaptativas:

«Las formas cognitivas innatas tampoco son inmutables. Las intuiciones a priori relativas al espacio, el tiempo y la causalidad son, según Lorenz, solo “hipótesis de trabajo”, únicamente fiables dentro de un determinado nicho cognitivo. Un nicho cognitivo es un determinado segmento del mundo objetivo en el que se ha adaptado el aparato cognitivo de una especie biológica durante la evolución. Fuera de este ámbito familiar, las “hipótesis de trabajo” dejarán pronto de ser válidas.» (Buskes, 2009, pp. 283-284)

Si la evolución biológica ocurre mediante variaciones genéticas aleatorias y selección natural, la evolución del conocimiento involucra variaciones conceptuales parcialmente dirigidas y procesos de selección basados en criterios epistémicos como precisión predictiva, poder explicativo o consistencia lógica. Nuestra capacidad para la crítica racional y el filtro escéptico suponen un despegue evolutivo que permite superar parcialmente las limitaciones cognitivas innatas (Buskes, 2013).

Evitando tanto el reduccionismo biológico como el constructivismo radical, Buskes enfatiza la dimensión social del conocimiento. La cognición humana se desarrolla en contextos sociales y culturales que amplifican las capacidades epistémicas individuales, en línea con desarrollos sobre cognición distribuida y epistemología social (Goldman & Blanchard, 2016; Hutchins, 1996).

Asumir que los mecanismos cognitivos fueron afinados por selección natural para lidiar con el entorno ancestral permite entender la propensión a detectar rápidamente agentes animados, pero también el riesgo de operar con sesgos sistemáticos —heurísticas que sobrestiman ciertas amenazas— como lastre inevitable de los atajos evolutivos. Los ideales epistémicos de objetividad y verdad quedan lejos del propósito de una mente evolucionada, cuyas facultades han sido producto de la selección para la supervivencia (Plantinga, 1993).

No obstante, un diseño biológico solo resulta efectivo si pone en funcionamiento habilidades que favorecen un ajuste razonable al entorno. Como señala Steven Pinker, los sesgos de la mente no han impedido el desarrollo del razonamiento abstracto y del pensamiento científico, sin duda las herramientas más potentes para la extensión cultural de sus capacidades (Pinker, 1997, 2021).

Etólogos como Lorenz y autores contemporáneos (Kevin Laland, Cecilia Heyes) destacan la importancia de introducir el componente cultural en la psicología evolucionista, dado el papel de ciertos gadgets cognitivos en el desarrollo de facultades humanas como la lectura, resultado principalmente de la transmisión cultural más que de módulos innatos (Heyes, 2018; Laland et al., 2000; Smaldino, 2014).

En 2024 se publicó el caso de Aissam, un niño con sordera congénita causada por una mutación en el gen otof que codifica la otorfelina —una proteína de las células que transmiten el sonido a través del líquido coclear—. No estaba indicada la opción de implante coclear, y la estimulación del nervio auditivo tampoco era viable.

La intervención con células modificadas genéticamente fue de bajo riesgo (apenas dos horas). La recuperación de audición fue total en las frecuencias agudas, aunque incompleta para las frecuencias graves. Se mencionan otros estudios en curso para adelantar el tratamiento a edades más tempranas.

El caso ilustra la importancia de los periodos críticos en la especialización de áreas cerebrales para el desarrollo del lenguaje. Después de los tres primeros años de vida sin conexión entre oído y cerebro, las vías auditivas no se desarrollan adecuadamente: el córtex dedica esos recursos a otras funciones. Aissam tendrá entrada auditiva, pero si la conexión cóclea-cerebro no ha sido «trabajada» y no hay espacio cortical dedicado a la audición, las mejoras serán parciales.

  1. ¿Quién, aparte de la familia y del equipo médico, debería intervenir en el proceso de decisión terapéutica?
  2. ¿Sería relevante un criterio de la comunidad de personas sordas desaconsejando el tratamiento?
  3. ¿Compensan las mejoras parciales obtenidas los inconvenientes asociados a la intervención tardía?
  4. ¿Debería financiar la Seguridad Social tratamientos de este tipo?
  5. ¿Qué indica el caso sobre las bases neurocognitivas del lenguaje y la plasticidad cerebral?

4.11 Inteligencia artificial, deep learning y convergencia con la neurociencia

En la última década, la convergencia entre ciencias de la computación, neurobiología y psicología se ha acelerado gracias a las aplicaciones de las redes neuronales profundas en la investigación neurocientífica. Esta convergencia refleja la diversificación del paradigma cognitivo a partir de los ochenta, y ha producido avances notables en la comprensión de la visión y otras funciones cerebrales, induciendo mejoras en teorías de la representación y algoritmos más eficientes (Chen & Yadollahpour, 2024).

4.11.1 De los modelos conexionistas a la arquitectura transformer

La trayectoria que conecta los modelos conexionistas de Rumelhart y McClelland (1986) con los sistemas actuales de IA generativa no es lineal, pero sí reconocible. Los avances en deep learning —retropropagación del error en redes profundas, redes convolucionales para procesamiento visual, redes recurrentes para secuencias temporales— descienden directamente de los modelos conexionistas, aunque la arquitectura transformer introducida por Vaswani y colaboradores en 2017 supuso un salto cualitativo: el mecanismo de atención permite procesar relaciones a larga distancia en secuencias de datos sin las limitaciones de las redes recurrentes, lo que ha sido determinante para el desarrollo de los large language models (LLM) (Vaswani et al., 2017; Wei et al., 2022).

Las aplicaciones en diversos campos han hecho posible avances notables: AlphaFold2 resolvió en 2020 el problema del plegamiento de proteínas con una precisión comparable a la de los métodos experimentales, un desafío que había resistido medio siglo de esfuerzos computacionales (Callaway, 2020; Yang et al., 2023). En 2023, GPT-4 y modelos análogos alcanzaron o superaron el rendimiento humano en numerosos bancos de pruebas estandarizados, desde exámenes médicos hasta evaluaciones jurídicas (Bubeck et al., 2023; Kiela et al., 2023).

4.11.2 Implicaciones epistemológicas: opacidad y explicabilidad

Sin embargo, el éxito empírico de estos modelos plantea problemas epistemológicos profundos. Gary Marcus ha señalado reiteradamente que el rendimiento impresionante en benchmarks no equivale a comprensión: los LLM carecen de modelos causales del mundo y son vulnerables a errores sistemáticos que un agente con comprensión genuina evitaría (G. Marcus, 2024). Jérémie Sublime advierte sobre el retorno de pseudociencias en IA —correlaciones espurias tratadas como explicaciones, sesgos de los datos de entrenamiento reproducidos como «conocimiento»— que repiten errores ya identificados en la estadística clásica (Sublime, 2024).

La cuestión de la explicabilidad (XAI, eXplainable AI) se ha convertido en un problema epistémico de primer orden: si un sistema produce diagnósticos psiquiátricos a partir de neuroimágenes pero no podemos reconstruir las razones de su clasificación, ¿en qué sentido constituye conocimiento? Los estudios que han evaluado el riesgo de sesgo en modelos de IA aplicados al diagnóstico psiquiátrico revelan deficiencias metodológicas preocupantes y reproducción de sesgos sociodemográficos preexistentes en los datos de entrenamiento (Chen et al., 2023; Roessner et al., 2021).

Iris van Rooij y colaboradores argumentan que la IA debe recuperarse como herramienta teórica para la ciencia cognitiva —generando modelos computacionales que pongan a prueba hipótesis sobre la cognición— en lugar de confundirse con la cognición misma. Esta distinción entre IA como modelo y como agente epistémico es crucial para la evaluación epistemológica de sus aportaciones (Van Rooij et al., 2024).

El plegamiento de proteínas —predecir la estructura tridimensional de una proteína a partir de su secuencia de aminoácidos— era uno de los grandes desafíos abiertos de la biología molecular desde que Christian Anfinsen postuló en 1961 que la estructura está determinada por la secuencia. Durante 50 años, los métodos computacionales produjeron resultados limitados.

En diciembre de 2020, AlphaFold2 obtuvo una puntuación media de 92,4 GDT (sobre 100) en la competición CASP14, superando ampliamente a todos los métodos anteriores. En 2022, DeepMind publicó las estructuras predichas de prácticamente todas las proteínas conocidas (~200 millones). AlphaFold3 (2024) amplió la predicción a complejos moleculares que incluyen ADN, ARN y ligandos.

El caso ilustra varias tensiones epistémicas: (a) el modelo funciona extraordinariamente bien sin explicar por qué una proteína adopta una estructura determinada —es un predictor, no una teoría—; (b) ha acelerado la investigación biológica al proporcionar hipótesis estructurales rápidas, pero requiere validación experimental; (c) plantea la cuestión de si un sistema que «resuelve» un problema sin comprenderlo constituye un avance epistémico o meramente instrumental.

La aplicación de modelos de IA al diagnóstico psiquiátrico basado en neuroimágenes se ha expandido rápidamente. Un metaanálisis publicado en JAMA Network Open (Chen et al., 2023) evaluó 517 estudios y encontró que la inmensa mayoría presentaba alto riesgo de sesgo metodológico: muestras pequeñas y no representativas, validación insuficiente, y ausencia de control sobre variables sociodemográficas.

  1. Sesgo de selección: las muestras de entrenamiento sobrerrepresentan poblaciones occidentales, masculinas y de nivel socioeconómico alto.
  2. Opacidad del modelo: los clínicos no pueden evaluar por qué el modelo clasifica a un paciente como positivo.
  3. Falsa objetividad: la etiqueta «diagnóstico por IA» confiere una autoridad epistémica que los datos no justifican.

El caso muestra cómo la delegación epistémica en sistemas opacos puede amplificar —en lugar de corregir— sesgos preexistentes. La pregunta no es solo «¿funciona el modelo?», sino «¿qué tipo de conocimiento produce y para quién?».

4.12 Cognición 4E: corporizada, embebida, enactiva y extendida

Los desarrollos teóricos expuestos en las secciones anteriores —el reconocimiento del papel de las emociones, la importancia del sustrato corporal, la sensibilidad al contexto y la cognición distribuida— confluyen en lo que la literatura contemporánea denomina el marco de la cognición 4E (embodied, embedded, enacted, extended). Este marco no constituye una teoría unificada, sino una familia de enfoques que comparten el rechazo a la concepción de la mente como procesador de información aislado del cuerpo y del entorno.

4.12.1 Las cuatro dimensiones

La cognición corporizada (embodied) sostiene que los procesos cognitivos dependen constitutivamente del cuerpo del agente: la percepción, la categorización y el razonamiento abstracto están moldeados por las posibilidades sensoriomotoras del organismo. La evidencia de las neuronas espejo —que se activan tanto al ejecutar una acción como al observar a otro ejecutarla— proporcionó apoyo empírico directo a esta tesis (Gallese & Goldman, 1998). Lakoff y Johnson demostraron que las metáforas conceptuales tienen bases sensorimotoras: pensamos el tiempo en términos espaciales, el afecto en términos de temperatura, la moralidad en términos de pureza corporal (Lakoff & Johnson, 1980).

La cognición embebida (embedded) enfatiza que la cognición depende de estructuras del entorno que el agente explota activamente para reducir la carga computacional interna. Utilizamos listas, diagramas, calculadoras y configuraciones espaciales como andamios cognitivos que no son meros auxiliares, sino componentes funcionales del proceso de pensamiento. La noción de affordances —propiedades del entorno directamente percibidas como posibilidades de acción— introducida por James Gibson resulta central en esta perspectiva (Gibson, 1979).

La cognición enactiva (enacted), desarrollada a partir de Varela, Thompson y Rosch, propone que la cognición no consiste en recuperar representaciones del mundo externo, sino en enactuar —hacer emerger— un mundo significativo a través de la historia de acoplamiento estructural entre organismo y entorno. Esta perspectiva, con raíces en la fenomenología de Merleau-Ponty y la biología autopoiética de Maturana y Varela, cuestiona la noción misma de representación mental como elemento necesario de la explicación cognitiva (Di Paolo, 2005; Thompson, 2007; Varela et al., 1991).

La cognición extendida (extended), articulada por Clark y Chalmers en un artículo clave de 1998, propone que los procesos cognitivos no están confinados al cerebro ni al cuerpo, sino que pueden incluir componentes del entorno que satisfacen ciertos criterios funcionales —el denominado principio de paridad: si un proceso externo desempeña la misma función que un proceso interno reconocido como cognitivo, debe considerarse igualmente cognitivo (Clark, 2008; Clark & Chalmers, 1998).

4.12.2 Tensiones internas y objeciones

El marco 4E no está exento de tensiones internas significativas. La cognición enactiva radical de Chemero y Hutto, que rechaza cualquier noción de representación, difícilmente se concilia con la cognición extendida de Clark, que extiende las representaciones al entorno sin cuestionar su existencia (Chemero, 2009).

Una objeción sustantiva es la falacia de constitución por acoplamiento, planteada por Adams y Aizawa. El hecho de que un proceso externo esté causalmente acoplado a un agente no implica que constituya parte de su sistema cognitivo. No se debe confundir conexión causal con constitución (Adams & Aizawa, 2001; Rupert, 2004).

Pero Andy Clark ha respondido de modo convincente a estas objeciones en The Experience Machine (2023), replanteando la cognición extendida dentro del marco del cerebro predictivo. Bajo este enfoque, el cerebro genera constantemente predicciones sobre las señales sensoriales entrantes, y los artefactos externos pueden integrarse funcionalmente en estos bucles predictivos, convirtiéndose en componentes genuinos del aparato cognitivo (Clark, 2023).

4.12.3 Implicaciones epistemológicas

La relevancia del marco 4E para la teoría del conocimiento parece indiscutible. Si la cognición no se reduce a computaciones internas sobre representaciones, entonces la epistemología tradicional —centrada en estados proposicionales internos del sujeto (creencias, justificaciones)— requiere una ampliación sustancial. El Oxford Handbook of 4E Cognition (Newen et al., 2018) y la tercera edición de Embodied Cognition de Lawrence Shapiro (Shapiro, 2025) proporcionan los marcos de referencia actualizados para esta discusión.

El trabajo de Schilhab y Groth sobre aprendizaje corporizado en contextos educativos muestra que las intervenciones que integran actividad motora y exploración sensorial mejoran significativamente la retención conceptual y la transferencia de conocimientos, lo que tiene implicaciones directas para la pedagogía universitaria (Schilhab & Groth, 2024). Gahrn-Andersen ha explorado los puentes entre la cognición 4E y los estudios de ciencia y tecnología (STS), mostrando cómo los artefactos tecnológicos no solo extienden la cognición sino que reconfiguran los nichos epistémicos en los que los agentes operan (Gahrn-Andersen, 2025).

Edwin Hutchins documentó en Cognition in the Wild (Hutchins, 1996) cómo la navegación oceánica tradicional de los pueblos polinesios constituye un sistema cognitivo distribuido: el conocimiento necesario para navegar miles de kilómetros sin instrumentos no reside en la mente de un solo navegante, sino en la interacción entre múltiples agentes humanos, artefactos materiales (estrellas, corrientes, patrones de oleaje, stick charts) y prácticas culturales transmitidas durante generaciones.

El caso ilustra las cuatro dimensiones: la navegación es corporizada (el navegante «lee» el oleaje con el cuerpo), embebida (explota estructuras del entorno como andamios cognitivos), enactiva (el significado de las señales oceánicas emerge de la historia de acoplamiento entre navegante y mar) y extendida (los artefactos y las prácticas colectivas son componentes constitutivos del sistema de navegación).

La transición de la navegación polinesia tradicional a la navegación asistida por GPS no es un mero cambio de herramienta: reconfigura radicalmente la distribución cognitiva, desplazando conocimiento corporizado y culturalmente transmitido hacia un artefacto opaco cuyo funcionamiento interno el usuario no comprende ni controla. ¿Supone esto una ganancia o una pérdida epistémica neta?

4.13 Inteligencia artificial y agencia epistémica

La irrupción de los modelos grandes de lenguaje (LLM) —GPT-4, Claude, Gemini y otros— y ciertas propiedades emergentes asociadas con su tamaño ha planteado cuestiones sustantivas que la epistemología clásica no anticipó. Entre otras, si pueden los sistemas de IA funcionar como agentes epistémicos, es decir, como fuentes fiables de conocimiento que merecen confianza epistémica genuina. Lejos de ser una elucubración ociosa, la pregunta adquiere interés especial en un contexto donde millones de personas utilizan ya estos sistemas para informarse, tomar decisiones y producir documentos que circulan como conocimiento.

4.13.1 El problema del testimonio artificial

Ori Freiman ha analizado si las interacciones con LLM pueden asimilarse al testimonio en sentido epistemológico. En la epistemología del testimonio clásica (Coady, Lackey), aceptamos creencias de otros agentes porque les atribuimos competencia e intención de comunicar verdades. Pero los LLM no tienen intenciones, no comprenden lo que generan y no pueden ser responsabilizados por sus afirmaciones. Freiman argumenta que el concepto de confianza epistémica requiere una revisión profunda cuando el «testigo» es un sistema estocástico que genera texto estadísticamente plausible sin acceso a estados de cosas (Freiman, 2024).

John Greco ha abordado la cuestión desde la perspectiva de la transmisión de conocimiento, bajo la cual los artefactos tecnológicos pueden transmitir conocimiento (un termómetro, un telescopio) sin ser agentes epistémicos. Pero los LLM producen contenido proposicional nuevo, no se limitan a transmitir o amplificar señales. Esto los sitúa en una zona epistémica difusa, de la que no se tienen precedentes: no constituyen meros instrumentos, pero tampoco agentes genuinos (Greco, 2025).

4.13.2 Opacidad epistémica y el problema de la caja negra

Mark Coeckelbergh ha argumentado que la cuestión central no es si los LLM «saben» —pregunta probablemente mal planteada—, sino cómo su uso reconfigura las prácticas epistémicas de los agentes humanos que interactúan con ellos. La delegación creciente de tareas cognitivas en sistemas cuyo funcionamiento interno es opaco genera lo que Peters denomina confianza sin transparencia (a saber: prácticas en las que se aceptan los outputs de un sistema sin poder evaluar las razones de sus respuestas), lo cual invita a la reflexión incluso sin asumir totalmente la simplificación de los esquemas habituales de interacción con tales sistemas (Coeckelbergh, 2025; Peters, 2024).

Inkeri Koskinen distingue tres niveles de opacidad en los sistemas de IA: (a) opacidad técnica (la complejidad computacional impide reconstruir el razonamiento), (b) opacidad epistémica (no sabemos qué patrones de los datos de entrenamiento determinan un output específico) y (c) opacidad social (las decisiones sobre diseño, entrenamiento y despliegue son tomadas por organizaciones con intereses propios). Los tres niveles erosionan la posibilidad de evaluación epistémica independiente (Koskinen, 2024).

Richard Heersmink y colaboradores han aplicado un enfoque fenomenológico a la interacción con LLM, documentando cómo los usuarios construyen modelos mentales del sistema que no se corresponden con su funcionamiento real —atribuyéndole comprensión, intenciones e incluso personalidad—, lo que genera una forma peculiar de ilusión epistémica que puede distorsionar la evaluación de la fiabilidad de la información recibida (Heersmink et al., 2024).

La atribución indebida de competencia epistémica en la interacción con LLM de frontera es solo un aspecto de una dinámica más compleja de antropormofización que, por razones evolutivas, difícilmente los seres humanos podemos separar de entidades que exhiben cierto repertorio de capacidades básicas (Moreno Muñoz, 2025).

4.13.3 Hacia una epistemología de la interacción humano-IA

Emily Bender y colaboradores advirtieron en 2021 que los LLM son «loros estocásticos» que producen texto estadísticamente coherente sin comprensión semántica, y que el riesgo principal no reside en la tecnología sino en la atribución humana de competencia epistémica a sistemas que no la poseen (Bender et al., 2021). Floridi y Chiriatti han propuesto el concepto de agencia re-ontologizada: los LLM no piensan, pero reconfiguran el entorno informacional en el que los agentes humanos piensan, con consecuencias epistémicas tan profundas como impredecibles (Floridi & Chiriatti, 2020).

La filosofía de la IA de Rune Nyrup propone distinguir entre: (a) IA como herramienta epistémica (instrumento fiable para tareas específicas verificables), (b) IA como artefacto cognitivo (componente del sistema cognitivo extendido del usuario, en sentido clarkiano) y (c) IA como pseudo-agente epistémico (fuente de afirmaciones que imitan el testimonio sin las propiedades que lo fundamentan). Cada categoría requiere criterios de evaluación epistémica diferentes, y confundirlas —como ocurre frecuentemente en el discurso público— genera riesgos significativos para la calidad del conocimiento (Nyrup, 2025).

En 2023, múltiples estudios evaluaron el rendimiento de GPT-4 en exámenes médicos estandarizados. En el USMLE (United States Medical Licensing Examination), GPT-4 alcanzó puntuaciones superiores al umbral de aprobado en las tres etapas, y en algunos estudios superó la puntuación media de los candidatos humanos. En identificación de códigos AO a partir de informes radiológicos, el rendimiento fue comparable al de radiólogos experimentados (Bubeck et al., 2023; Russe et al., 2023).

El rendimiento del modelo en pruebas estandarizadas no implica competencia médica en sentido epistemológico. La distinción de Marr resulta aquí operativa: a nivel computacional, el LLM «resuelve» el problema (selecciona la respuesta correcta); pero a nivel algorítmico, lo hace mediante correlaciones estadísticas sobre textos, no mediante razonamiento clínico. La ausencia del nivel implementacional biológico (experiencia clínica, empatía, juicio contextual) sugiere que se trata de un caso de rendimiento sin comprensión.

¿Debería un sistema que aprueba el examen médico poder ejercer funciones diagnósticas? La pregunta obliga a repensar qué evaluamos realmente con los exámenes estandarizados y si la competencia epistémica puede reducirse a rendimiento en tests.

  1. Nori, H. et al. (2023). Capabilities of GPT‑4 on medical challenge problems (preprint). arXiv. arXiv.org
    → Evaluación comprensiva de GPT‑4 en exámenes y benchmarks médicos; muestra que GPT‑4 alcanza niveles competitivos en varias tareas clínicas y de razonamiento médico.

  2. Kung, T. H. et al. (2023). Performance of ChatGPT on USMLE: Potential for AI‑assisted medical education using large language models. PLOS Digital Health. journals.plos.org
    → Análisis empírico del rendimiento de modelos tipo ChatGPT/GPT‑4 en preguntas estilo USMLE; muestra puntuaciones por encima del umbral de aprobado en las distintas etapas en varios estudios y comparaciones.

4.14 Síntesis y cuestiones abiertas

El recorrido por las sucesivas ampliaciones de la revolución cognitiva permite identificar varias tensiones teóricas irresueltas que vertebran los debates actuales y conectan con los capítulos siguientes de esta monografía.

Representación versus enacción. La cuestión de si la cognición requiere representaciones mentales internas o puede explicarse sin ellas sigue dividiendo a la comunidad investigadora. El cognitivismo clásico, el conexionismo y los LLM comparten —a pesar de sus diferencias arquitectónicas— la asunción de que la cognición opera sobre estructuras informacionales internas. El enactivismo radical lo niega. La investigación empírica no ha resuelto la disputa, en parte porque «representación» tiene significados diferentes en cada programa de investigación. El cerebro predictivo de Clark ofrece una posible vía de conciliación: las predicciones generativas no son representaciones estáticas del mundo, sino hipótesis dinámicas sobre las señales sensoriales esperadas.

Individual versus distribuido. ¿Dónde termina el sujeto epistémico? La epistemología clásica asume un agente individual con creencias proposicionales. La cognición distribuida de Hutchins, la mente extendida de Clark y Chalmers, y la dependencia creciente de sistemas de IA difuminan esta frontera. Si el conocimiento reside en la interacción entre agente, artefactos y comunidad, los conceptos de justificación, responsabilidad epistémica y autoría intelectual requieren una reformulación que apenas ha comenzado.

Biológico versus artificial. La convergencia entre neurociencia e IA ha producido beneficios en ambas direcciones: los modelos computacionales iluminan procesos neurales, y la neurociencia inspira nuevas arquitecturas de IA (Ullman, 2019). Pero la asimetría epistémica es notable: entendemos cada vez mejor cómo funciona el cerebro gracias a modelos cuyo funcionamiento interno entendemos cada vez menos. El éxito predictivo de los LLM coexiste con una opacidad mecánica que los convierte en cajas negras epistémicas —artefactos que producen outputs útiles sin que podamos verificar las «razones» de sus respuestas.

Algunos problemas y cuestiones planteados en este capítulo se proyectan directamente sobre temas de los capítulos 5 a 8. La cuestión de las estructuras subyacentes al pensamiento (cap. 5) se enriquece con el debate representación/enacción. La distinción entre comunidades con anclaje epistémico y comunidades de afinidad ideológica (cap. 6) adquiere relevancia cuando la información se produce y circula a través de sistemas de IA que no distinguen entre hechos y ficciones plausibles. Los vectores de irracionalidad (cap. 7) se amplifican o atenúan dependiendo de cómo las arquitecturas de IA interactúan con los sesgos cognitivos humanos. Y la dimensión social del conocimiento (cap. 8) debe incorporar componentes analíticos que cuenten con la presencia de agentes artificiales en las redes epistémicas.


4.15 Talleres

Objetivo:
Comprender cómo cambia nuestro razonamiento cuando aplicamos reglas abstractas en lugar de reglas sociales, y qué significa esto para entender la racionalidad humana.


Fase 1 — Experimentación (30 min)

Cada estudiante realiza dos versiones del mismo problema lógico (la tarea de selección de Wason). La idea es comprobar en primera persona que no razonamos igual en todos los contextos.

🔹 1. Versión abstracta: Se presentan cuatro cartas con letras y números.
Regla: “Si una carta tiene una vocal por un lado, entonces tiene un número par por el otro.”
Pregunta: ¿Qué cartas hay que girar para comprobar si la regla es verdadera?

→ Esta versión suele resultar más difícil, porque no conecta con situaciones cotidianas.

🔹 2. Versión social: Se presentan cuatro tarjetas con edad y tipo de bebida.
Regla: “Si una persona bebe alcohol, debe tener más de 18 años.”
Pregunta: ¿Qué tarjetas hay que comprobar?

→ Esta versión suele resultar más fácil, porque activa esquemas sociales que ya conocemos (normas, permisos, trampas).

Registro de resultados: Cada estudiante anota sus respuestas. Luego se comparan las tasas de acierto entre ambas versiones para ver si aparece el patrón típico: mejor rendimiento en la versión social que en la abstracta.


Fase 2 — Análisis (30 min)

Trabajo en grupos de 4–5 para responder a tres preguntas clave:

  1. ¿Por qué la versión social parece más sencilla?
    • ¿Qué conocimientos previos activamos?
    • ¿Qué esquemas o intuiciones entran en juego?
  2. ¿Qué nos dice esto sobre la racionalidad humana?
    • ¿Somos “irracionales” en lo abstracto?
    • ¿O simplemente razonamos mejor en contextos que nos importan evolutivamente?
  3. ¿Los sesgos cognitivos son errores… o adaptaciones útiles?
    • ¿Podrían ser atajos que funcionan bien en la vida real aunque fallen en tareas formales?

Fase 3 — Conexión teórica (30 min)

Puesta en común y relación con tres marcos teóricos:

  • Cosmides y Tooby: Proponen que tenemos un módulo de detección de tramposos, especializado en normas sociales. Esto explicaría por qué la versión social del test es más fácil.

  • Kahneman (Sistema 1 / Sistema 2):

    • Sistema 1: rápido, intuitivo, social.
    • Sistema 2: lento, analítico, lógico.
      El test muestra cómo ambos sistemas pueden entrar en conflicto.
  • Buskes (epistemología evolucionista): La mente humana no está diseñada para la lógica formal, sino para sobrevivir y cooperar. Nuestro razonamiento refleja esa historia evolutiva.


Rúbrica de evaluación

  • Precisión lógica (30%) — Identificación correcta de las cartas relevantes.
  • Análisis metacognitivo (40%) — Explicar cómo y por qué se razonó así.
  • Conexión teórica (30%) — Uso adecuado de los tres marcos conceptuales.

Objetivo: Evaluar críticamente si los LLM pueden considerarse agentes epistémicos, conectando el argumento de Searle con la epistemología del testimonio artificial.

Fase 1 — Simulación (20 min):

Un estudiante actúa como «LLM»: recibe preguntas escritas en chino (que no conoce) y consulta un manual de reglas para seleccionar respuestas apropiadas. Los demás estudiantes evalúan si las respuestas son «inteligentes».

Fase 2 — Debate estructurado (40 min):

Dos equipos argumentan posiciones opuestas:

  • Equipo A (Searle): La habitación no comprende chino; análogamente, los LLM no comprenden el lenguaje.
  • Equipo B (Clark extendido): El sistema habitación-persona-manual comprende chino; análogamente, el sistema humano-LLM constituye un agente epistémico extendido.

Cada equipo debe utilizar al menos tres fuentes del capítulo.

Rúbrica: Rigor argumentativo (40%), uso de fuentes (30%), capacidad de responder a objeciones (30%).

Objetivo: Identificar sesgos cognitivos en la evaluación de información periodística y proponer estrategias de debiasing epistémico.

Fase 1 — Análisis individual (30 min):

Cada estudiante recibe un dossier con 6 noticias reales (3 fiables, 3 con problemas: sesgo de confirmación, falacia de autoridad, correlación/causalidad). Deben clasificarlas justificando sus criterios.

Fase 2 — Contraste grupal (30 min):

En grupos de 4–5, comparan clasificaciones y discrepancias. Identifican qué sesgos operaron en sus propias evaluaciones.

Fase 3 — Diseño de protocolo (30 min):

Cada grupo elabora un «protocolo de higiene epistémica» de 5–7 pasos para evaluar información, integrando las aportaciones de Kahneman (heurísticas), Damasio (marcadores somáticos) y la epistemología evolucionista (sesgos como adaptaciones).

Rúbrica: Identificación correcta de sesgos (30%), calidad del protocolo (40%), fundamentación teórica (30%).

Objetivo: Diseñar y ejecutar un protocolo de evaluación de la fiabilidad epistémica de un LLM en un dominio específico.

Fase 1 — Diseño (30 min):

Cada grupo elige un dominio (historia, biología, filosofía, derecho) y diseña 10 preguntas: 5 de conocimiento factual verificable y 5 que requieran razonamiento o juicio.

Fase 2 — Interacción (30 min):

Cada grupo formula las preguntas a un LLM disponible y registra las respuestas literalmente.

Fase 3 — Verificación (30 min):

Los grupos verifican las respuestas del LLM contra fuentes académicas fiables. Registran: aciertos, errores factuales, «alucinaciones», respuestas evasivas.

Fase 4 — Informe (30 min):

Elaboración de un informe breve que incluya: (a) tasa de fiabilidad estimada por tipo de pregunta, (b) análisis de los errores según la taxonomía de Nyrup (herramienta/artefacto cognitivo/pseudo-agente), (c) recomendaciones de uso epistémicamente responsable.

Rúbrica: Rigor del protocolo (25%), calidad de la verificación (25%), profundidad del análisis (30%), aplicabilidad de las recomendaciones (20%).

Objetivo: Comparar las capacidades cognitivas documentadas en animales no humanos con las capacidades de los LLM, y discutir qué noción de «inteligencia» o «cognición» subyace a cada comparación.

Fase 1 — Investigación (30 min):

Cada grupo investiga un caso de cognición animal: (a) memoria episódica en arrendajos (Clayton y Dickinson), (b) fabricación de herramientas en cuervos de Nueva Caledonia, (c) transmisión cultural en cetáceos, (d) teoría de la mente en chimpancés.

Fase 2 — Tabla comparativa (30 min):

Cada grupo elabora una tabla que compare las capacidades del animal estudiado con las de un LLM en dimensiones como: flexibilidad, generalización, dependencia del contexto corporal, transmisión social, intencionalidad.

Fase 3 — Debate (30 min):

¿Es más «inteligente» un cuervo que fabrica herramientas o un LLM que escribe ensayos? La discusión debe explicitar qué criterios de inteligencia se utilizan y si son compatibles con el marco 4E.

Rúbrica: Calidad de la investigación (30%), rigor de la comparación (30%), profundidad filosófica del debate (40%).


NotaMapa conceptual del capítulo

flowchart TB
    A[Revolución cognitiva<br/>1950-1980] --> B[Computacionalismo]
    A --> C[Neurociencia cognitiva]
    B --> D[Conexionismo /<br/>Deep learning]
    C --> E[Cerebro dividido<br/>Gazzaniga]
    C --> F[Emociones y cognición<br/>Damasio]
    D --> G[LLM / IA generativa<br/>2017-2025]
    E --> H[Consiliencia<br/>Wilson]
    F --> I[Sesgos cognitivos<br/>Kahneman-Tversky]
    H --> J[Cognición 4E]
    I --> J
    J --> K[Corporizada]
    J --> L[Embebida]
    J --> M[Enactiva]
    J --> N[Extendida]
    G --> O[Agencia epistémica<br/>artificial]
    N --> O
    O --> P{Tensiones<br/>irresueltas}
    P --> Q[Representación vs. enacción]
    P --> R[Individual vs. distribuido]
    P --> S[Biológico vs. artificial]

    style A fill:#2c5282,color:#fff
    style J fill:#2b6cb0,color:#fff
    style O fill:#c53030,color:#fff
    style P fill:#d69e2e,color:#000