5  El pensamiento subyacente

El concepto de pensamiento subyacente designa el trasfondo de contenidos, referencias conceptuales y esquemas interpretativos —derivados de las revoluciones científicas y tecnológicas más influyentes— que definen umbrales básicos de alfabetización y desarrollo cultural en una sociedad determinada. A diferencia de nociones próximas como Zeitgeist, episteme (Foucault, 1966) o paradigma (Kuhn, 2012), el pensamiento subyacente no se limita a los marcos teóricos dominantes en un campo disciplinar ni a las condiciones discursivas de una época. Se refiere, más bien, al conjunto de presupuestos, herramientas cognitivas y marcos de referencia que los miembros de una sociedad incorporan —con frecuencia de manera tácita— como resultado de la exposición acumulada a los productos de las revoluciones científicas y las discontinuidades tecnológicas que configuran su entorno cultural.

5.1 Uso operativo y alcance

La noción guarda cierta afinidad con los background assumptions de Searle (Searle, 1995), con el horizonte de precomprensión hermenéutico (Gadamer, 1975) y con la idea de sentido común epistémico que autores como Sellars articularon en su crítica al mito de lo dado (Sellars, 1956). Sin embargo, el pensamiento subyacente se distingue por su énfasis en la dimensión diacrónica y acumulativa del proceso: cada revolución científica o discontinuidad tecnológica deposita un estrato de contenidos que modifica los criterios implícitos con los que una sociedad evalúa qué cuenta como conocimiento legítimo, qué herramientas son indispensables para la actividad profesional y qué marcos interpretativos resultan admisibles en el debate público.

En términos operativos, el concepto permite analizar cómo los avances en física, biología, ciencia cognitiva y tecnología digital no solo transforman las disciplinas especializadas que los producen, sino que reconfiguran progresivamente el sustrato cognitivo compartido por comunidades cada vez más amplias. El heliocentrismo, la selección natural, la relatividad del espacio-tiempo o la computabilidad son hoy componentes del pensamiento subyacente de cualquier persona con formación secundaria en sociedades con sistemas educativos funcionales, aunque la comprensión técnica de estos conceptos varíe enormemente según el nivel de alfabetización científica (Bauer et al., 2000; J. D. Miller, 2004).

Un concepto de esta naturaleza tiene ventajas e inconvenientes que conviene explicitar. Entre las ventajas: permite tender un puente entre la historia de la ciencia, la epistemología y la sociología del conocimiento, ofreciendo una categoría integradora para analizar cómo los productos de la actividad científica y tecnológica se sedimentan en la cultura. Resulta útil, además, para identificar brechas entre el pensamiento subyacente requerido por las exigencias de una sociedad tecnológicamente avanzada y el que efectivamente poseen segmentos significativos de la población —una brecha que, como veremos en capítulos posteriores, alimenta fenómenos de vulnerabilidad epistémica, negacionismo y manipulación informativa.

Entre los inconvenientes: el concepto podría parecer excesivamente amplio o difuso si no se operativiza con criterios claros. Requiere distinguir entre estratos del pensamiento subyacente (científico, tecnológico, normativo) y especificar los mecanismos de incorporación (sistemas educativos, medios de comunicación, prácticas profesionales, entornos digitales). Tampoco debe confundirse con una visión lineal del progreso: como mostrará la sección sobre discontinuidades, las reconfiguraciones del pensamiento subyacente no siempre suponen avances netos en la calidad epistémica de las creencias colectivas. La desinformación industrializada, facilitada por las mismas tecnologías que democratizan el acceso al conocimiento, representa un vector de degradación del pensamiento subyacente que merece análisis diferenciado (Benkler et al., 2018; Wardle & Derakhshan, 2017).

Este capítulo se organiza en torno a tres ejes. En primer lugar (§5.2), se examinan las revoluciones científicas que han configurado los estratos fundamentales del pensamiento subyacente contemporáneo. En segundo lugar (§5.3–5.4), se analizan las discontinuidades tecnológicas —desde la agricultura hasta la inteligencia artificial— como vectores de reconfiguración cultural y cognitiva. Finalmente (§5.5), se exploran las implicaciones epistemológicas del pensamiento subyacente emergente en la era de la IA generativa, estableciendo conexiones explícitas con los temas que se desarrollarán en el capítulo 6 sobre la confrontación entre comunidades ancladas en la realidad y grupos de afinidad ideológica.

5.2 Revoluciones científicas como vectores del pensamiento subyacente

Las revoluciones científicas que se analizan en esta sección no se estudian por su interés historiográfico intrínseco —aspecto ya abordado en los capítulos 2 y 3—, sino como vectores de transformación del pensamiento subyacente: procesos mediante los cuales un cambio radical en la comprensión científica de un dominio termina reconfigurando los presupuestos cognitivos de comunidades que trascienden con creces el campo disciplinar de origen. El mecanismo de transmisión es complejo e involucra múltiples mediaciones: sistemas educativos, divulgación científica, aplicaciones tecnológicas, productos culturales y, de manera creciente, entornos digitales (Bowler & Morus, 2020; Secord, 2004).

5.2.1 La revolución copernicana

Aunque menos frecuentes de lo que popularmente se cree, las revoluciones científicas y tecnológicas posteriores al Renacimiento han tenido un impacto profundo en la configuración del pensamiento y la cultura contemporánea. Como ejemplo paradigmático suele mencionarse la revolución copernicana, por su capacidad para transformar la comprensión del mundo natural heredada del medievo —ligada al modelo geocentrista aristotélico-ptolemaico— y otros aspectos cruciales asociados con la realidad, la verdad y el lugar de la humanidad en el cosmos (Koyré, 1957; Reichenbach, 1945).

Como señala Kuhn en La revolución copernicana (1957), las aportaciones de Copérnico, Galileo y Kepler no solo desplazaron a la Tierra del centro del universo y demostraron la mayor precisión del modelo heliocéntrico. Kuhn sostiene que ese cambio radical supuso también un desafío para las creencias antropológicas tradicionales —cuestionando el presupuesto de la centralidad y significación humana— y contribuyó a desacreditar las metodologías exclusivamente deductivas o desvinculadas de la observación como enfoques epistémicos adecuados para comprender la complejidad de los procesos en el mundo natural (1957).

Evandro Agazzi considera la síntesis realizada por Isaac Newton en el siglo XVII —unificando las leyes del movimiento y la gravitación universal— una revolución genuina, dado que estableció los fundamentos de la física clásica y proporcionó un marco conceptual y matemático para entender el movimiento de los objetos terrestres y celestes, desacreditando creencias milenarias acerca de la radical separación entre mundo sublunar y supralunar (Agazzi, 2014).

La necesidad de cambio raramente se capta desde fuera del campo disciplinar donde afloran problemas para los que el marco tradicional no aporta soluciones satisfactorias. Según Thomas Kuhn, solo los afectados están en condiciones de entender como revolucionarios los cambios producidos en el tratamiento de ciertos problemas que, vistos desde fuera, no serían más que parte del proceso normal de desarrollo de la investigación en un dominio de conocimiento (Kuhn, 1991).

La interpretación del cambio de paradigma como un proceso pacífico, esencialmente centrado en la persuasión intelectual y en la evidencia aportada por instrumentos de observación, parece encajar mejor en la categoría de idealización simplificadora que en el tipo de explicación detallada capaz de dar cuenta de lo ocurrido en la heterogeneidad de saberes y campos de conocimiento de la cultura y la ciencia de los siglos XVI y XVII (Shapin, 1996).

En términos de pensamiento subyacente, la revolución copernicana depositó un estrato decisivo: la idea de que la posición del observador no es privilegiada, que las apariencias pueden ser sistemáticamente engañosas y que la comprensión de la naturaleza requiere herramientas formales (matemáticas) y empíricas (observación instrumentada) que trascienden el sentido común. Este estrato —que Kant conceptualizaría como el “giro copernicano” del conocimiento— constituye un componente irreductible del pensamiento subyacente de cualquier sociedad con acceso a educación científica básica.

5.2.2 La teoría de la evolución

La teoría de la evolución de Darwin revolucionó la comprensión de los orígenes, las interrelaciones y la diversidad de la vida en el siglo XIX. Pero su aceptación no fue el resultado de un proceso de difusión pacífica y persuasiva. Charles Darwin fue plenamente consciente de que su teoría de la evolución por selección natural cuestionaba la visión teleológica de la naturaleza y la inmutabilidad de las especies, predominantes en la biología de su época (Darwin, 1859).

La evolución por selección natural introdujo en el pensamiento subyacente un principio epistemológico de consecuencias profundas: la posibilidad de explicar el orden y la complejidad biológica sin recurrir a un diseñador intencional. Como argumentó Daniel Dennett, el darwinismo constituye una “idea peligrosa” precisamente porque su lógica —variación, selección, retención— es un algoritmo aplicable a dominios muy diversos, desde la biología molecular hasta la evolución cultural (Dennett, 1995).

La consolidación de la síntesis evolutiva moderna durante el siglo XX —integrando genética mendeliana, genética de poblaciones y paleontología— amplió el impacto del pensamiento evolutivo más allá de la biología. La epistemología evolutiva de Campbell, Popper y más recientemente Buskes (Buskes, 2013) extendió los principios darwinistas al análisis de la producción y selección del conocimiento científico, estableciendo conexiones directas con los temas desarrollados en el capítulo 3. A ello se suman los desarrollos recientes en genómica comparada y paleogenómica, analizados en el capítulo 3, que han reforzado la base empírica del pensamiento evolutivo con una resolución sin precedentes (Green et al., 2010; Reich, 2018).

En términos de pensamiento subyacente, la revolución darwiniana depositó otro estrato fundamental: la idea de que los seres humanos son parte de un continuo biológico con el resto de las especies, que las explicaciones naturalistas son preferibles a las sobrenaturales en el ámbito de los fenómenos naturales, y que los procesos históricos y contingentes —no solo las leyes universales— desempeñan un papel constitutivo en la comprensión del mundo. Este estrato, sin embargo, sigue siendo uno de los que más oposición suscita entre amplios segmentos de la población mundial, lo que ilustra cómo el pensamiento subyacente no se impone de manera automática ni uniforme (J. D. Miller et al., 2006).

5.2.3 La teoría de la relatividad y la mecánica cuántica

La revolución en la física del siglo XX —asociada a la relatividad especial y general de Einstein y a la mecánica cuántica desarrollada por Planck, Bohr, Heisenberg, Schrödinger y Dirac— constituye probablemente la transformación más radical del pensamiento subyacente en lo que respecta a la comprensión de la estructura fundamental de la realidad física.

La relatividad especial (1905) demostró que el espacio y el tiempo no son entidades absolutas e independientes, sino dimensiones entrelazadas de un continuo espacio-temporal cuya geometría depende del movimiento relativo del observador. La relatividad general (1915) amplió esta reconceptualización al mostrar que la materia y la energía curvan el espacio-tiempo, proporcionando una nueva teoría de la gravitación que reemplazó a la newtoniana en contextos de campos gravitatorios intensos (Einstein, 1916; Rovelli, 2015).

La mecánica cuántica, por su parte, introdujo una ruptura aún más profunda con la intuición cotidiana. El principio de incertidumbre de Heisenberg, la dualidad onda-partícula y el fenómeno de entrelazamiento cuántico desafiaron los presupuestos deterministas y localistas del pensamiento clásico, estableciendo límites fundamentales a la predictibilidad y forzando una reconceptualización de nociones tan básicas como medición, causalidad y realidad física (Bell, 1964; Heisenberg, 1927).

Como se analizó en el capítulo 2, las implicaciones epistemológicas de estas teorías han alimentado debates filosóficos de primer orden durante más de un siglo. En términos de pensamiento subyacente, la física del siglo XX deposita un estrato particularmente desafiante: la idea de que la realidad fundamental puede ser radicalmente contraintuitiva, que las categorías del sentido común (espacio absoluto, determinismo estricto, separabilidad de los sistemas) tienen un rango de validez limitado, y que la comprensión profunda de la naturaleza puede requerir marcos formales (tensores, espacios de Hilbert) inaccesibles sin formación matemática avanzada.

Este último aspecto plantea un problema específico para el pensamiento subyacente: la brecha entre las implicaciones de la física moderna y la comprensión que de ellas tienen incluso las personas con formación universitaria es posiblemente más amplia que en cualquier otra revolución científica previa. Los desarrollos recientes en computación cuántica —con los avances de Google, IBM y el laboratorio chino USTC en la demostración de ventaja cuántica— están comenzando a trasladar estas abstracciones al dominio de las aplicaciones tecnológicas, lo que podría cerrar parcialmente esta brecha en las próximas décadas (Arute et al., 2019; Preskill, 2018).

5.2.4 La revolución de la información y las tecnologías digitales

La cuarta revolución científico-tecnológica con impacto decisivo en el pensamiento subyacente se asocia con la teoría matemática de la información de Claude Shannon (1948) y la cibernética de Norbert Wiener, que proporcionaron los fundamentos teóricos para la codificación, transmisión y procesamiento de información en formato digital (Shannon, 1948; Wiener, 1948).

La digitalización ha facilitado que grandes cantidades de información estén disponibles al instante y a escala global, reduciendo significativamente las barreras geográficas y temporales para acceder al conocimiento. En muchos aspectos, se ha democratizado el aprendizaje y se han popularizado herramientas, plataformas y servicios que posibilitan a personas de todo el mundo contribuir y participar en la creación y difusión del conocimiento (Castells, 2010).

En términos de pensamiento subyacente, la revolución informacional deposita un estrato con características inéditas: por primera vez, una revolución científica genera herramientas que modifican directa y masivamente las prácticas cognitivas cotidianas de miles de millones de personas. Los conceptos de algoritmo, dato, red, interfaz y procesamiento —antes restringidos a comunidades especializadas— se han convertido en componentes del vocabulario y las prácticas básicas de sociedades enteras, reconfigurando las nociones de privacidad, autoría, verdad y confianza epistémica (Floridi, 2014).

El impacto cultural de esta revolución va ligado a la dinámica de innovación tecnológica, actuando como vector decisivo de transformación social desde el sistema productivo y a través de los sistemas educativos. La rápida sucesión de transformaciones disruptivas en pocas décadas es un fenómeno sin precedentes, con potencial constatado para modificar a escala mundial la forma en que vivimos, trabajamos y nos relacionamos (Brynjolfsson & McAfee, 2014; Schwab, 2016).

El reverso de esta dinámica competitiva por liderar la innovación tecnológica en sectores clave ha sido la concentración de un poder desproporcionado en pocas megacorporaciones. Con medios y capacidades que superan a los de los actores estatales, imponen sus modelos de negocio, controlan las nuevas plataformas de interacción social y los cauces de producción cultural. Conocer la influencia de estos actores y su modelo de negocio es esencial para descifrar las tendencias o corrientes subyacentes del pensamiento y la cultura contemporánea (Rikap, 2022; Zuboff, 2019).

La invención de la imprenta con tipos móviles por Johannes Gutenberg (c. 1440) y la irrupción de la IA generativa (2022–) constituyen dos discontinuidades tecnológicas separadas por casi seis siglos que, sin embargo, presentan paralelismos estructurales notables en su impacto sobre el pensamiento subyacente.

Ambas tecnologías comparten una característica fundamental: transforman radicalmente los costes de reproducción y distribución de contenido simbólico. La imprenta redujo el coste de copiar textos en varios órdenes de magnitud; la IA generativa reduce el coste de producir texto, imagen, código y otros contenidos en una escala comparable (Bommasani et al., 2022; Eisenstein, 2013).

Dimensión 1 — Democratización del acceso: La imprenta democratizó el acceso al conocimiento existente; la IA generativa democratiza el acceso a capacidades de producción de contenido que antes requerían formación especializada.

Dimensión 2 — Desintermediación: La imprenta erosionó el monopolio eclesiástico sobre el saber; la IA generativa erosiona los monopolios profesionales sobre ciertas formas de expertise (traducción, redacción, análisis, codificación).

Dimensión 3 — Sobrecarga informativa: La imprenta generó por primera vez un problema de too much to know (Blair, 2011) que obligó a desarrollar nuevas herramientas de gestión del conocimiento (índices, bibliografías, enciclopedias); la IA generativa intensifica este problema exponencialmente, exigiendo nuevas formas de curación, verificación y evaluación crítica.

Dimensión 4 — Reconfiguración del poder: La imprenta facilitó la Reforma Protestante, el surgimiento de identidades nacionales y la consolidación del Estado moderno; la IA generativa está reconfigurando las relaciones de poder entre corporaciones tecnológicas, Estados y ciudadanía, con implicaciones aún difíciles de calibrar (Crawford, 2021).

Dimensión 5 — Transformación cognitiva: La imprenta promovió el pensamiento lineal, analítico y descontextualizado característico de la cultura letrada; la IA generativa promueve formas de cognición delegada, interactiva y probabilística cuyas consecuencias a largo plazo son objeto de debate (Carr, 2010; Floridi & Chiriatti, 2020).

La analogía tiene límites importantes. La velocidad de difusión de la IA generativa es incomparablemente mayor: mientras la imprenta tardó décadas en alcanzar masas críticas de usuarios, ChatGPT alcanzó 100 millones de usuarios en dos meses. Además, la IA generativa no solo reproduce contenido sino que lo genera, lo que plantea problemas de autoría, veracidad y responsabilidad epistémica sin precedente directo en la historia de la imprenta.

No obstante, la analogía es epistemológicamente productiva porque permite identificar patrones recurrentes en la relación entre tecnologías de mediación simbólica y transformación del pensamiento subyacente, evitando tanto el determinismo tecnológico ingenuo como la infravaloración de los efectos estructurales de las discontinuidades tecnológicas.

5.3 Discontinuidades tecnológicas y reconfiguración cultural

5.3.1 Un modelo analítico para las discontinuidades

La historia de la humanidad está marcada por discontinuidades tecnológicas y culturales que han transformado radicalmente las estructuras de la sociedad y los modos de pensar. A diferencia de las aproximaciones continuistas que subrayan la evolución gradual de los sistemas sociotécnicos, el análisis de las discontinuidades permite identificar los puntos de inflexión que han desencadenado transformaciones estructurales en la configuración del pensamiento humano y sus manifestaciones culturales (Kuhn, 2012; Mumford, 2010).

La noción de discontinuidad puede ser entendida extrapolando su sentido físico —imperfección o defecto en los materiales, detectable como una grieta o separación en la estructura— para referirse a un fenómeno multidimensional causado por la irrupción de tecnologías que originan nuevos sistemas de mediación entre el ser humano y su entorno, lo que a su vez provoca una reconfiguración de las estructuras sociales y de poder, transforma los sistemas simbólicos y representacionales y modifica de manera sustancial los procesos cognitivos individuales y colectivos (Hutchins, 2013; Luhmann, 2012; Tomasello, 1999).

Para sistematizar el análisis, resulta útil evaluar cada discontinuidad en función de cuatro dimensiones que permiten comparar su impacto relativo sobre el pensamiento subyacente:

  1. Dimensión cognitiva: ¿Qué nuevas capacidades de procesamiento, almacenamiento o comunicación de información introduce la tecnología? ¿Qué formas de pensamiento potencia o inhibe?

  2. Dimensión social-institucional: ¿Cómo reconfigura las estructuras de poder, las instituciones del saber y los mecanismos de legitimación del conocimiento?

  3. Dimensión epistémica: ¿Qué criterios de validez, evidencia y justificación modifica? ¿Genera nuevas formas de conocimiento o nuevas formas de ignorancia?

  4. Dimensión político-económica: ¿Quién controla la tecnología y sus productos? ¿Cómo se distribuyen sus beneficios y riesgos?

Este marco analítico se aplicará en las subsecciones siguientes a las principales discontinuidades identificadas, con especial atención a las que han configurado el pensamiento subyacente de las sociedades contemporáneas.

5.3.2 De la agricultura a la escritura: las discontinuidades fundacionales

Agricultura. Hace aproximadamente 10.000–12.000 años, la transición de sociedades cazadoras-recolectoras a agrícolas marcó una de las primeras grandes discontinuidades en la historia humana. La agricultura permitió la sedentarización de las poblaciones y el desarrollo de excedentes alimenticios, lo que llevó a una mayor complejidad social y al surgimiento de las primeras ciudades y estados (Bleaney & Dimico, 2011; Diamond, 1997).

La modificación de los sistemas ligados a la subsistencia supuso una reconfiguración completa de la relación humana con el tiempo, el espacio y la naturaleza. En términos de pensamiento subyacente, la revolución agrícola instaló un estrato de cognición planificadora orientada al ciclo estacional, favoreciendo nociones de propiedad, acumulación y previsión temporal que constituyen precondiciones para el desarrollo posterior de sistemas contables, calendarios y, en última instancia, el pensamiento abstracto (Scott, 2017).

Evaluada según el modelo analítico propuesto: cognitivamente, introdujo la planificación a largo plazo y la abstracción temporal; socialmente, generó las primeras jerarquías estables y la especialización funcional; epistémicamente, creó las condiciones para la acumulación sistemática de conocimiento práctico; políticamente, inauguró las asimetrías de poder basadas en el control de recursos.

Escritura. Los primeros sistemas de escritura —cuneiformes y jeroglíficos— surgieron inicialmente como tecnologías administrativas en sociedades complejas. Pero su transformación en herramientas para la transmisión intergeneracional de la memoria cultural y la creación de repositorios de conocimiento colectivo fue rápida, proporcionando ventajas diferenciadas entre sociedades orales y escriturales (Goody & Watt, 1968; Ong, 1982).

Se asocia esta discontinuidad con una bifurcación cognitiva sustancial en los procesos de pensamiento. Las culturas orales se caracterizaban por modos de cognición situados, concretos y contextuales, mientras que la escritura posibilitó el desarrollo del pensamiento abstracto, descontextualizado y analítico, favoreciendo formas más complejas de razonamiento lógico-deductivo. Su difusión en los focos de intercambio comercial se considera la base epistemológica para el desarrollo posterior del pensamiento filosófico y científico (Havelock, 1986).

No resulta descabellado asociar con el dominio de la escritura la irrupción de asimetrías de poder entre poblaciones alfabetizadas y no alfabetizadas. Pero, en un sentido amplio, las sociedades alfabetizadas pudieron incrementar la eficacia de sus dinámicas de cooperación mediante la acumulación sistemática del saber, de conocimientos prácticos y a la larga de tradiciones intelectuales capaces de sortear las limitaciones espacio-temporales inherentes a la oralidad (Goody & Watt, 1968).

5.3.3 Imprenta y Revolución Industrial: aceleración del cambio epistémico

La invención de la imprenta con tipos móviles por Johannes Gutenberg a mediados del siglo XV supuso una discontinuidad con impacto decisivo en las estructuras cognitivas, sociales y políticas de la civilización occidental. Revolucionó la transmisión del conocimiento, al facilitar la reproducción masiva de libros en una escala imposible de igualar por copistas humanos. La imprenta democratizó el acceso al saber, propiciando el Renacimiento, la Reforma y eventualmente la Ilustración (Eisenstein, 2013; Febvre & Martin, 2010).

La disponibilidad de textos idénticos y estandarizados facilitó la comparación crítica, el desarrollo de sistemas de referencias cruzadas y la emergencia de comunidades epistémicas sin fronteras políticas, jurídicas ni religiosas. El hábito de lectura silenciosa individual sustituyó a la lectura en voz alta de libros escasos y caros, potenciando una mayor diversidad en la interiorización del conocimiento (Chartier, 1994).

En pocas décadas, la imprenta aceleró la fragmentación de la hegemonía intelectual eclesiástica y propició el surgimiento de múltiples perspectivas, así como la difusión de ideas heterodoxas. La estandarización lingüística promovida por la imprenta resultó fundamental en la construcción de identidades nacionales y en la consolidación de los estados-nación modernos. El formato del libro impreso, con sus índices, paginación, referencias cruzadas y organización temática, contribuyó a instaurar una nueva arquitectura del saber caracterizada por la sistematización, la categorización y la linealidad (Blair, 2011).

La Revolución Industrial iniciada en Gran Bretaña a finales del siglo XVIII constituye otra discontinuidad cuyo impacto trasciende la dimensión productiva. La mecanización transformó la estructura temporal y espacial de la vida cotidiana, instaurando regímenes de tiempo industrial que reconfiguraron los patrones cognitivos ligados a la percepción del trabajo, el ocio y la productividad. Simultáneamente, la urbanización masiva generó nuevas formas de organización social, con instituciones educativas diseñadas para formar trabajadores adaptados a las exigencias del sistema fabril (Mokyr, 2017; Thompson, 1967).

Se considera efecto colateral de la industrialización el vínculo sistemático entre investigación científica, innovación tecnológica y aplicación industrial, el cual contribuyó al desarrollo de disciplinas científicas aplicadas, aportó prestigio a sus practicantes y reforzó la institucionalización del conocimiento técnico (Mokyr, 2017; Mumford, 2010).

En términos de pensamiento subyacente, la Revolución Industrial depositó un estrato de racionalidad instrumental, eficiencia y cuantificación que sigue siendo constitutivo del modo en que las sociedades industrializadas entienden el progreso, el trabajo y la relación entre conocimiento y producción. Pero también generó sus propios anticuerpos conceptuales: las críticas al industrialismo de pensadores como Owen, Saint-Simon y posteriormente Marx inauguraron una tradición de análisis social del impacto de las tecnologías que resulta directamente relevante para los debates contemporáneos sobre la IA (Owen, 1813; Polanyi, 1944).

5.3.4 Medios de comunicación de masas y homogeneización cognitiva

La emergencia y consolidación de los medios de comunicación masiva durante los siglos XIX y XX —prensa industrial, radio, cine, televisión— instauró una discontinuidad caracterizada por la sincronización de las experiencias colectivas y la construcción de relatos e imaginarios compartidos, primero a escala nacional y después global. Por sus características técnicas, los medios masivos permitieron la diseminación simultánea de contenidos idénticos a audiencias dispersas geográficamente, generando comunidades culturales que trascendían las limitaciones de la experiencia inmediata (Anderson, 1991).

La recepción simultánea de estímulos e información estandarizada originó nuevas formas de cognición social, amplió el potencial para la construcción de marcos interpretativos comunes e hizo posible la sincronización de agendas temáticas colectivas, contribuyendo a modelar activamente los esquemas perceptivos y los sistemas de categorización social de sus audiencias (Lippmann, 2017).

Los nuevos canales contribuyeron a unificar experiencias y reforzaron nexos de interconexión cultural, posibilitando fenómenos de homogeneización cultural y lingüística a gran escala, así como nuevas formas de control social a través de la propaganda y la construcción mediática de la opinión pública. Esta dinámica favoreció la consolidación de estados-nación modernos; pero generó nuevos espacios para articular formas de resistencia y dar voz a discursos contrahegemónicos (Habermas, 1991).

Según Marshall McLuhan, los nuevos medios de masas operan como extensiones del ser humano, puesto que cada medio reconfigura las relaciones sensoriales y cognitivas, modificando tanto el contenido de la comunicación como la estructura misma del pensamiento. La televisión potenció una epistemología centrada en el formato visual, priorizando la inmediatez y la estimulación sensorial en detrimento del análisis lógico-secuencial característico de la cultura impresa (McLuhan, 1964).

5.3.5 Digitalización, Internet y la sociedad red

Desde su expansión en los años 90, Internet ha sido seguramente la discontinuidad con mayor impacto en términos de comunicación y acceso a la información. Ha cambiado radicalmente las industrias, desde el comercio o el entretenimiento hasta la educación, y ha reestructurado las interacciones sociales y políticas a una escala global. A diferencia de los medios unidireccionales, Internet constituye un metasistema comunicativo que integra múltiples modalidades de interacción, difuminando las fronteras entre productores y consumidores de información (Castells, 2010).

El paradigma cognitivo resultante se caracteriza por la hiperconectividad, la multimodalidad y la simultaneidad, lo que permite externalizar gran parte de los procesos cognitivos humanos. Los procesos de atención fluctúan entre estímulos ligados a la experiencia directa y los que proceden de sistemas tecnológicos interconectados, con potencial suficiente para modificar de manera sustancial los mecanismos de atención, memoria y procesamiento informativo (Carr, 2010; Sparrow et al., 2011).

Las tecnologías digitales han supuesto una transformación profunda de la forma en que las sociedades avanzadas acceden, comparten y generan conocimiento. Este fenómeno, sin duda la mayor transformación desde la invención de la imprenta, sigue evolucionando. Pero abre la puerta a nuevas formas de manipulación, desinformación, propaganda y control social que amenazan el núcleo de valores y derechos de las democracias liberales. El riesgo de instrumentalización de las tecnologías y servicios digitales por grupos de interés, grandes empresas y movimientos de corte autoritario ha sido subestimado (Benkler et al., 2018; Howard, 2020; Rodríguez Pérez et al., 2021).

Digitalización y revolución informacional han servido de vectores para consolidar un ecosistema de servicios y desarrollos tecnológicos que han tenido un impacto significativo en la economía, dando lugar a nuevos modelos de negocio y oportunidades de empleo. Su difusión ha transformado la naturaleza del trabajo, reforzando la necesidad de nuevas competencias digitales sin las cuales no es posible adaptarse al ritmo vertiginoso de evolución tecnológica (Brynjolfsson & McAfee, 2014; OECD, 2019; Tapscott, 2014).

La combinación de plataformas digitales, algoritmos de recomendación y redes sociales ha generado un ecosistema informativo en el que la desinformación puede producirse, distribuirse y amplificarse a una escala sin precedentes. A diferencia de la propaganda tradicional, la desinformación algorítmica opera de manera descentralizada, personalizada y frecuentemente automatizada, lo que dificulta su identificación y contención.

El fenómeno adquirió visibilidad global durante las elecciones presidenciales estadounidenses de 2016 y la campaña del Brexit, cuando se documentó la operación masiva de redes de desinformación coordinada (Howard, 2020). Desde entonces, la escala y sofisticación de estas operaciones no ha dejado de crecer, con la IA generativa como multiplicador de capacidades.

Mecanismos de erosión epistémica: Los algoritmos de recomendación optimizan el engagement, no la calidad epistémica del contenido. El resultado es un sesgo estructural hacia contenidos emocionalmente activadores, polarizantes y simplificadores. Como ha argumentado C. Thi Nguyen, las cámaras de eco no solo filtran información sino que proporcionan marcos epistémicos cerrados que inmunización a sus participantes contra la evidencia contraria (Nguyen, 2020).

Escala industrial: El coste de producir desinformación convincente ha disminuido drásticamente con la IA generativa. Un estudio de 2024 del Oxford Internet Institute documentó el uso de herramientas de IA generativa en campañas de desinformación en al menos 47 países.

Asimetrías de velocidad: La desinformación se propaga consistentemente más rápido que las correcciones factuales, un fenómeno documentado empíricamente por Vosoughi, Roy y Aral en su estudio de 126.000 cascadas informativas en Twitter (Vosoughi et al., 2018).

La desinformación algorítmica representa un caso paradigmático de degradación del pensamiento subyacente: las mismas tecnologías que han democratizado el acceso al conocimiento son instrumentalizadas para erosionar la capacidad colectiva de distinguir información fiable de propaganda, reduciendo la calidad epistémica del sustrato cognitivo compartido. Las respuestas institucionales —como la EU Digital Services Act (2022) y el Código de Prácticas contra la Desinformación— constituyen intentos de contener esta dinámica, pero su eficacia a largo plazo depende de factores que trascienden la regulación técnica: alfabetización crítica, fortalecimiento institucional y cultura epistémica.

  • Howard (2020)
  • Nguyen (2020)
  • Vosoughi et al. (2018)
  • Benkler et al. (2018)
  • Wardle & Derakhshan (2017)
  • Rodríguez Pérez et al. (2021)

5.4 La discontinuidad de la inteligencia artificial

5.4.1 IoT y automatización como antecedentes inmediatos

El Internet de las cosas (IoT) constituye un antecedente tecnológico directo de la actual discontinuidad asociada a la IA. La proliferación de dispositivos interconectados capaces de recopilar, procesar y transmitir datos de forma autónoma ha creado una infraestructura de datos sin precedentes que sirve como sustrato material para el entrenamiento de sistemas de IA (Gubbi et al., 2013; Mitew, 2014).

La convergencia entre IoT, computación en la nube y análisis masivo de datos (big data) ha generado un entorno técnico en el que la frontera entre el mundo físico y el digital se difumina progresivamente, reconfigurando tanto las prácticas productivas como las formas de interacción social y vigilancia (V. Miller, 2020; Zuboff, 2019).

5.4.2 IA generativa: de herramienta a mediador cultural

La evolución reciente de la IA, acelerada con la mejora de los modelos de aprendizaje profundo y algoritmos de procesamiento del lenguaje natural, representa una discontinuidad emergente con un potencial extraordinario para redefinir los límites tradicionales de las capacidades humanas. Los sistemas dotados con IA avanzada son capaces de superar bancos de pruebas exigentes, con resultados en traducción, análisis o razonamiento prospectivo que igualan o superan el desempeño promedio de humanos expertos en ámbitos multidisciplinares (Bostrom, 2014; OpenAI, 2023).

Al menos desde finales del 2022, los modelos preentrenados como GPT-4, Claude y Gemini exhiben formas de autonomía en sus respuestas y en el modo de entender tareas complejas que se pueden interpretar razonablemente como réplicas —y, en ciertos dominios, versiones superiores— de capacidades consideradas exclusivamente humanas pocos años atrás (Bubeck et al., 2023; Russell & Norvig, 2021).

La IA generativa no se limita a automatizar tareas cognitivas rutinarias: opera como un mediador cultural que transforma las condiciones de producción, circulación y recepción del conocimiento. Sus impactos incluyen:

  • Transformación del trabajo intelectual: La automatización de tareas cognitivas complejas redefine las fronteras entre trabajo manual e intelectual, creando nuevas formas de colaboración humano-máquina y planteando interrogantes sobre la naturaleza del trabajo creativo y la expertise profesional (Acemoglu, 2024; Frey, 2019; Susskind & Susskind, 2015).

  • Reconfiguración de la esfera pública: Los sistemas de IA generativa transforman los procesos de producción y circulación de información, generando tanto oportunidades de democratización del acceso como riesgos de concentración del poder informacional y nuevas formas de manipulación (Floridi & Chiriatti, 2020; Weidinger et al., 2022).

  • Nuevas formas de expresión cultural: Los modelos de IA generativa pueden ser utilizados para crear obras de arte visuales, música, literatura y otras formas de expresión creativa, ampliando el repertorio cultural y ofreciendo nuevas perspectivas estéticas, al tiempo que plantean interrogantes sobre la autoría y la naturaleza de la creatividad humana (Zylinska, 2020).

Las iniciativas destinadas a monitorizar y analizar cuidadosamente el impacto de la IA generativa en la cultura son la base para fomentar un desarrollo ético y responsable. La colaboración entre expertos en IA, investigadores en el ámbito de las humanidades y creadores culturales parece inevitable, considerando el papel creciente de la creación y producción científica asistida por IA en la dinámica cultural (Coeckelbergh, 2020; Eger et al., 2025; Miolane, 2025; Zylinska, 2020).

El ejercicio propone identificar los elementos que indican el uso de algún modelo de IA generativa en un texto dado, aportando las instrucciones (prompt) necesarias para obtener un resultado (output) similar. Se trata de desarrollar capacidades de literacy crítica adaptadas a la era de la producción textual algorítmica.

Considérese el siguiente fragmento (generado por GPT-4 en 2024):

La investigación de la dinámica cultural busca explicar cómo las sociedades generan, mantienen y transforman sus sistemas de significado. Desde las primeras aproximaciones antropológicas hasta los enfoques contemporáneos, este campo ha intentado ofrecer marcos amplios que permitan comprender procesos complejos de interacción simbólica y organización social.

Diversos autores han señalado elementos fundamentales para este análisis. Geertz destacó la importancia de los símbolos y las prácticas interpretativas; Foucault subrayó las configuraciones de poder que estructuran los discursos; y Appadurai llamó la atención sobre los flujos globales que reconfiguran identidades y territorios. Estos aportes permiten delinear dimensiones analíticas que suelen incluir la producción de significados, las relaciones institucionales, los patrones de comunicación y el papel creciente de la tecnología.

En conjunto, estas perspectivas ofrecen una visión general de cómo las culturas se adaptan a contextos cambiantes. Aunque cada enfoque enfatiza aspectos distintos, todos coinciden en la necesidad de considerar múltiples niveles de análisis para comprender la evolución cultural en sociedades contemporáneas.

Marcadores estilísticos de generación por IA identificables en el fragmento:

  1. Estructura enumerativa simétrica: El texto sigue un patrón {concepto → definición → expansión} repetido con regularidad mecánica, sin variación estilística significativa.

  2. Hedging mínimo y tono enciclopédico: Ausencia de matizaciones, dudas o posicionamiento del autor. El texto no toma partido sino que presenta panorámicas equilibradas con apariencia de exhaustividad.

  3. Referencias canónicas sin profundidad: Se mencionan autores (Geertz, Foucault, Appadurai) como etiquetas de autoridad sin desarrollo crítico de sus posiciones, sin señalar limitaciones ni controversias.

  4. Cohesión superficial: Los párrafos son autónomos y podrían reordenarse sin pérdida significativa de sentido, lo que sugiere generación secuencial sin planificación argumentativa global.

  5. Ausencia de posición epistémica: El texto no formula preguntas genuinas, no identifica problemas abiertos ni reconoce la complejidad irreductible de ciertos aspectos del tema tratado.

La capacidad de identificar contenido generado por IA se está convirtiendo en una competencia epistémica fundamental. No se trata de un mero ejercicio técnico: la proliferación de textos generados algorítmicamente con apariencia de rigor académico plantea desafíos reales para la evaluación del conocimiento, la formación universitaria y la integridad de la comunicación científica.

Los criterios de identificación evolucionan con los modelos: los marcadores válidos para GPT-3.5 (repeticiones, incoherencias factuales evidentes) resultan menos efectivos con GPT-4o o Claude Opus, que producen textos más sofisticados. Esto exige una actualización constante de las competencias de evaluación crítica y refuerza la necesidad de herramientas complementarias (detectores de IA, análisis estilométrico, verificación de fuentes).

  • Bender et al. (2021)
  • Floridi & Chiriatti (2020)
  • Weidinger et al. (2022)

La dinámica cultural, entendida como los procesos de cambio y continuidad en las creencias, valores, normas y prácticas de una sociedad, constituye un ámbito de estudio de gran complejidad. La irrupción de la IA generativa en 2022–2024 introduce un vector de cambio cultural cuya velocidad y escala no tiene precedentes desde la expansión de Internet en los años 90.

Oportunidades para la producción cultural: La IA generativa abre posibilidades significativas en la creación de nuevas formas de expresión artística, la preservación y difusión del patrimonio cultural, el análisis de patrones culturales a gran escala y la democratización del acceso a herramientas de producción cultural (Zylinska, 2020).

Riesgos documentados: Los algoritmos de IA generativa incorporan sesgos presentes en los datos de entrenamiento, lo que puede perpetuar estereotipos o visiones parciales de la cultura. Surgen además desafíos éticos sobre propiedad intelectual, privacidad y responsabilidad por el contenido generado, así como transformaciones profundas en industrias creativas que exigen nuevos modelos de negocio y marcos regulatorios (Coeckelbergh, 2020; Weidinger et al., 2022).

Redefinición de la autoría y la creatividad: La IA generativa plantea interrogantes fundamentales sobre la autoría y la naturaleza de la creatividad humana, lo que podría llevar a replantear conceptos y prácticas culturales que damos por sentados. La pregunta no es solo técnica sino filosófica: ¿qué significa crear cuando un sistema algorítmico puede producir textos, imágenes y música indistinguibles de los producidos por humanos? (Floridi, 2019; Gunkel, 2018).

El componente interdisciplinar es irrenunciable en cualquier intento de entender el impacto de la IA en la cultura. La colaboración entre expertos en IA, investigadores en humanidades y creadores culturales es condición necesaria para un desarrollo ético y responsable. El pensamiento subyacente de las próximas décadas se configurará en buena medida por la forma en que las sociedades gestionen esta discontinuidad.

5.4.3 IA agencial y redefinición de la expertise

La aplicación de modelos altamente especializados de IA en tareas como la gestión del tráfico en vehículos autónomos, en sistemas de diagnóstico médico avanzados o en entornos híbridos de producción industrial ilustra un proceso complejo de redefinición de la agencia humana en interacción con máquinas y sistemas dotados de capacidad agencial en grados diversos. Esta integración progresiva genera inquietudes fundadas sobre posibles transformaciones en el entorno laboral y riesgos para la privacidad y la seguridad, al tiempo que abre nuevas posibilidades creativas (Baker-Brunnbauer, 2021; Dafoe, 2018).

La irrupción de agentes con IA avanzada y desempeño propio de especialistas plantea una cuestión central para el pensamiento subyacente: si disponemos de sistemas algorítmicos capaces de igualar o superar el rendimiento de expertos humanos en dominios cada vez más amplios, ¿qué implica esto para la noción de pericia profesional —preferible a expertise, según la RAE— como componente del capital epistémico de una sociedad? La respuesta no es simple, puesto que los benchmarks actuales miden niveles de rendimiento en tareas específicas, no comprensión genuina ni responsabilidad epistémica (Rooij et al., 2024; Sublimé & Kalinicheva, 2024).

Sin embargo, el uso de sistemas de IA como asistentes avanzados que colaboran eficazmente en procesos técnicamente complejos de varias fases de la investigación científica no se limita a tareas repetitivas automatizables, ni a procesos asociados con cognición de bajo nivel. Pueden desempeñar funciones críticas de indagación heurística e identificación de hipótesis y patrones en la literatura especializada que pasan desapercibidos a revisores humanos (Gottweis & Natarajan, 2025). Lo novedoso en este contexto es la entrada en funcionamiento, para tareas no triviales, de agentes cuyo resultado —identificar instrumentos que han sido desacreditados empírica o teóricamente, por ejemplo— parece inexplicable sin atribuir conocimiento interdisciplinar, creatividad y comprensión contextual (Sheth et al., 2026).

En marzo de 2025, OpenAI anunció planes para un servicio de agentes con IA avanzada con un coste de 20.000 USD mensuales, dirigido a empresas que requieren capacidades descritas como “PhD-level” en dominios especializados. La denominación generó un debate inmediato sobre qué significa atribuir un nivel de pericia académica avanzada a un sistema algorítmico (Edwards, 2025).

¿Qué miden realmente los benchmarks? Los sistemas de IA actuales son evaluados mediante bancos de pruebas (MMLU, GPQA, ARC-AGI) diseñados para medir rendimiento en tareas discretas: respuesta a preguntas, resolución de problemas, generación de código. Un rendimiento “PhD-level” en estos benchmarks significa que el sistema acierta con una frecuencia comparable a la de un doctor en la disciplina relevante en ese tipo específico de prueba. No implica comprensión, juicio contextual ni capacidad de investigación original (OpenAI, 2023).

Implicaciones para la noción de expertise: La pericia humana involucra no solo conocimiento declarativo y habilidad procedimental, sino también juicio situacional, responsabilidad epistémica, capacidad de reconocer los límites del propio conocimiento y habilidad para operar en situaciones de incertidumbre genuina. Ningún banco de pruebas actual captura todas estas dimensiones de la expertise (Rooij et al., 2024).

Riesgos de la denominación: Calificar un sistema de IA como “PhD-level” puede generar una confianza injustificada en sus outputs, erosionar el valor percibido de la formación doctoral humana y oscurecer las diferencias cualitativas entre rendimiento algorítmico y comprensión genuina.

El caso ilustra una tensión central en la discontinuidad de la IA: la tendencia a describir las capacidades de los sistemas algorítmicos usando categorías diseñadas para evaluar la cognición humana. Esta traducción categorial no es inocua: configura expectativas, moldea políticas educativas y laborales, y puede contribuir a una reconfiguración del pensamiento subyacente en la que la noción de saber se reduzca a la de rendir adecuadamente en tests estandarizados —una reducción que la epistemología ha criticado consistentemente desde al menos los trabajos de Gilbert Ryle sobre la distinción entre knowing that y knowing how.

  • Edwards (2025)
  • Rooij et al. (2024)
  • OpenAI (2023)
  • Sublimé & Kalinicheva (2024)

5.4.4 Gobernanza y regulación de la IA: primeras respuestas institucionales

La velocidad de desarrollo de los sistemas de IA ha generado una asimetría significativa entre las capacidades tecnológicas disponibles y los marcos normativos existentes para su regulación. Las respuestas institucionales más destacadas incluyen el EU AI Act (2024), primera regulación comprehensiva de la IA a nivel mundial, que establece un sistema de clasificación por niveles de riesgo; la Declaración de Bletchley sobre seguridad de la IA (2023), firmada por 28 países; y diversas iniciativas sectoriales como las directrices de la UNESCO sobre ética de la IA (Bengio et al., 2024; European Parliament and Council, 2024).

Estas respuestas regulatorias constituyen un indicador relevante del impacto de la IA en el pensamiento subyacente: cuando una discontinuidad tecnológica genera la necesidad de marcos normativos enteramente nuevos, es señal de que está reconfigurando presupuestos fundamentales sobre agencia, responsabilidad y gobernanza del conocimiento. El debate regulatorio sobre la IA trasciende la mera gestión de riesgos técnicos: involucra cuestiones epistemológicas profundas sobre qué decisiones pueden delegarse en sistemas algorítmicos, qué formas de transparencia son exigibles y cómo preservar la autonomía epistémica de los ciudadanos frente a la mediación algorítmica (Floridi, 2019).

El Reglamento de Inteligencia Artificial de la Unión Europea (EU AI Act), adoptado en 2024 y con entrada en vigor escalonada hasta 2027, constituye el primer marco regulatorio comprehensivo de la IA a escala mundial. Su enfoque basado en niveles de riesgo (inaceptable, alto, limitado, mínimo) establece un precedente normativo que ha influido en la agenda regulatoria de múltiples jurisdicciones (European Parliament and Council, 2024).

Enfoque basado en riesgo: El EU AI Act clasifica los sistemas de IA según el riesgo que representan para los derechos fundamentales. Los sistemas de “riesgo inaceptable” (scoring social, manipulación subliminal) quedan prohibidos; los de “alto riesgo” (selección de personal, diagnóstico médico, justicia) quedan sujetos a requisitos estrictos de transparencia, gobernanza de datos y supervisión humana.

Implicaciones epistemológicas: La regulación presupone que es posible y deseable mantener la supervisión humana significativa sobre los sistemas de IA, lo que implica una concepción de la relación humano-máquina en la que la agencia epistémica última reside en personas con capacidad de juicio contextual, no en sistemas algorítmicos.

Limitaciones reconocidas: La velocidad de evolución de la IA puede hacer que categorías regulatorias diseñadas en 2023–2024 resulten inadecuadas para sistemas desarrollados pocos años después. El carácter territorial de la regulación europea contrasta con la naturaleza global de las infraestructuras de IA.

El EU AI Act representa un intento de preservar ciertos componentes del pensamiento subyacente democrático —transparencia, rendición de cuentas, respeto a derechos fundamentales— frente a una discontinuidad tecnológica que amenaza con reconfigurarlos. Su eficacia dependerá de la capacidad de las instituciones para mantener el ritmo de la innovación tecnológica sin renunciar a los principios normativos que justifican la regulación.

  • European Parliament and Council (2024)
  • Bengio et al. (2024)
  • Floridi (2019)
  • Coeckelbergh (2020)

5.5 Implicaciones en un contexto de fragmentación epistémica

5.5.1 Alfabetización epistémica en la era digital

La convergencia de las discontinuidades analizadas en las secciones precedentes —digitalización, plataformas algorítmicas, IA generativa— está configurando un nuevo estrato del pensamiento subyacente cuyas características resultan, en varios aspectos, cualitativamente diferentes de los estratos anteriores. A diferencia de las revoluciones científicas clásicas, que depositaban contenidos conceptuales asimilables a través de los sistemas educativos formales, la discontinuidad digital-algorítmica reconfigura los procesos mismos mediante los cuales las personas acceden, evalúan y utilizan la información.

La alfabetización epistémica —entendida como la capacidad de evaluar la fiabilidad de las fuentes, distinguir entre evidencia y opinión, reconocer sesgos cognitivos y algorítmicos, y actuar de manera crítica y responsable en ecosistemas informativos complejos— se convierte en una competencia tan fundamental como lo fue la alfabetización textual para las sociedades posteriores a la imprenta (Bauer et al., 2000; World Economic Forum, 2025).

Esta nueva forma de alfabetización requiere integrar competencias de diversa naturaleza: comprensión básica del funcionamiento de los algoritmos de recomendación y generación, habilidad para verificar información de manera autónoma, conciencia de los propios sesgos cognitivos y capacidad de mantener un juicio epistémico independiente frente a la presión conformista de las cámaras de eco digitales (Nguyen, 2020).

5.5.2 Concentración de poder tecnológico y asimetrías cognitivas

Un rasgo distintivo de la discontinuidad actual es la concentración sin precedentes del poder tecnológico en un reducido número de corporaciones. Las empresas que controlan las infraestructuras de IA —los datos de entrenamiento, la capacidad computacional, los modelos y las plataformas de distribución— ejercen una influencia desproporcionada sobre las condiciones de producción y circulación del conocimiento (Rikap, 2022).

Esta concentración genera asimetrías cognitivas estructurales. Quienes controlan los sistemas de IA tienen acceso a capacidades de procesamiento, análisis y generación de contenido que sobrepasan lo que cualquier individuo o institución académica puede alcanzar por sus propios medios. En la medida en que el pensamiento subyacente se configure crecientemente a través de la mediación algorítmica, el control sobre estos sistemas equivale a un control sobre los marcos cognitivos compartidos, con implicaciones que trascienden la esfera económica y pueden condicionar directamente la calidad epistémica del debate público y la autonomía intelectual de los ciudadanos (Crawford, 2021; Zuboff, 2019).

Plataformas que operan simultáneamente como red social, motor de recomendación y herramientas generativas pueden ser gestionadas como instrumentos de desinformación y ariete ideológico al servicio de grupos radicales. Cuando esto ocurre, los gestores corporativos dejan de ser instancias más o menos respetables en su nicho de negocio para convertirse en actores epistémicos centrales, cuya actividad no puede resultar ajena a los mecanismos de escrutinio y rendición de cuentas vigentes para otros medios de comunicación (Allcott & Gentzkow, 2017; Salas, 2026).

Al controlar tanto la infraestructura de distribución como los algoritmos de priorización y generación de contenido, este tipo de corporaciones pueden institucionalizar sesgos informativos, transformar agendas públicas y erosionar la pluralidad informativa: la provisión de “servicios básicos de noticias” pasa a depender de criterios corporativos opacos y de incentivos de plataforma y anunciantes, no de estándares periodísticos o deliberativos. Ese doble rol —productor y distribuidor— intensifica la captura de marcos cognitivos compartidos y agrava la fragmentación epistémica, porque la audiencia recibe flujos informativos filtrados y optimizados por objetivos algorítmicos que no cabe suponer, sin más, alineados con el interés público. Frente a este riesgo, las políticas públicas deben reconocer a tales plataformas como infraestructura epistémicamente relevante, y exigir transparencia algorítmica, auditorías independientes y salvaguardas que preserven el pluralismo, la neutralidad y la autonomía deliberativa (Gorwa et al., 2020; San Juan, 2026).

5.5.3 Conexiones con la fragmentación epistémica

El análisis desarrollado en este capítulo proporciona el sustrato conceptual necesario para abordar, en el capítulo siguiente, la confrontación entre comunidades profesionales ancladas en la realidad y grupos de afinidad ideológica. Las discontinuidades tecnológicas analizadas —especialmente la digitalización y la IA— crean las condiciones estructurales para la fragmentación epistémica: la personalización algorítmica de la información, la facilidad de producción de contenido desinformativo y la erosión de los gatekeepers tradicionales del conocimiento generan un entorno en el que es posible habitar burbujas epistémicas coherentes internamente pero desconectadas de la evidencia compartida (Benkler et al., 2018; Nguyen, 2020).

El pensamiento subyacente, como concepto analítico, permite entender esta fragmentación no como un mero fallo de comunicación o un déficit educativo, sino como un efecto estructural de la reconfiguración tecnológica de las condiciones de producción y circulación del conocimiento. Las implicaciones de esta perspectiva para la defensa de los valores democráticos y la calidad del debate público serán el objeto central del capítulo 6.

5.6 Síntesis y mapa conceptual

El recorrido realizado en este capítulo permite identificar un patrón recurrente en la relación entre revoluciones científicas, discontinuidades tecnológicas y pensamiento subyacente. Cada transformación mayor deposita un estrato cognitivo que modifica los presupuestos compartidos sobre la naturaleza de la realidad, las herramientas legítimas para conocerla y los criterios de evaluación del conocimiento. Estos estratos se acumulan, interactúan y, en ocasiones, entran en tensión: el pensamiento subyacente de una sociedad no es un bloque monolítico sino un conjunto estratificado de presupuestos de diferente profundidad y resistencia al cambio.

La discontinuidad asociada a la IA generativa presenta características que la distinguen de las precedentes en al menos tres aspectos: su velocidad de difusión, su capacidad para actuar como mediador cultural (y no solo como herramienta) y su potencial para reconfigurar tanto los contenidos como los procesos del pensamiento subyacente. Estas características exigen nuevas formas de alfabetización epistémica, marcos regulatorios adaptativos y una vigilancia sostenida sobre las asimetrías de poder que la concentración tecnológica genera.

NotaMapa conceptual del capítulo

flowchart TD
    A["<b>PENSAMIENTO SUBYACENTE</b><br/>Trasfondo cognitivo compartido"] --> B["Revoluciones<br/>científicas"]
    A --> C["Discontinuidades<br/>tecnológicas"]
    A --> D["Implicaciones<br/>epistemológicas"]
    
    B --> B1["Copernicana:<br/>observador no privilegiado"]
    B --> B2["Darwiniana:<br/>continuidad naturalista"]
    B --> B3["Relatividad/Cuántica:<br/>contraintuitividad"]
    B --> B4["Información:<br/>digitalización"]
    
    C --> C1["Fundacionales:<br/>agricultura, escritura"]
    C --> C2["Aceleración:<br/>imprenta, industria"]
    C --> C3["Masificación:<br/>medios, Internet"]
    C --> C4["IA generativa:<br/>mediador cultural"]
    
    D --> D1["Alfabetización<br/>epistémica"]
    D --> D2["Asimetrías<br/>cognitivas"]
    D --> D3["Fragmentación<br/>epistémica → Cap.6"]
    
    B4 --> C3
    C3 --> C4
    C4 --> D1
    C4 --> D2
    C4 --> D3
    
    style A fill:#e69500,stroke:#333,stroke-width:3px,color:#000
    style D3 fill:#4a9eff,stroke:#333,stroke-width:2px,color:#000

Mapa conceptual: El pensamiento subyacente


5.7 Talleres

Elabore un inventario de los principales componentes del pensamiento subyacente que ha incorporado a lo largo de su formación. Distinga entre:

  1. Componentes derivados de revoluciones científicas (ej.: heliocentrismo, selección natural, relatividad, computabilidad)
  2. Componentes derivados de discontinuidades tecnológicas (ej.: habilidades digitales, interacción con algoritmos, uso de IA)
  3. Componentes de origen mixto (ej.: concepto de ADN, noción de red, pensamiento estadístico)

Para cada componente, identifique el mecanismo de incorporación principal (sistema educativo formal, medios de comunicación, entorno digital, prácticas profesionales, otro).

Compare su inventario personal con el pensamiento subyacente que usted considera necesario para un ciudadano informado en 2026. Identifique:

  1. Al menos 3 componentes que posee pero que considera infrautilizados en su entorno social
  2. Al menos 3 componentes que considera deficitarios en su propia formación
  3. Al menos 2 componentes que identifica como emergentes (incorporados en los últimos 5 años)

Seleccione un campo profesional de su interés y elabore una proyección a 10 años:

  1. ¿Qué componentes nuevos del pensamiento subyacente serán probablemente necesarios para ejercer esa profesión en 2036?
  2. ¿Qué componentes actuales podrían quedar obsoletos o ser reemplazados por mediación algorítmica?
  3. ¿Qué implicaciones tiene esta proyección para el diseño curricular de la formación universitaria?
Criterio Insuficiente (0–4) Adecuado (5–7) Excelente (8–10)
Inventario Lista superficial sin categorización Categorización correcta con ejemplos relevantes Inventario detallado con mecanismos de incorporación bien identificados
Análisis de brechas Descripción genérica sin fundamentación Identificación de brechas con justificación razonable Análisis crítico que conecta brechas con consecuencias epistémicas
Prospectiva Proyección vaga o puramente especulativa Proyección fundamentada en tendencias identificables Proyección que integra evidencia, incertidumbre y alternativas
Integración conceptual No utiliza el marco teórico del capítulo Utiliza algunos conceptos del capítulo Integra fluidamente el modelo analítico de discontinuidades
Calidad argumentativa Afirmaciones sin justificar Argumentos razonables con algún soporte Argumentación rigurosa con fuentes y contraargumentos

Seleccione dos discontinuidades de las analizadas en §5.3 y documéntelas utilizando al menos 3 fuentes académicas adicionales a las proporcionadas en el capítulo. Para cada una:

  1. Describa brevemente el contexto histórico de aparición
  2. Identifique los actores principales involucrados en su desarrollo y difusión
  3. Documente la cronología de su impacto (¿cuánto tardó en modificar el pensamiento subyacente?)

Aplique el modelo de cuatro dimensiones (§5.3.1) a cada discontinuidad seleccionada:

Dimensión Discontinuidad A Discontinuidad B
Cognitiva
Social-institucional
Epistémica
Político-económica

Redacte un ensayo comparativo (1.500–2.000 palabras) que aborde:

  1. ¿En qué dimensiones difieren más las dos discontinuidades seleccionadas?
  2. ¿Existen patrones comunes en su impacto sobre el pensamiento subyacente?
  3. ¿Qué lecciones de la discontinuidad más antigua son aplicables a la comprensión de la más reciente?
Criterio Insuficiente (0–4) Adecuado (5–7) Excelente (8–10)
Documentación Fuentes insuficientes o irrelevantes 3+ fuentes académicas pertinentes Fuentes de calidad con análisis crítico de su aportación
Aplicación del modelo Aplicación superficial o incompleta Las 4 dimensiones cubiertas para ambas Análisis matizado que identifica interacciones entre dimensiones
Comparación Yuxtaposición sin análisis genuino Comparación con identificación de similitudes y diferencias Análisis comparativo que genera insights no triviales
Calidad del ensayo Estructura débil, argumentación pobre Estructura clara con argumentos razonables Ensayo bien estructurado con tesis explícita y desarrollo riguroso
Uso de fuentes Citas decorativas o ausentes Fuentes integradas en la argumentación Diálogo crítico con las fuentes, incluidas las del capítulo

El docente proporcionará un corpus de 6 textos académicos breves (300–500 palabras cada uno) sobre un tema epistemológico. Tres habrán sido escritos por humanos y tres generados por IA (sin indicar cuáles). Para cada texto:

  1. Lea cuidadosamente y tome notas sobre estilo, estructura y contenido
  2. Identifique marcadores que sugieran autoría humana o algorítmica (cf. EC-3, §5.4.2)
  3. Clasifique cada texto como “humano”, “IA” o “incierto” con justificación

Para cada texto del corpus, independientemente de su autoría:

  1. Evalúe la calidad epistémica del contenido: ¿las afirmaciones están justificadas? ¿las fuentes son verificables? ¿el razonamiento es válido?
  2. Identifique al menos un punto fuerte y una debilidad epistémica
  3. Proponga una mejora concreta para cada texto

Redacte una reflexión (800–1.000 palabras) sobre:

  1. ¿Qué criterios resultaron más útiles para distinguir autoría humana de algorítmica?
  2. ¿La calidad epistémica del contenido correlaciona con la autoría? ¿Por qué?
  3. ¿Qué implicaciones tiene este ejercicio para la evaluación del conocimiento en la era de la IA generativa?
Criterio Insuficiente (0–4) Adecuado (5–7) Excelente (8–10)
Clasificación Clasificaciones sin justificar o aleatorias Clasificaciones razonadas con criterios explícitos Clasificaciones bien argumentadas con marcadores específicos
Evaluación epistémica Evaluación superficial o genérica Evaluación que distingue fortalezas y debilidades Evaluación detallada con criterios de calidad epistémica operativos
Propuestas de mejora Sugerencias vagas o irrelevantes Propuestas concretas y pertinentes Propuestas que demuestran comprensión profunda de la calidad epistémica
Reflexión metacognitiva Descripción superficial sin análisis Reflexión que conecta la experiencia con conceptos del capítulo Reflexión que genera insights sobre la relación entre IA, autoría y conocimiento

Seleccione un campo profesional específico (medicina, derecho, educación, periodismo, ingeniería, investigación científica u otro) y elabore un análisis del estado actual de integración de la IA en ese campo:

  1. ¿Qué tareas del campo ya están siendo mediadas o automatizadas por IA?
  2. ¿Qué componentes del pensamiento subyacente profesional en ese campo están siendo afectados?
  3. Identifique al menos 2 fuentes recientes (2024–2026) que documenten estos cambios

Elabore tres escenarios a 10 años para el campo seleccionado, siguiendo la metodología de planificación por escenarios:

Escenario A — Democratización tecnológica: Acceso universal a herramientas de IA, redistribución de la expertise, diversificación profesional.

Escenario B — Oligopolio tecnológico: Concentración del control de la IA en pocas corporaciones, profundización de desigualdades, homogeneización de las prácticas profesionales.

Escenario C — Regulación democrática: Marco regulatorio robusto y participativo, balance entre innovación y derechos fundamentales, gobernanza multinivel.

Para cada escenario, especifique: supuestos clave, implicaciones para el pensamiento subyacente profesional, consecuencias para la formación universitaria.

Formule recomendaciones concretas para:

  1. El diseño curricular universitario en el campo seleccionado
  2. Las políticas de regulación profesional
  3. La alfabetización epistémica de los ciudadanos que interactúan con profesionales de ese campo
Criterio Insuficiente (0–4) Adecuado (5–7) Excelente (8–10)
Análisis del estado actual Descripción vaga sin fuentes Análisis documentado con fuentes pertinentes Análisis exhaustivo que integra evidencia reciente
Diseño de escenarios Escenarios genéricos o implausibles Escenarios diferenciados con supuestos explícitos Escenarios ricos, internamente coherentes y empíricamente fundamentados
Implicaciones para el pensamiento subyacente No se conecta con el marco conceptual Conexiones razonables con el marco del capítulo Análisis profundo de cómo cada escenario reconfigura el pensamiento subyacente
Recomendaciones Genéricas o desconectadas del análisis Concretas y derivadas del análisis Innovadoras, viables y fundamentadas en el análisis previo

Se asignan cuatro roles para el debate:

  • Regulador (UE/UNESCO): Defiende la necesidad de marcos normativos estrictos basados en derechos fundamentales
  • Empresa tecnológica: Argumenta que la autorregulación y la innovación son más eficaces que la regulación externa
  • Academia: Reivindica el papel de la investigación independiente y la evaluación rigurosa
  • Sociedad civil: Enfatiza la participación ciudadana, la transparencia y los derechos digitales

Cada participante deberá: a) Investigar la posición del actor asignado utilizando al menos 3 fuentes documentadas b) Preparar un argumento principal (3 minutos) y anticipar contraargumentos c) Identificar áreas potenciales de acuerdo con al menos uno de los otros actores

Estructura: 1. Exposición inicial de cada actor (3 min × 4 = 12 min) 2. Ronda de réplicas cruzadas (2 min × 4 = 8 min) 3. Debate abierto moderado (15 min) 4. Propuesta de consenso: cada actor formula una concesión y una línea roja (10 min)

Redacte un informe post-debate (1.000–1.200 palabras) que incluya: a) Resumen de las posiciones principales y sus fundamentos b) Identificación de los puntos de mayor tensión epistémica c) Evaluación personal argumentada: ¿qué modelo de gobernanza consideraría óptimo para preservar la calidad del pensamiento subyacente colectivo?

Criterio Insuficiente (0–4) Adecuado (5–7) Excelente (8–10)
Preparación Investigación superficial, sin fuentes Fuentes relevantes con argumentos estructurados Investigación exhaustiva con anticipación de contraargumentos
Participación en el debate Intervenciones escasas o desconectadas Participación activa y respetuosa Contribuciones sustantivas que hacen avanzar la discusión
Capacidad de escucha y réplica No responde a los argumentos de otros Responde pero de forma superficial Réplicas que demuestran comprensión profunda de las posiciones
Informe de síntesis Descripción sin análisis Síntesis con evaluación personal razonada Análisis crítico que integra perspectivas múltiples y formula propuesta fundamentada
Uso del marco conceptual No conecta con los conceptos del capítulo Algunas conexiones pertinentes Integración fluida del concepto de pensamiento subyacente y el modelo analítico