1 La teoría del conocimiento ante las nuevas teorías científicas
La relación entre gnoseología filosófica y disciplinas científicas emergentes o consolidadas es compleja y difícil de precisar, al menos desde finales del siglo XVIII. Si proyectáramos los criterios de demarcación de la epistemología contemporánea hacia el pasado, habrían resultado dudosas o metodológicamente cuestionables muchas prácticas que contribuyeron a desarrollos tan exitosos como el descubrimiento de Urano en 1781 (William Herschel), los experimentos con pilas eléctricas de Alessandro Volta en 1800, la teoría atómica de John Dalton en 1808, la teoría cinética de los gases desarrollada entre 1802 y 1808 (Robert Boyle, Jacques Charles, Joseph Gay-Lussac), y los experimentos en electromagnetismo de Hans Christian Oersted, André-Marie Ampère y Michael Faraday entre 1820 y 1830.
1.1 De la filosofía natural a la ciencia contemporánea
Aunque la revolución científica moderna se había producido entre los siglos XVI y XVII, la consolidación del método hipotético-deductivo en la Filosofía Natural fue acompañada de elementos especulativos, incertidumbres y prejuicios ontológicos acerca del valor de la inducción, la obtención de evidencia y los conceptos de causalidad aplicables en física y biología. Los esfuerzos de clarificación conceptual tuvieron resultados notables en física (termodinámica, electromagnetismo), en biología (teoría de la evolución por selección natural) y en psicología (percepción y papel de las sensaciones en el conocimiento). Pero puede sorprender el tiempo que se mantuvieron intactas abstracciones como las de tiempo y espacio absolutos en la mecánica newtoniana, junto con otras muchas consideraciones acríticamente asumidas procedentes de la alquimia y la astrología de la época (Newton, 1686/2011).
El avance simultáneo de diversas ramas de la filosofía natural entre 1780 y 1840 originó nuevas disciplinas y ramas de la ciencia contemporánea, que cristalizaron en desarrollos teóricos tan notables como la teoría de la formación de los planetas de Laplace o la ampliación de la tabla periódica de los elementos químicos por Mendeléiev. Los nuevos protocolos de investigación y trabajo sistemático de laboratorio redujeron el papel del azar en muchos resultados y facilitaron descubrimientos como el de los microorganismos por Pasteur —demostrando así la causa de muchas enfermedades infecciosas y haciendo viables los primeros ensayos de vacunación— o, tras una revisión sistemática de muestras recogidas durante su expedición a bordo del Beagle, el núcleo teórico-conceptual de la evolución por selección natural de Darwin y Wallace.
Sin embargo, los déficits teóricos y conceptuales en las metodologías de referencia dejaron en segundo plano contribuciones tempranas que, con décadas de perspectiva, resultaron cruciales para la comprensión de aspectos centrales de la biología y la psicología contemporánea (Piccolino & Bresadola, 2002), mientras daban audiencia y prestigio social a charlatanes de la frenología y la organología como Franz Joseph Gall, pese a las advertencias de profesionales destacados de la medicina y la cirugía de la época (Sakalauskaitė-Juodeikienė et al., 2017; Van Wyhe, 2002).
Del mismo modo que la física contemporánea se parece poco a lo que Aristóteles entendió por física, la teoría del conocimiento resultante de la interacción con la ciencia y la cultura desde finales del XVIII se parece poco a la gnoseología renacentista. Y es así pese al papel destacado que desempeñaron autores como René Descartes, David Hume, John Locke o William Whewell en clarificar las fuentes y procedimientos de obtención de conocimiento fiable. Incluso Whewell —a quien se atribuye la propuesta de sustituir el término filósofo natural por científico, dada la importancia que otorgaba a la inducción— consideró perfectamente aceptable recurrir a causas sobrenaturales para explicar los saltos y vacíos en el registro fósil (Whewell, 1833), por lo que no debe sorprender su controversia con quienes, como John Stuart Mill, sostenían la importancia de la lógica frente a la inducción para ampliar el conocimiento fiable (Strong, 1955).
Durante la segunda mitad del siglo XX se consolida la epistemología como reflexión sistemática ligada a las ramas de la ciencia con mayor desarrollo: física, astrofísica, biología, bioquímica, genética molecular, computación y teoría de la información, entre otras. La diferencia con respecto a periodos anteriores —en los que la gnoseología filosófica mantenía lazos estrechos con la filosofía natural y el pensamiento matemático— deriva de la complejidad de las relaciones interdisciplinares, que dificulta la coordinación entre saberes especializados, y de la mayor dificultad para conectar metodologías, herramientas de trabajo y dominios de conocimiento alejados entre sí pero relevantes para aportar soluciones eficaces en problemas complejos.
Otro aspecto que condiciona el desarrollo de la teoría del conocimiento atañe al papel de la tecnología como factor determinante para el avance de la investigación científica. En la historia de la ciencia y la tecnología se alude a la big science para explicar los cambios en la investigación científica ocurridos en los países industrializados durante y después de la Segunda Guerra Mundial. La investigación científica de calidad tiene como referente el modelo de proyectos a gran escala con financiación estatal —la condición de posibilidad material, profesional y financiera requerida para consolidar los grandes equipos de trabajo e instalaciones responsables de las mayores transformaciones sociales, culturales, productivas y medioambientales de las últimas décadas.1
La complejidad creciente y la naturaleza multidimensional de los problemas en los que disciplinas científicas, tecnología, desarrollos normativos y ciencias sociales deben coordinarse para encontrar soluciones óptimas constituye un nuevo contexto de desafíos para la epistemología contemporánea, involucrada a menudo en problemas de carácter ético, político o geoestratégico para los que carecía de perspectiva ni base teórico-conceptual (Bennett & Gadlin, 2012; Repko & Szostak, 2016).
Véase la bibliografía completa en el archivo references-cap1.bib. Referencias principales de esta sección:
- Newton (1686/2011) — Principios matemáticos de la filosofía natural
- Piccolino & Bresadola (2002) — Contribuciones tempranas en neurociencia
- Van Wyhe (2002); Sakalauskaitė-Juodeikienė et al. (2017) — Frenología y pseudociencia en el siglo XIX
- Repko & Szostak (2016) — Investigación interdisciplinar
- Bennett & Gadlin (2012) — Ciencia de equipos y colaboración
G. Sher (2016). “An Outline of a Foundation for Logic” (de: Epistemic Friction: An Essay on Knowledge, Truth, and Logic, cap. 10). Oxford University Press, pp. 253–338.
Ideas básicas del argumento de Sher:
- La lógica está fundamentada tanto en la mente como en el mundo, y estos fundamentos están interconectados.
- La lógica debe funcionar en el mundo y, por tanto, debe estar limitada por él.
- Lecciones de la historia y situaciones hipotéticas muestran que la lógica es vulnerable a errores fácticos.
- La formalidad explica los rasgos característicos de la lógica (generalidad considerable, fuerte fuerza modal, neutralidad de tema, abstracción, normatividad).
- El criterio de invariancia bajo isomorfismos resuelve el problema de Tarski (1936) sobre constantes lógicas.
- El formalismo semántico proporciona una base común para la lógica y las matemáticas en los aspectos formales de la realidad.
Implicaciones para la IA y la cognición artificial:
Los avances en modelos de lenguaje plantean si sistemas capaces de manipular estructuras formales con alto rendimiento constituyen genuinos agentes lógicos o simuladores sofisticados de razonamiento. Véanse Hu & Ying (2025) sobre el Unified Mind Model para agentes autónomos LLM, Kvam et al. (2024) sobre modelos computacionales de decisión, y Diaz-Asper et al. (2024) sobre tecnologías lingüísticas en investigación conductual.
1.2 La evolución del conocimiento científico en el siglo XXI
El dinamismo de diversos dominios de investigación teórica y aplicada en el panorama científico actual contribuye a expandir los límites del conocimiento y a redefinir las metodologías y herramientas de trabajo con mayor potencial para transformar la sociedad de los próximos años.
1.2.1 Inteligencia artificial y grandes modelos de lenguaje
Los desarrollos en inteligencia artificial y el acceso masivo a servicios potenciados por las capacidades de los grandes modelos de lenguaje (LLM) y sistemas preentrenados pueden contribuir a acelerar fases de la investigación cuantitativa, depurar resultados y mitigar sesgos en su interpretación. Pero también proporcionan herramientas poderosas a usuarios malintencionados dispuestos a recurrir al fraude, la invención de datos y la fabricación de evidencia, con el riesgo de inducir procesos de hiperproducción o simulación artificiosa de capacidades científicas.
La creciente dificultad para distinguir entre autoría humana y producción automatizada de contenidos carentes de rigor puede tener un efecto gravemente distorsionador de la calidad del debate público y de la participación democrática. Sus implicaciones epistémicas atañen a las fuentes de evidencia, a la calidad de los procesos de filtrado y supervisión experta, a la validación de los modelos y al marco regulador necesario para evitar que cualquier actor disemine contenido de interés público sin las debidas garantías de objetividad, equilibrio y responsabilidad informativa (Moreno Muñoz, 2018a).
El problema comenzó a tener una incidencia social significativa con la manipulación de bots y sistemas de mensajería en redes sociales durante las campañas de 2016 en Reino Unido (Brexit) y EE.UU. (presidenciales, con victoria de D. Trump); pero adquiere dimensiones inquietantes como factor de desestabilización política, polarización y riesgo de ciberseguridad a gran escala en los años posteriores (Abellán López, 2023; Moreno Muñoz, 2021).
Una campaña de propaganda y acoso político orquestada con herramientas de IA fácilmente accesibles permite crear e introducir en redes y plataformas contenido sesgado con apariencia engañosa de rigor y base documental. Sin mecanismos adecuados de control, puede facilitar a grupos sin escrúpulos la amplificación de contenido discriminatorio, el refuerzo de prejuicios o el colapso de programas genuinos de acción social, de importancia vital para millones de personas (Lau, 2025; Lewandowsky et al., 2017; The Lancet HIV, 2021).
La IA generativa puede utilizarse para magnificar opiniones extremas y generar imágenes denigratorias o contenido que apela a emociones fuertes, activando reacciones irreflexivas en grandes sectores de la población e incrementando las oportunidades de conflictos incontrolados, sustentados en ecosistemas de información fragmentados, cámaras de eco y entornos culturales dominados por patrones de confirmación de creencias grupales (L. Chen et al., 2022; Reisach, 2021).
La dificultad para identificar el contenido generado por IA puede utilizarse para crear noticias falsas, imágenes manipuladas y discursos engañosos dirigidos a minar la confianza en los medios profesionalizados y en las instituciones de control. Sin capacidad para auditar el proceso de entrenamiento y la calidad de las fuentes de información utilizadas, será difícil establecer garantías robustas de transparencia, calidad, seguridad y reproducibilidad en los resultados obtenidos con tecnologías avanzadas de IA generativa (Dwivedi et al., 2021; Hamid & Brohi, 2024; Vesnic-Alujevic et al., 2020).
1.2.2 Biología sintética y edición genética avanzada
Con los desarrollos en biología sintética se asocia un potencial extraordinario para introducir rasgos inéditos en los sistemas biológicos existentes o desarrollar otros con funciones nuevas y mejoradas. Su potencial puede combinarse con desarrollos en medicina personalizada y con nuevas capacidades de simulación de procesos biológicos para ensayar fármacos innovadores (Bianchini, 2016; Mirza & Karim, 2019).
Técnicas avanzadas de edición genética ligadas al empleo de sistemas CRISPR/Cas y sus alternativas establecen nuevos márgenes de precisión para el desarrollo de organoides y modelos más realistas con los que ampliar los conocimientos biológicos y poner a prueba nuevos tratamientos. En conjunto, aportan posibilidades inéditas de comprensión de aspectos evolutivos, fisiológicos, genéticos y organizativos de gran interés para los estudios comparativos del comportamiento y la cognición (Martin et al., 2019).
Sobre las aplicaciones de los sistemas CRISPR y otras técnicas de edición genética puede consultarse Moreno Muñoz, M. (2024). Biotecnología, ética y sociedad. Monografía técnica M3856121 (v.3 2024), Cap. 4. Zenodo. https://doi.org/10.5281/zenodo.14172960
1.2.3 Implicaciones para la epistemología
La investigación científica contemporánea ha expandido notablemente los objetivos y problemas que interesan a la epistemología de la ciencia. Ya no se centra solo en las características del conocimiento producido por la ciencia y sus requisitos de objetividad, racionalidad y verificabilidad, sino que ha reforzado la pertinencia de una teoría del conocimiento capaz de integrar desarrollos interdisciplinares en dominios consolidados y emergentes, tecnologías ligadas a la big science, y el desafío de los desarrollos en computación cuántica, inteligencia artificial y neurociencia cognitiva como base de nuevas posibilidades de comprensión de la naturaleza humana y del potencial de ampliación del conocimiento, más allá de las limitaciones impuestas por el sustrato biológico o el diseño evolutivo.
- Abellán López (2023); Moreno Muñoz (2021); Moreno Muñoz (2018a) — Negacionismo y mediación tecnológica
- Lewandowsky et al. (2017) — Posverdad y desinformación
- Reisach (2021); L. Chen et al. (2022) — Manipulación en redes sociales
- Dwivedi et al. (2021); Vesnic-Alujevic et al. (2020); Hamid & Brohi (2024) — IA: perspectivas multidisciplinares
- Mirza & Karim (2019); Bianchini (2016); Martin et al. (2019) — CRISPR, biología sintética
1.3 La evolución de la epistemología
Las tres últimas décadas han proporcionado perspectiva y evidencia robusta sobre el alcance devastador de la crisis climática y el papel que juegan la ciencia, la tecnología y el entramado industrial de producción, transporte y distribución de productos de consumo en la aceleración de su impacto físico y humano. Sin embargo, la calidad, extensión y nivel de consenso experto asociado con los resultados de la investigación interdisciplinar sobre el problema ambiental no han logrado el respaldo esperable de los sistemas de liderazgo y coordinación internacional vigentes. Las sociedades humanas se encuentran más próximas que nunca a un umbral crítico de crisis multidimensional, disrupción de los mecanismos de cooperación global y falta de escala en los recursos e iniciativas de adaptación y mitigación —antesala de un escenario catastrófico que expertos como Martin Rees califican de riesgo existencial (Rees, 2003; Spratt & Dunlop, 2019).
La preocupación por las cuestiones ambientales ha estado presente en la comunidad científica con mucha antelación a sus picos de visibilidad mediática, pero la percepción pública no ha evolucionado al ritmo con que se acumula conocimiento riguroso y evidencia sobre la escala e intensidad de los fenómenos catastróficos ligados al clima (Beard et al., 2021; Chung & Kim, 2018; Poumadère et al., 2011; Trisos et al., 2020). La dificultad para lograr que el conocimiento experto sirva de soporte a opiniones informadas en el debate público no es nueva: tiene precedentes en los intentos de transmitir el criterio de la comunidad experta sobre los riesgos asociados con la tecnología nuclear, las técnicas de recombinación genética y el uso de sustancias prohibidas en el medio ambiente (Goodfellow et al., 2011; Tzotzos et al., 2009).
A partir de la década de 1960, y con mayor énfasis en los años noventa, se difundieron contribuciones de investigadores con trayectoria científica destacada que acertaron al alertar a la opinión pública sobre la gravedad de ciertos problemas: Rachel Carson sobre el DDT y las poblaciones de insectos en Primavera silenciosa (1962); Edward O. Wilson sobre la barrera entre ciencias y humanidades en Consilience (1998) y la fragilidad de los ecosistemas; James Lovelock sobre la vulnerabilidad planetaria en La venganza de la Tierra (2006) y Novaceno (2019). Este grupo de divulgadores expertos comparte la disposición a contribuir, sin intermediarios no especializados, a generar opinión informada y sensibilizar sobre la gravedad de ciertos desafíos, proporcionando elementos valiosos para acciones sociales, educativas y reguladoras destinadas a preservar los bienes comunes.
En el siglo XXI han tenido un impacto destacable obras como Climate Cover-Up de James Hoggan (2009) y en particular Mercaderes de la duda de Naomi Oreskes y Erik Conway (2010), sobre las estrategias de desinformación, negacionismo y subestimación de riesgos asociados con la cuestión ambiental, el efecto del tabaco en la salud y el deterioro de la capa de ozono. El mérito de estas contribuciones ha sido mostrar la necesidad de integrar conocimientos, metodologías de trabajo y estrategias de comunicación para identificar, prevenir y contrarrestar las acciones de desinformación y prolongación artificial de controversias que impiden adoptar medidas eficaces ante problemas globales acuciantes (Brysse et al., 2013; Hansson, 2017; Moreno Muñoz, 2018b).
Este tipo de contribuciones han hecho evolucionar también el alcance, las prioridades y las metodologías de la epistemología reciente. No basta pasar de puntillas por el problema de la desinformación y los criterios de demarcación entre ciencia y pseudociencia, como si se tratase de aspectos que solo condicionan las decisiones de personas incautas sobre un tratamiento de salud equivocado. Cuando las dinámicas de irracionalidad se convierten en fenómeno colectivo por el papel que adquieren tecnologías y plataformas diseñadas para captar la atención sin importar la veracidad de los contenidos, los demás ámbitos de la cultura y las cadenas de decisión resultan contaminados por opiniones absurdas, invenciones interesadas y polarización artificial, hasta generar escenarios de conflicto inmanejables (Hansson, 2017; Moreno Muñoz, 2018b).
Reflexiones que resultaban acertadas mientras quedaban circunscritas a las implicaciones de una rama particular de la ciencia resultan hoy insuficientes cuando el conocimiento científico pierde su valor como repertorio de la especie para gestionar el cambio y la incertidumbre. Las tendencias a la especialización disciplinar en la epistemología del siglo XX se han visto contrarrestadas por programas de reflexión interdisciplinar orientados a integrar conceptos, elementos teóricos e intereses con los que contribuir a un debate público más racional sobre problemas y amenazas de alcance global. Un escenario de crisis sin precedentes es también una oportunidad renovada para una teoría general del conocimiento (MacAskill, 2022; Rauch, 2021; Romanello et al., 2023).
Entre otros desafíos, se plantea el conflicto entre aceptar la incertidumbre inherente a la ciencia moderna —especialmente en campos como la física cuántica o las ciencias del clima— y divulgar las implicaciones del conocimiento bien consolidado acerca de riesgos cuyos procesos causales y escala de impactos son sistemáticamente ignorados o subestimados. La epistemología de la ciencia no puede limitarse a exponer criterios de racionalidad cuando los elementos de conocimiento interdisciplinar que deberían informar políticas públicas racionales se menosprecian, sea por impericia o por cabildeo de grupos dispuestos a invertir lo necesario para impedir cualquier cambio que menoscabe sus intereses.
Precisamente en el momento en que la biología molecular, la edición genética avanzada y la biología sintética permiten intervenir en procesos evolutivos antes considerados intocables —incluidos los vinculados al envejecimiento—, se hace evidente la magnitud de la pérdida de biodiversidad y la aceleración de extinciones provocadas por la acción humana, tal como advertía Edward O. Wilson en su propuesta de protección planetaria (2016). El riesgo de saturación informativa señalado por el propio Wilson a finales del siglo XX se ha convertido en un problema sistémico que las instituciones contemporáneas no logran contrarrestar, generando un déficit de pensamiento crítico que amenaza la estabilidad de las democracias avanzadas (1998). Esta doble crisis —ecológica y cognitiva— subraya la urgencia de articular estrategias ambiciosas que permitan sintetizar conocimiento fiable y orientar la acción colectiva hacia la preservación de la vida y de la propia racionalidad pública.
A la cacofonía de fuentes, canales y piezas informativas se suma hoy el potencial de la inteligencia artificial para emular o mejorar la competencia humana promedio en tareas intelectualmente exigentes. Nunca ha sido tan fácil imitar la apariencia de prácticas epistémicas genuinas con versiones fraudulentas capaces de eludir controles básicos de calidad. Las posibilidades de fraude científico y exageración de méritos elevan a una nueva dimensión la discusión sobre los criterios de demarcación, el componente institucional y el papel de la teoría del conocimiento como ámbito de reflexión interdisciplinar, capaz de evolucionar en función de los avances científicos y tecnológicos y de adaptarse a una pluralidad creciente de métodos y perspectivas (Scharre, 2023; Weisberg, 2014).
La epistemología contemporánea no puede desarrollarse vinculada solo a unas pocas ramas de la ciencia; opera bajo la presión selectiva de problemas, campos de investigación y prácticas epistémicas que desafían los límites del conocimiento humano, obligándola a ser tan innovadora y adaptable como las teorías científicas que busca comprender.
- Rees (2003); Spratt & Dunlop (2019) — Riesgo existencial
- Trisos et al. (2020); Beard et al. (2021) — Disrupciones ecológicas por cambio climático
- Hoggan (2009); Oreskes & Conway (2010) — Negacionismo y desinformación climática
- Romanello et al. (2023) — Informe Lancet Countdown 2023
- MacAskill (2022) — Ética intergeneracional
- Rauch (2021) — Constitución del conocimiento
1.4 Epistemología y teoría del conocimiento
La diferencia entre epistemología y teoría general del conocimiento puede interpretarse como una cuestión de enfoque, tradición y problemas de referencia. Ambas disciplinas se ocupan del estudio del conocimiento humano, pero lo hacen desde perspectivas distintas y con intereses diferentes. La epistemología es una rama de la teoría del conocimiento, pero no la agota ni la sustituye; se complementan, pero no se reducen una a la otra.
La filosofía especulativa fracasó en su intento de dar cuenta de los conceptos y teorías de la ciencia moderna, especialmente a partir de la crisis terminológica y reinterpretaciones constantes en varios campos de la física a finales del siglo XIX. Este proceso marca prácticamente el derrumbe de la filosofía especulativa como fundamento de la ciencia, tras un periodo de acumulación de dificultades explicativas y desajustes con el avance de las demás disciplinas científicas (Eastman et al., 2016).
Tampoco el empirismo llevó a buen puerto su intento de basar todo el conocimiento en los datos de los sentidos: el desafío de explicar la génesis y la validez de los conceptos científicos resultó mayor de lo esperado, y fracasaron los intentos de reducir las teorías a proposiciones observacionales (Doppelt, 2005).
Ese aparente fracaso de la epistemología en el siglo XX —en su pretensión de emular una teoría más general del conocimiento— difícilmente encajaba con las expectativas de progreso a partir del estudio focalizado en las ciencias particulares. La epistemología sigue asociada con el estudio del conocimiento científico en sus múltiples ramas, obtenido mediante procedimientos sistemáticos, racionales y sustentados en la evidencia. En este sentido, comparte su objeto con la filosofía de la ciencia: analizar la naturaleza, el origen, la estructura, los límites y la justificación del conocimiento científico, incluyendo los criterios de racionalidad y sus implicaciones (Gare, 2014).
La epistemología se desarrolla principalmente en el siglo XX, como consecuencia de los avances y las crisis de la ciencia moderna, inspirándose en las tradiciones empirista, racionalista y pragmatista de la filosofía moderna (con referentes tan heterogéneos como Karl Popper, Thomas Kuhn, Imre Lakatos, Paul Feyerabend, W. V. O. Quine o Bas van Fraassen). La preocupación por los elementos universalizables de cada sistema filosófico que serían de interés para una teoría general del conocimiento —según plantea Hessen (2006)— ha sido relegada en favor del estudio de cómo el conocimiento puede obtenerse mediante diversas fuentes, formas y modos, considerando también el carácter problemático de su cercanía a las tradiciones idealista, fenomenológica y hermenéutica (Kant, Hegel, Husserl, Heidegger, Gadamer) (Compton, 2002; Greco, 2023).
De resultar viable, el interés de una teoría general del conocimiento (TGC) —no limitada exclusivamente a la epistemología de las ciencias particulares— sería ofrecer una visión coherente del conocimiento humano que abarque sus diversas manifestaciones, fundamentos, alcance y limitaciones; y que ayude a entender cómo adquirimos, usamos y evaluamos el conocimiento, tanto en el ámbito científico como en la resolución de problemas de la vida cotidiana. Esto incluye la reflexión sobre sus implicaciones éticas, históricas, sociales y culturales, y tiene numerosos precedentes en los intentos de unificar dominios explicativos en física, biología y otras ciencias (Jones, 2013).
En ciencia, la unificación no es solo un objetivo epistémico, sino un proceso dinámico que implica desarrollos conceptuales y matemáticos, y puede requerir la reestructuración de las teorías concernidas. Como sostiene Margaret Morrison (2000), es improbable que tengan recorrido hoy las concepciones reduccionistas de la unificación que suponen que una teoría unificada debe derivar o explicar todas las demás. Tales enfoques ignoran la complejidad y diversidad de las prácticas científicas. Morrison propone una visión estructural de la unificación, centrada en las relaciones matemáticas y conceptuales que vinculan las diferentes teorías. Su ejemplo de referencia es la integración de la selección natural y la genética mendeliana en la genética evolutiva.
La TGC podría facilitar el diálogo y la colaboración entre las diferentes disciplinas, reconociendo sus conexiones y diferencias en los aspectos relevantes. El contexto cultural, científico y filosófico de la tercera década del siglo XXI se caracteriza por una gran complejidad y diversidad de manifestaciones, bajo el efecto de cambios que aceleran la multiplicación, especialización y fragmentación del conocimiento. Si bien la especialización abre nuevos espacios de creatividad para la investigación, la fragmentación puede contribuir a nuevas formas de irracionalidad y pérdida de foco entre la comunidad experta, precisamente cuando mayor es la necesidad de encontrar soluciones a problemas sin precedentes en su complejidad.
- Eastman et al. (2016) — Física y filosofía especulativa
- Doppelt (2005) — Realismo científico y éxito explicativo
- Greco (2023) — Idealización en epistemología
- Morrison (2000) — Unificación de teorías científicas
- Hessen (2006); Keller (1988) — Teoría general del conocimiento
- Bunge (1998); García (2006) — Epistemología: fundamentos
1.5 La crisis de los modelos deterministas y el problema de la demarcación
Entre los problemas que pueden analizarse como reflexiones preliminares para entender el interés de la teoría del conocimiento figuran la crisis de los modelos deterministas —por sus consecuencias para las metodologías de investigación científica— y el problema de la demarcación entre ciencia y otros productos culturales que compiten por un estatus o reconocimiento similar (Gordin, 2023).
1.5.1 Causalidad y determinismo
El primero obliga a analizar el concepto de causalidad, incluyendo su evolución desde el dominio teórico propio de la física clásica hasta sus versiones contemporáneas, conectadas con marcos de referencia y modelos del mundo físico completamente alejados del primero. En el paradigma clásico, el determinismo científico asume que los cambios en la realidad física se producen según principios totalmente predeterminados, sin una incidencia efectiva del azar —que no sería más que un fenómeno aparente—, aunque la complejidad del mundo lo haga casi impredecible en la práctica.
Entendida la causalidad como la relación necesaria entre causa y efecto, se aplica en ciencia a la relación entre acontecimientos, procesos y fenómenos con un patrón de regularidad y la producción de cierto resultado. La dependencia lógica y cronológica del efecto con respecto a la causa es el aspecto clave, pero pueden ser muchos los factores que intervengan en la relación causal. Se puede interpretar la causalidad como una abstracción que indica cómo progresa el mundo, con un estatus de concepto básico que resulta útil para explicar otros conceptos y para cuya explicación no cabe apelar a conceptos más básicos (Stanford, 2021).
En ciencia y filosofía, el principio de causalidad establece que para todo evento existe una causa de la que el propio evento es uno de los efectos. Los sucesos no se producen de manera aislada, sino en procesos de interacción e interdependencia. En la investigación científica se asume que la mejor forma de entender y explicar es descubriendo las causas, lo que abre la posibilidad de prevenir y controlar los efectos en el dominio del mesocosmos. Pero quedan fuera del alcance del concepto de causa tradicional los ámbitos explicativos cuya base teórica es probabilística —como en estadística inferencial y en los campos de las ciencias sociales donde los modelos más comunes dependen del análisis estadístico de las variables identificadas (Hoefer, 2021; Stanford, 2021).
La noción no probabilística de causalidad se asocia en física con el determinismo como enfoque explicativo, según el cual el estado del universo en un momento dado, su historia pasada y su evolución futura se explican por las leyes básicas de la física clásica. Las leyes del movimiento de Newton permiten deducir los estados en ambas direcciones del tiempo si alguien conociera las posiciones y momentos presentes de todas las partículas. La única limitación sería de tipo práctico (computacional), pero no ontológica (Hoefer, 2021).
1.5.2 Los límites del determinismo
El atractivo del enfoque determinista no se debe solo al carácter problemático de los enfoques rivales. Su poder explicativo y predictivo aporta herramientas para entender la cadena que asocia causas con efectos, pero a costa de difuminar el papel de la acción libre en cualquier eslabón de esa cadena. Si las leyes de la física son deterministas, y nuestras acciones son solo la suma de las interacciones de partículas, no queda espacio para la libre elección, porque los estados anteriores del universo habrán determinado el resultado. La aceptación del indeterminismo en la física cuántica —pese a que esta asociación puede resultar hoy acrítica— ha obligado a reconsiderar lo que significa “explicar” un fenómeno en ciencia, relegando el componente de certeza y sustituyéndolo por modelos probabilísticos que, dentro de los límites de nuestra capacidad de observación y medición, pueden ofrecer una explicación satisfactoria (E. K. Chen, 2023; Gea-Banacloche, 2022).
Tampoco el paradigma determinista clásico estaba exento de límites. A muchos efectos, no resultaba lo bastante determinista para explicar la complejidad de las condiciones iniciales que habrían podido llevar al universo actual (Del Santo, 2021). Y dejaba abierta la cuestión de cómo valores indeterminados de las magnitudes físicas se vuelven determinados (Del Santo & Gisin, 2019). Las declaraciones sobre el determinismo universal de Laplace y Du Bois-Reymond se hicieron desde un contexto y programa de investigación específicos —según van Strien (2021), no representaban una opinión mayoritaria, por lo que cabe considerar el determinismo de esta época más una expectativa que un resultado establecido—. Físicos como Mach, Poincaré y Boltzmann no consideraban el determinismo una afirmación sobre el mundo, sino más bien una característica de la investigación científica.
En la explicación del comportamiento humano resulta arriesgado evocar la teoría cuántica para defender el libre albedrío. Si no cabe descartar que el universo cuántico sea fuertemente determinista —incluso en términos a los que el paradigma clásico no podía aspirar—, no habrían existido más alternativas para hacer el Universo que las que lo han llevado a lo que es (E. K. Chen, 2023; Gea-Banacloche, 2022).
1.5.3 El problema de la demarcación
Las dificultades conceptuales del determinismo se plantean en un proceso análogo al seguido en el debate académico para establecer un criterio claro de demarcación científica. La comunidad experta enfatiza la importancia de la pluralidad metodológica y la tolerancia epistemológica, siempre que se mantengan filtros escépticos de tipo práctico: revisión por pares, replicabilidad de los resultados y transparencia en herramientas y metodologías. Se trata de criterios prácticos para evaluar la validez científica, más que requisitos de falsabilidad teórica, pero suficientes para excluir como pseudociencia muchos enunciados y enfoques, incluso en los paradigmas más tolerantes a la diversidad (Kuhn, 1962; Popper, 1959).
Una distinción neta entre ciencia y no-ciencia puede ser viable en la práctica pero controvertida en la teoría. El criterio popperiano de falsabilidad —según el cual una teoría es científica solo si se puede concebir una observación o experimento que la refute— es pertinente para distinguir entre productos de utilidad médica y pseudoterapias, pero su aplicación en ciencias sociales y en ámbitos donde coexisten discursos descriptivos, explicativos y prospectivos puede resultar controvertida. Y supone un desafío extraordinario en cualquier intento de probar empíricamente núcleos teóricos de gran complejidad como los de las ciencias del clima o la teoría de cuerdas (Coady & Corry, 2013).
Cuando un colectivo de investigadores en física teórica considera que su campo debe estar exento del requisito de comprobación experimental, proponiendo un criterio alternativo de “elegancia explicativa”, hace algo más que distanciarse del empirismo: altera el marco común de reglas sobre calidad metodológica y degrada su propio terreno profesional a una tierra de nadie entre las matemáticas, la física y la filosofía que no satisface las exigencias de ninguna de ellas. Abriéndose, además, a especulaciones infundadas sobre multiversos, teoría de cuerdas y ciencia post-empírica (Ellis & Silk, 2014; Portides, 2008; Rosenberg, 2005; Smolin, 2006).
Estas reflexiones bastan para constatar que el conocimiento científico tiene sus límites, teóricos y prácticos. La investigación se desarrolla dentro de marcos conceptuales que operan con un grado razonable de eficacia hasta que se acumulan casos de difícil explicación que demandan nuevos enfoques y herramientas, en lugar de justificar una rebaja en los criterios de racionalidad y calidad (Kuhn, 1962). La epistemología evoluciona en interacción con otras disciplinas que plantean desafíos teóricos y prácticos para la aplicación de nociones tan básicas como las de causalidad y determinación. Las dificultades no deberían difuminar el papel de los múltiples criterios de calidad epistémica bien consolidados ni el valor de los modelos e investigaciones con los que resultan compatibles. La ciencia no es la única respuesta a la necesidad humana de comprender el mundo, pero la forma en que lo hace se puede distinguir razonablemente de la religión, la mitología o el sentido común (Smolin, 2006).
- Gordin (2023) — El problema de la demarcación
- E. K. Chen (2023); Gea-Banacloche (2022) — Causalidad y determinismo en física cuántica
- Del Santo (2021); Del Santo & Gisin (2019) — Indeterminismo en física clásica
- Strien (2021) — Historia del determinismo en física
- Heisenberg (2000) — Física y filosofía
- Kuhn (1962); Popper (1959) — Revoluciones científicas y lógica del descubrimiento
- Ellis & Silk (2014) — Defensa de la integridad de la física
- Smolin (2006) — Crisis de la física teórica
F. Northrop, “Introduction”, en Heisenberg (2000), pp. 10–11, 15–16:
El estatus de la causalidad y el determinismo en la mecánica cuántica presenta una complejidad notable porque la física moderna permite al concepto de causalidad tener dos significados científicamente precisos, uno más fuerte que el otro, sin acuerdo entre los físicos sobre cuál designar con el término “causalidad”. Cuando se usa el término para designar el significado más fuerte, causalidad y determinismo se vuelven sinónimos. Cuando se sigue el otro uso, todo sistema determinista es causal, pero no todo sistema causal es determinista.
En las mecánicas newtoniana, einsteiniana y cuántica la causalidad es mecánica y no teleológica. Pero, mientras en Newton y Einstein es del tipo más fuerte (mecánica y determinista), en la mecánica cuántica es del tipo más débil (mecánica pero no determinista). La significación filosófica de la introducción de este tipo más débil de causación mecánica consiste en reconciliar el concepto de potencialidad objetiva —y en ese sentido ontológica— de la física aristotélica con el concepto de causación mecánica de la física moderna.
I. Hacking (1983). “Nineteenth Century Cracks in the Concept of Determinism”, Journal of the History of Ideas, 44, pp. 455, 468, 471:
El indeterminismo estadístico plantea una paradoja respecto del libre albedrío: cuando las leyes del mundo se vuelven estadísticas, el margen para la libre voluntad disminuye, si no se elimina. La idea de regularidades legales en las tasas de nacimiento y muerte era bien conocida tras la publicación del análisis de John Graunt (1662) sobre las Bills of Mortality de Londres. Los economistas franceses del siglo XVIII estaban convencidos de que debían existir leyes económicas tan rígidas como la mecánica celeste de Newton.
Henry Thomas Buckle argumentó en su History of Civilization in England (1857) que las acciones humanas están gobernadas por leyes tan fijas y regulares como las que rigen el mundo físico, anticipando una crisis conceptual que la mecánica cuántica llevaría después a su máxima expresión.
Tesis de partida: “Los nuevos desarrollos en biología molecular han invalidado los enfoques deterministas de la relación entre genotipo y fenotipo.”
Mario Bunge (1995). La ciencia, su método y su filosofía, cap. 12, pp. 90–92:
¿Es dogmático favorecer la extensión del método científico a todos los campos del pensamiento y de la acción consciente? El dogmático vuelve sempiternamente a sus escrituras en búsqueda de la verdad; la realidad le quemaría los papeles en los que imagina que está enterrada. En cambio, para el partidario de la filosofía científica todo es problemático: todo conocimiento fáctico es falible (pero perfectible), y aun las estructuras formales pueden reagruparse de maneras más económicas y racionales.
El partidario del método científico no se apegará obstinadamente al saber, sino que adoptará una actitud investigadora: se esforzará por aumentar y renovar sus contactos con los hechos y el almacén de las ideas. No se conoce otro remedio eficaz contra la fosilización del dogma que el método científico, porque es el único procedimiento que no pretende dar resultados definitivos. El creyente busca la paz en la aquiescencia; el investigador no encuentra paz fuera de la investigación y la disensión.
Nota: El texto siguiente fue generado por GPT-4o (5/06/2024) y revisado editorialmente. Se incluye como ejemplo de output de IA generativa sobre el tema, a efectos comparativos.
La investigación científica es un proceso sistemático y riguroso destinado a generar conocimiento fiable y válido sobre el mundo natural y social. En este contexto, el método científico se erige como una herramienta fundamental que guía a los investigadores a través de un conjunto ordenado de pasos para formular hipótesis, recolectar datos, analizarlos y llegar a conclusiones verificables. La importancia del método radica en su capacidad para garantizar la objetividad, reproducibilidad y validez de los resultados obtenidos.
Los procedimientos estandarizados y las técnicas de control (grupos de comparación, cegamiento) aseguran que las observaciones no estén influenciadas por las creencias del investigador (Nosek et al., 2018). La reproducibilidad valida los hallazgos originales y fortalece la confianza en la investigación (Baker, 2016). Un método bien diseñado garantiza que los resultados sean tanto válidos como fiables, proporcionando una base sólida para la confianza en futuras investigaciones (Munafò et al., 2017).
Nota: El texto siguiente fue generado por Claude 3 Sonnet (5/06/2024) y revisado editorialmente. Se incluye como ejemplo de output de IA generativa sobre el tema, a efectos comparativos.
La investigación científica es un proceso sistemático y riguroso cuyo objetivo es generar conocimiento nuevo y confiable. El método científico establece los principios y procedimientos que garantizan la validez y fiabilidad de los resultados.
Su importancia radica en: (a) la objetividad, minimizando la influencia de sesgos personales, emocionales o ideológicos; (b) la reproducibilidad, que permite a otros investigadores replicar los estudios; (c) la precisión y confiabilidad, mediante técnicas de medición y protocolos estandarizados; (d) la transparencia y rendición de cuentas, documentando procedimientos y métodos; y (e) el avance acumulativo del conocimiento, proporcionando un marco sólido para construir sobre descubrimientos existentes.
Algunas nociones básicas de epistemología y filosofía de la ciencia se desarrollan con mayor detalle en el Glosario. Dado que estas nociones se utilizan de manera recurrente en los capítulos siguientes, conviene familiarizarse desde el principio con los conceptos fundamentales que articulan la reflexión epistemológica contemporánea: justificación, verdad, creencia, evidencia, racionalidad, objetividad, certeza, fiabilidad, validez, reproducibilidad, falsabilidad y demarcación, entre otros.
Para un análisis más exhaustivo, pueden consultarse otros recursos externos:
- Glossary of philosophy (2025). Wikipedia.
- Philosophy Terms (2019).
- Audi (1999) — The Cambridge Dictionary of Philosophy. Cambridge University Press.
- Kemerling, G. (2011). Philosophical Dictionary.
- Weltman, D. (s. f.) Philosophy Glossary.
- Proudfoot & Lacey (2009) — The Routledge Dictionary of Philosophy.
1.6 La investigación y el conocimiento científico como actividades institucionalizadas
La institucionalización de la investigación y el conocimiento científico es un fenómeno resultante de la gestión, regulación y protocolización de sus actividades dentro de estructuras organizativas específicas como las universidades, los laboratorios de investigación y los organismos gubernamentales, en colaboración frecuente con instancias privadas. Este proceso ha contribuido positivamente al avance del conocimiento humano y ha permitido abordar problemas complejos con el nivel adecuado de recursos técnicos y humanos; pero no ocurre sin algunas contrapartidas indeseables en el desarrollo de la ciencia, en los incentivos y cultura de trabajo asociada, y en la consolidación de perfiles profesionales hiperespecializados, a menudo enfrentados en esquemas asimétricos de competición permanente (Merton, 1973).
1.6.1 Expansión y especialización
La institucionalización ha permitido una expansión sin precedentes del conocimiento científico, facilitando la especialización, la profundización en el estudio de problemas complejos y la emergencia de campos disciplinares específicos. En cuanto actividad institucionalizada, la investigación científica genera un sistema de roles y normas útiles para promover el desarrollo acumulativo y sistemático de conocimiento. Esta estructura ha permitido el florecimiento de disciplinas especializadas, con instalaciones y equipamiento costoso adaptado a sus necesidades, promoviendo una mayor precisión, orientación a resultados y profundidad en la investigación científica (Merton, 1973).
1.6.2 Acceso y participación en la generación de conocimiento
La concentración del conocimiento científico en instituciones de cierto perfil ha supuesto para muchos actores cualificados obstáculos en el acceso, participación y distribución equitativa de las oportunidades y financiación para generar conocimiento. La concentración de recursos humanos y científicos en ciertas instalaciones e instituciones tiene ventajas evidentes: permite ubicar equipamiento costoso, recursos de explotación o mantenimiento asociado y personal altamente especializado en un solo lugar, aprovechando sinergias y talento para un amplio rango de tareas y procedimientos. Esto puede favorecer la colaboración y el intercambio de experiencias necesario para acelerar la obtención de resultados y el empleo de enfoques o técnicas de vanguardia, reduciendo el coste del mantenimiento de las instalaciones o compartiéndolo entre varios grupos de investigación.
Entre sus inconvenientes es preciso considerar los obstáculos para la generación de conocimiento abierto, cuando solo un grupo reducido de organizaciones y países tiene acceso preferente o exclusivo a los recursos, instalaciones y resultados obtenidos. No es descartable que esta dinámica derive en posiciones de monopolio del saber en ciertas áreas, y en falta de transparencia sobre procedimientos o técnicas dominados por unas pocas instituciones líderes, con capacidad para establecer altos costes en los procesos de transferencia y aplicar de forma abusiva el sistema de patentes (Meneses & Bidaseca, 2018; Sousa Santos, 2009).
La concentración de talento y tecnología tiene sus ventajas e inconvenientes, aunque no para todos los actores por igual. Moverse fuera de las redes dominantes de generación y transferencia de conocimiento conlleva pérdida de oportunidades de innovación, en procesos que pueden acusar el impacto de esquemas de liderazgo y cambios en el contexto social determinantes para la atracción de talento vinculado a los programas de I+D. Estos inconvenientes no cuestionan ciertos esquemas de concentración de recursos; solo refuerzan la importancia de operar con ecosistemas diversos, que incorporen nodos de excelencia bien conectados globalmente con otros centros de conocimiento, para contrarrestar la hegemonía de unas pocas instituciones académicas y la marginación de conocimientos generados en otros países (Bonilla, 2019; Meneses & Bidaseca, 2018).
1.6.3 Calidad y rigor científico
La institucionalización de la investigación científica se asocia con un aumento en la calidad y el rigor científico como resultado de la estandarización de metodologías y prácticas de investigación. Esta dinámica refuerza las garantías de fiabilidad y reproducibilidad de los resultados. Las instituciones con larga trayectoria de dedicación a la investigación generalmente consiguen articular mecanismos robustos para evaluar la calidad de los trabajos antes de que sean publicados o financiados, excluyendo un alto porcentaje de estudios de baja calidad o con resultados poco relevantes. Además, consolidan programas de formación y capacitación de investigadores inspirados en buenas prácticas de investigación, con impacto a largo plazo en la cultura de trabajo y en la mejora de la infraestructura de soporte.
La perspectiva etnográfica sobre “la vida en el laboratorio” que adoptaron autores como Bruno Latour y Steve Woolgar suscitó hace unas décadas cierto interés sobre cómo se construyen los hechos científicos (Latour & Woolgar, 1986). Es obvio que la mera observación empírica no produce hechos científicos (al menos, no sin manipular ciertas herramientas y materiales según protocolos y criterios establecidos). La cantidad y calidad del trabajo que precede a la identificación de un dominio de problemas relevante para el estudio detallado de alguno de sus componentes queda normalmente fuera de foco en la perspectiva antropológica sobre lo que se hace en los laboratorios, puesto que la existencia de estos responde a elementos, estudios y necesidades de naturaleza teórica o práctica que resultan inexplicables desde enfoques centrados en la dinámica interna del laboratorio.
Los enfoques etnográficos de las prácticas científicas pueden ser útiles para precisar cómo cierto tipo de interacciones en determinadas instituciones pueden dar cabida a decisiones subjetivas, negociaciones, intereses y contingencias históricas susceptibles de condicionar la producción de conocimiento con factores extra-epistémicos: obtención de recursos, rivalidad entre grupos, reputación, intereses de la industria camuflados en el caudal de publicaciones científicas, pertenencia a escuelas ideológicas o grupos de poder (Mizumoto et al., 2022; Sismondo, 2021).
Sin embargo, la perspectiva sociológica tiene la contrapartida de reducir a la irrelevancia el componente intelectual y los esfuerzos de clarificación epistémica subyacentes a la investigación científica, sin los cuales la actividad de laboratorio difícilmente podría diferenciarse de la que se realiza en cualquier sector de actividad industrial. La ingenuidad sobre el carácter aséptico y neutral de las fuentes de financiación de la investigación científica desapareció durante el periodo de entreguerras y el desarrollo posterior de la big science. Una visión internalista y aséptica de la ciencia, cuyos resultados se explican únicamente desde la lógica, el método científico y los criterios epistémicos aplicados, ignora el peso que tienen otros condicionantes sociales, culturales y materiales en la producción de conocimiento —aspectos que, de forma dramática, pudieron constatarse con el hundimiento de la financiación pública para investigación en el periodo de la Gran Recesión o durante la carrera para desarrollar vacunas eficaces contra la pandemia de COVID-19 (Gobo & Sena, 2022).
Cuando se trata de resolver problemas complejos para satisfacer necesidades sociales apremiantes, importan sobre todo los elementos de evidencia científica, consistencia teórica y capacidad tecnológica que pueden aportarse con expectativas razonables de no quedar empantanados en el juego de intereses, modas, opiniones y preferencias ideológicas de los actores concernidos. A diferencia de lo que ocurre en el debate público, la comunidad experta tiene un largo historial de adoptar posiciones de consenso sobre temas y problemas de extraordinaria complejidad —en salud pública, protección del medio natural y la calidad del aire, en programas de erradicación del hambre, prevención de desastres naturales, etc.—, por razones ligadas fundamentalmente a la lógica del conocimiento y apoyadas en datos y criterios robustos de interpretación de los escenarios de riesgo (Cook et al., 2013; Cook et al., 2016; Larson et al., 2016).
La estandarización de enfoques, so pretexto de mejorar el rigor y la calidad de la investigación, puede inducir dinámicas de homogeneización susceptibles de ahuyentar a investigadores con talento creativo y marginar a grupos dispuestos a explorar metodologías alternativas en dominios de problemas disputados. El efecto de la estandarización metodológica en ciencias sociales puede alimentar una falsa impresión de objetividad, sobre resultados que bajo otros enfoques resultarían simplificadores, reduccionistas o irrelevantes, cuando no claros ejemplos de colonización cultural (Holmquist & Sundin, 2010).
El cuasimonopolio que ejercen de facto ciertas empresas que controlan las grandes plataformas de bases de datos de publicaciones científicas —incluyendo una gran opacidad sobre los algoritmos de indexación, estimación de impacto, métricas y recomendaciones sesgadas en la búsqueda de resultados— genera un contexto favorable a prácticas abusivas y extractivas, con un impacto a gran escala en la calidad de los resultados de investigación y en la promoción vertiginosa de ciertos perfiles profesionales, grupos editoriales y campos disciplinares (Buranyi, 2017; Larivière et al., 2015; McKiernan et al., 2019).
1.6.4 Política y financiación de la investigación
La dependencia de la investigación científica más costosa de fuentes de financiación institucional ha generado preocupaciones justificadas sobre la influencia de intereses políticos y económicos en la dirección y objetivos de los programas científicos. La influencia del lobby farmacéutico en la literatura biomédica, por ejemplo, es un fenómeno bien constatado, con un alto porcentaje de publicaciones inyectadas en el flujo de trabajos y resultados de investigación supervisado por expertos (Sismondo, 2021).
En otros ámbitos de conocimiento, el papel de actores privados como financiadores sería impensable si existiera la más remota posibilidad de que los resultados resultaran de algún modo incómodos o contrarios a sus intereses (Mirowski, 2011). Para contrarrestar eventuales sesgos de entidades privadas, las fuentes de financiación gubernamentales pueden aportar un mayor espacio de independencia y creatividad; pero, en contextos de escasez o con esquemas de liderazgo fuertemente ideologizados, también los canales públicos pueden manipularse en función de prioridades efímeras y en detrimento de la investigación de calidad, guiada por la curiosidad científica.
El lucrativo mercado de las publicaciones científicas indexadas en bases de datos de unas pocas empresas privadas ha generado un floreciente mercado de productos culturales —la Nueva Economía del Conocimiento— en las que las empresas que más beneficio obtienen son las que menos han contribuido al trabajo investigador de base, a la financiación de los medios necesarios para la obtención de resultados, a la evaluación de los mismos y a la formación del personal altamente especializado que los produce. Su papel consiste en servir de intermediarios con ánimo de lucro en la difusión, absorbiendo porcentajes crecientes del presupuesto destinado a la I+D por las instituciones y grupos dedicados a la investigación (Geschuhn, 2018).
Sea al inicio, en medio o al final de la cadena de producción y difusión, la presencia de actores privados con ánimo de lucro termina contaminando los objetivos y prioridades de la investigación desarrollada en contexto académico. El conflicto de intereses en las instituciones científicas no es solo una cuestión de ética personal, circunscrita a la esfera de las decisiones individuales de quienes se dedican a la investigación. Es un problema de cultura y sesgo institucional, que genera estructuras estables de producción de ignorancia —privatizando resultados y hallazgos que deberían ser públicos cuanto antes lo permitan las metodologías y protocolos de investigación, en lugar de ser puestos bajo plataformas de pago (Mirowski, 2011).
Cuestión aparte, aunque por efecto de una dinámica similar de incentivos institucionales, sería la proliferación de casos de científicos cuya trayectoria de publicaciones e impacto de estas aumenta exponencialmente como resultado de vinculaciones simultáneas con instituciones investigadoras en Arabia Saudí, China u otros países —cobrando por adelantado cantidades significativas—. O mediante la participación en congresos y otros eventos que incluyen la garantía de publicar los propios trabajos en ciertas revistas, con el respaldo de empresas y laboratorios que aseguran el posicionamiento de los papers correspondientes (Bermejo Barrera, 2015; Judson, 2004).
Un análisis publicado en Nature por Ioannidis et al. (2018) identificó a científicos que publicaban un artículo cada cinco días, un ritmo materialmente incompatible con la participación real en la investigación que firman. El fenómeno de la hiperproductividad académica está vinculado a prácticas como la autoría honoraria, la firma por invitación y los acuerdos de coautoría con instituciones extranjeras dispuestas a pagar por asociar su nombre a publicaciones de alto impacto.
Estos patrones reflejan un problema estructural: los indicadores bibliométricos diseñados para evaluar la calidad de la investigación (índice h, factor de impacto, cuartiles) se han convertido en objetivos en sí mismos, distorsionando los incentivos y premiando la cantidad sobre la calidad. Como señala Rueda (2024), la “generación Q” —investigadores que han crecido profesionalmente bajo la presión de los cuartiles— asume como normal un sistema de evaluación que premia la acumulación compulsiva de publicaciones y penaliza la reflexión pausada, la investigación de largo recorrido y los formatos de difusión distintos del artículo indexado.
1.6.5 Innovación y transferencia tecnológica
La institucionalización de la ciencia ha facilitado la transferencia de conocimiento y tecnología desde la investigación básica hasta su aplicación práctica, integrando en un mismo esquema de relaciones a universidades, consorcios industriales y organismos estatales. La complejidad de los procesos de innovación presiona en favor de estructuras cada vez más complejas capaces de competir en el mercado global de la I+D civil y militar. Las expectativas de retorno de beneficios explican las grandes cantidades que destinan los inversores especializados a costear la investigación biomédica innovadora, buscando por ejemplo sinergias entre investigadores con acceso a pacientes en el contexto de actividad hospitalaria y personal especializado en laboratorios de diversa naturaleza.
El tipo de intermediarios inevitables en los procesos de transferencia condiciona la autonomía de las instituciones y grupos dedicados a la investigación científica, incluyendo sus prioridades, intereses comerciales y agenda política. Pero la explotación comercial de los resultados de las investigaciones desarrolladas en las universidades y laboratorios públicos con financiación estatal se ha potenciado con el surgimiento de spin-offs y start-ups —empresas constituidas en el interior de las propias universidades, con volumen y capacidad de impacto económico a escala regional—. La importancia de estos mecanismos de transferencia no excluye el análisis crítico de sus ciclos y condiciones de actividad, puesto que el número de las que subsisten más allá del periodo inicial de subvenciones y apoyo financiero público es ciertamente reducido, con el sector de la biotecnología y la fabricación industrial como excepción (Etzkowitz & Leydesdorff, 2000; Jelfs & Smith, 2022; Prokop et al., 2019; Rodeiro-Pazos et al., 2021).
- Merton (1973) — Sociología de la ciencia
- Sousa Santos (2009); Meneses & Bidaseca (2018); Bonilla (2019) — Epistemologías del Sur y geopolítica del conocimiento
- Latour & Woolgar (1986) — Vida de laboratorio
- Sismondo (2021) — Corrupción epistémica e industria farmacéutica
- Cook et al. (2013); Cook et al. (2016) — Consenso experto sobre cambio climático
- Larivière et al. (2015); McKiernan et al. (2019) — Oligopolio editorial y factor de impacto
- Mirowski (2011) — Privatización de la ciencia
- Ioannidis et al. (2018) — Científicos hiperprolíficos
- Etzkowitz & Leydesdorff (2000) — Triple hélice universidad-industria-gobierno
El conocimiento aplicado y su impacto social fue objeto de estudio en obras como la Nueva Atlántida (1626) de Francis Bacon, considerada uno de los primeros ensayos de prospectiva tecnológica (Bacon, 1626).↩︎