Texto de apropiación científica y tecnológica_____________________________
Módulo 4. Predictibilidad versus tecnología
4.1 Aprender matemáticas, es aprender nuevos modos de “ver”
La universidad ve a los científicos articulando construcciones conceptuales que proporcionan puntos de vista para modelar hechos, situaciones, estructuras, eventos, procedimientos y caracterizaciones empíricas y matemáticas. Si bien, sus técnicas o métodos están entrelazados con las características lógicas del lenguaje, las matemáticas no son reducibles a un solo “fundamento”, como la lógica de segundo orden o teoría de conjuntos[1]. Wittgenstein sugiere a las matemáticas como una mezcla multicolor de técnicas, para matizar el tipo de antifundamentalismo que siempre instó. Los aspectos matemáticos se descubren o revelan, mientras que las técnicas matemáticas se inventan. Entonces, son tanto descubrimiento como invención.
Esta es una forma en el realismo[2]: realismo sin metafísica fundamentada y sin epistemología particular o teoría de la mente. Traspone lo que a menudo se llama “realismo”. Al observar un cubo dibujado en el papel, los aspectos son modales, adjuntando a posibilidades y necesidades: campos de importancia, oportunidad para proyectar y crear instancias de sus conceptos. Vemos a través de la imagen a nuestra propia visión de ella como una realización de una manera entre otras. Lo que vemos se ve, pero también vemos. Es decir, estructuramos lo que vemos, a veces viéndolo de nuevo. Hay un aspecto activo y un aspecto pasivo en esto. Los aspectos se muestran a sí mismos (la voz del medio). Lo que estamos viendo no es simplemente un dibujo real en una página. También podemos “ver” en estos dibujos sus posibilidades de proyectar nuestros conceptos. Aquí tomamos la modalidad como primitiva.
Wittgenstein siempre rechazó la idea “platónica” de que las matemáticas revelan entidades reales, hechos abstractos o reinos que explican nuestras prácticas matemáticas pero son casualmente inertes. El realismo aspectual es un sustituto ofrecido. No tiene ninguna historia sobre si una posibilidad es en sí misma un posible estado de cosas; está sepultando la ontología en ese sentido, como lo hacen muchos matemáticos actuales. Los aspectos cambian el “naturalismo” instado en las lecturas de psicología, convencionales y empapadas de Wittgenstein: estos subestiman sus puntos de vista posteriores sobre la verdad, confundiéndolos con condiciones de asertividad. Desde Benacerraf, muchos filósofos de las matemáticas han tratado de equilibrar tres ideas[3]: a) una posición epistemológica que privilegia la percepción inmediata de los objetos materiales, concebido como una alineación causalmente cimentada y receptiva de la experiencia con palabras o conceptos; b) fenómenos tales como incompatibilidad, indecidebilidad y modelos no estándar; c) la modalidad como algo que debe explicarse en términos metafísicos.
Wittgenstein rechaza estas ideas, respetando su profundo atractivo. Abordó una narrativa fenomenológica de las matemáticas (lo que está inmediatamente frente a la conciencia). Esto fracasó, lo que lo llevó a rechazar la idea de que la experiencia está intrínsecamente estructurada en un mundo de vida. Su filosofía posterior, Wittgenstein busca desalojar el argumento entre la visión naturalista, causal y la fenomenología: ambas partes subestiman el poder de las formas ordinarias y coloquiales de hablar en y sobre las matemáticas.
Aunque los lógicos no han dejado de atender el papel del lenguaje ordinario, el elemento característico en cada período de la filosofía de Wittgenstein es su reflexión sobre nuestros “ajustes silenciosos” de sus complejidades. Su filosofía posterior finalmente tiene en cuenta estos ajustes en el realismo mismo.
Las contingencias psicológicas son relevantes para la pregunta: ¿Cuál es la naturaleza de la lógica (y las matemáticas)? La psicología explora la percepción del aspecto como un fenómeno. Pero la psicología no puede sustituir la discusión crítica de nuestra discusión ordinaria. Cuando Wittgenstein señala que una demostración debe ser “estudiable” no está discutiendo la amplitud de nuestras habilidades cognitivas, sino nuestra necesidad de matemáticas. Sus preocupaciones sobre el extensionismo están en su lugar a pesar de que, hasta donde sabemos, los psicólogos cognitivos no tienen idea de cómo explicar que lleguemos a comprender el concepto de conjunto.
Hablando de manera realista, en matemáticas hay moldura de conceptos: la verdad no es simplemente una cuestión de agarrar una extensión, afirmar o estipular un principio. Las “percepciones” de aspectos nos muestran los límites del empirismo en el sentido de Wittgenstein[4]. Esto contrasta con las Imag4 típicas de estos límites de los matemáticos. Russell argumentó que los límites radican únicamente en el hecho “médico (diagnóstico)” de nuestra finitud y la necesidad de abstracción a los universales: no podemos tomar un número infinito de vasos con agua. Pero este es un hecho contingente. Por ejemplo:
Es posible escribir la expansión de decimales donde
es una secuencia arbitraria de enteros entre 0 y 9.
La mayoría de los lectores pasa por encima de tales comentarios en silencio. Más tarde Wittgenstein insta, no a que los límites del empirismo se encuentran en otra parte: primero, en nuestra necesidad de comunicar demostraciones, por lo tanto, segundo, en la actividad de formación de conceptos, y tercero, en nuestras incrustaciones de palabras y símbolos en formas de vida. Maddy aboga por el realismo “Thin” sobre conjuntos y una segunda filosofía en lugar de una primera[5]. El realismo de aspecto es una forma de esto. Pero Maddy se centra ente todo en la teoría de conjuntos. Además, carece de confianza en nuestra capacidad para estructurar un sentido de profundidad en las matemáticas. El realismo de aspecto está destinado a redondear el realismo Thin para trasmitir más de un sentido 3D de profundidad matemática y conocimiento.
Los filósofos naturalistas de las matemáticas han tendido a privilegiar la física como árbitro de la ontología, y la psicología como base de la epistemología naturalizada[6]. En Wittgenstein se ve una forma más liberal de naturalismo, del tipo defendido por Putnam[7]. Al igual que Wittgenstein, Putnam sostuvo que las matemáticas exploran las posibilidades conceptuales (él llamó a esto estructuralismo modal). Pero insistió en los elementos normativos en juego aquí. Las formas de vida expresan las formas del animal humano de estructurar un tinte evolutivo, biológico, pero también normativo y etológico.
El Wittgenstein posterior, enfatiza la importancia de la proyectabilidad y la plasticidad: el trabajo de ajustar los conceptos a la realidad, incluida la realidad de las experiencias matemáticas (y otras). Esta forma de realismo no solo glosa los amplios y múltiples tipos de aplicabilidad de las matemáticas: a situaciones empíricas y a los conceptos. También permite a las matemáticas su autonomía, como lo hace el estructuralismo modal. Wittgenstein trata las matemáticas, sin embargo, más finamente: como una especie de andamiaje para descripciones, es decir, una colección modular y transportarle de posibles construcciones conceptuales que pueden configurarse de una variedad ilimitada de maneras. No apoya tanto al edificio del conocimiento, como más ayuda a los seres humanos a erigirlo.
Lo que aprendemos en matemáticas llega a sentirse tan natural, en ciertos casos, que llega a dar forma a nuestra experiencia inmediata, incrustando profundamente sus modalidades en nuestros hábitos de conocer y percibir. Hay eco de Kant aquí. Wittgenstein, sin embargo, no presenta una visión de la intuición como una forma fija de representación inmediata, singular y no conceptual. La idea, en cambio, es que existen posibilidades y necesidades matemáticas, formas de experiencia particulares e inmediatas, construcción y conceptualización de los seres humanos y comunicables entre ellos.
Wittgenstein está gramaticalizando lo “intuitivo”, es decir, sometiéndolo, utilizando el lenguaje ordinario de las matemáticas para hacerlo, tomando este lenguaje como (un todo en evolución). No reemplaza la experiencia matemática con el lenguaje, sino que utiliza el lenguaje para abrir nuestra receptibilidad a él. El lenguaje mismo proporciona la intuición necesaria. Esto le permite capturar el elemento reflexivo que Bernays echó de menos[8]. Es como si toda la idea de un metalenguaje fuera absorbida por el proceso siempre barajado de formalización, reformulación, experiencia renovada, caracterización informal, reparametrización y reinterpretación. Debemos respetar el ajetreo de las ideas.
En Wittgenstein se trata de caracterizar lo que son y significan los formalismos, idealmente con un grado mínimo de formalización. Tanto Gödel como Wittgenstein asocian la riqueza de aspectos con la incompletitud (Propiedad de los sistemas lógicos en los que cualquier expresión cerrada no es derivable, dentro del mismo sistema). Mientras que Gödel plantea las hipótesis de que puede haber una infinidad real de complejidad dada en la experiencia, Wittgenstein considera el grado ilimitado de complejidad como potencial y gramaticalizable. Enfatiza la perspectiva no extensiones en lugar de la perspectiva extensional. Mientras Gödel sentía que las perspectivas podían fusionarse conceptualmente, Wittgenstein se resistió a esto. Usamos el término no extensional en lugar del término más habitual intencional, que generalmente se asocia con el constructivismo como una rama de trabajo de las matemáticas. No consideró Wittgenstein como un constructivismo sobre las matemáticas, y no creía en las intensiones como entidades. Wittgenstein se permitió discutir sobriamente la experiencia de la novedad, la reorientación de nuestra forma de ver que viene cuando nos encontramos con características matemáticas, formas y estructuras nuevas. Hay una doble complejidad gramatical en el entrelazamiento de lo modal con las formas enquistadas que usamos el verbo para “ver” y las frases “ver como” para describirlo: a través de caracterizaciones podemos llegar a “ver” o “revelar” o “descubrir” una posible forma de concebir algo que no teníamos o visto antes. Las matemáticas están llenas de tal “ver”. Eso no es una percepción literal, sino más bien ver una nueva dimensión o posibilidad de pensamiento.
4.2 La crítica como sinónimo de vitalidad cultural
El efecto práctico de la teoría, es esa disputa frente al “sentido común”, de modo que la persona educada pone en duda de lo que se identifica como natural y se da por sentado[9]. Los orígenes históricos de la crítica, para Paul Ricoeur están en Marx, Nietzsche y Freud como sus principales arquitectos, cuya huella en la academia y los intelectuales sigue siendo indeleble[10]. Entonces, la crítica es, para muchos estudiosos la abreviatura de la producción de la teoría misma, ¿A qué se oponen exactamente sus crítico? Y claro que la crítica es demasiado multiforme para ser captada a través de una sola definición o un relato unificado, ¿cómo podemos obtener una comprensión de sus modos de operar? Hemos adoptado dos estrategias para delinear alguna de sus características especiales de sus tradiciones intelectuales. Es decir, la crítica es vista como un proyecto intelectual y un estilo de interpretación de una vida en libertad y más democrática.
La crítica es, entre otras cosas, una forma de retórica que se codifica a través del estilo, el tono, la figura, el vocabulario, y la voz de ciertos tropos, motivos y estructuras textuales a expensas de un diálogo civilizatorio. En lugar de señalar un conjunto de criterios básicos a los que todos los modelos deben ajustarse, el género ahora se entiende ampliamente a través de la idea de Wittgenstein de las semejanzas familiares: las instancias individuales de un género como el crítico pueden estar relacionadas de maneras dispares, pero sin poseer necesariamente un solo conjunto de característica que sean comunes a todos[11]. La calidad diagnóstica de la crítica (disertar) es a menudo inconfundible. El diagnóstico, por supuesto, tiene sus orígenes en la práctica de la medicina, incluso cuando el término se aplica con frecuencia a otros dominios (filosofía, física, economía, historia, literatura…).
Tres aspectos del diagnóstico parecen especialmente pertinentes: la presencia de un agente racional que aspira a ganar profundidad primero para sí; el escrutinio al objeto lo dedica a establecer conexiones entre sus ideas, defectos que son posibilidades de desarrollo de nuevas ideas y que resultan no evidentes para una perspectiva no especializada de los términos del contexto de dicho conocimiento. Un diagnóstico es tanto un acto de habla como una postura, se basa en la fuerza reveladora de una mirada examinadora a hombros de gigantes de la literatura, es mirar muy de cerca y con atención, en la creencia de que tal escrutinio sacará a la luz problemas que pueden ser descifrados por un intérprete educado. La postura es desde luego juiciosa y conocedora de las fronteras de nuevos caminos para agenciar conocimiento. Al tratar la literatura como un paciente, el crítico busca identificar síntomas enterrados que socavarían el significado explícito y la intención consciente del autor. Para un lector freudiano, lo que define el síntoma es su estado involuntario del texto, que revela una verdad a menudo inadvertida. En el modelo freudiana, la presión es el mecanismo por el cual tales verdades se ocultan a la vista, creando un contraste entre el significado manifiesto y lo que se esconde debajo. Los síntomas de un texto que es referente de un tiempo, época y cimiento de una burocracia, suelen ser mejores ideas que no se reconocen abiertamente. Una nueva generación posterior a la renovación crítica, ofrecen nuevas esperanzas producto de la razón, haciendo de los fundamentos de las más frescas ideas, líneas de pensamiento que un paciente (cuidando) no pudo diagnosticar adecuadamente por estar enajenado por el fin de las teorías.
El amplio impacto de Foucault en los estudios literarios y culturales, tuvo el efecto de cuestionar y reforzar tal impulso diagnóstico. El trabajo de Foucault inspiró una aguda conciencia del enredo del conocimiento con el poder, mostrando cómo las ciencias humanas intentan normalizar y legitimado de las verdades a través de regímenes de clasificación y categorización. Después de Foucault, ya no es posible pasar por alto el papel de la mirada analítica como una tecnología moderna de percepción que da forma a los mismos objetivos que dice interrogar o describir. La crítica traza capilares ocultos dentro del poder, diagnostican las patologías del cuerpo social y lo fracturan para dar paso al nuevo horizonte. La crítica foucaultiana, al igual el científico, la visión crítica se basa en una postura de ecuanimidad y neutralidad juiciosa.
4.2.1 La alegoría
El diagnóstico del discurso escrito une la relación entre texto y crítico; entre curiosidad y el modo de conocer; la alegoría sin embargo, habla de los vínculos entre el texto y el mundo. En la alegoría, los símbolos aluden a lo general; las narrativas aterrizan en la realidad y los argumentos están cargados con criterios sobre lo que existe y modos de conocer que permiten defender su verdad. Significados técnicos, filosóficos, científicos más amplios se estructuran. Aquí, la alegoría se superpone con la metáfora. Sin embargo, mientras que la metáfora ve, la alegoría justifica, piensa, teniendo vehículos muchos más estrechos con el pensamiento conceptual o abstracto. En este sentido, la alegoría también reivindica el parentesco con lecturas homólogas que explican las formas literarias como ecos de realidades más amplias. Tales modos de análisis a menudo sostienen que la literatura ayuda a naturalizar o apresta conciencia profunda sobre lo real. Escribir alegoría es apoyar lo ideológico y practicar dentro del mundo real estructuras conceptuales subyacentes.
Una contribución importante de la crítica es descubrir y demostrar cómo la alegoría puede operar en la literatura como una manifestación de jerarquía y desigualdades entre puntos de vista más amplios. Sometiendo el canon literario al escrutinio, los críticos y minorías sostienen con su pensamiento un trato entre iguales. La alegoría sirve en cambio como simbólico abstracto y portador de significado. Podríamos pensar aquí, que la crítica es una adversaria de las tradiciones dominantes. No solo descubre alegorías antes inadvertidas y políticamente ocupadas en las obras literarias marginales; también trae modos de análisis a los textos para desenterrar los significados reprimidos de las sociedades frívolas.
Si bien, la alegoría es creada por un autor, también requiere conversar en actos de interpretación con muchos otros textos en sus deseos de establecer paralelismos entre obras individuales y las estructuras de disertación. Los críticos pueden arriesgarse a imputar capas de generalidad incluso en ausencia de garantías textuales claras. La interpretación alegórica demasiado predecible, reduce la función de indexar evidencias, hechos y tradiciones de pensamiento. Las literaturas funcionan como alegorías con considerables resistencias a significados sociales coloniales o complejidades formales de liberación del arte.
4.2.2 Los científicos
Se refieren al mundo objetivo como si fuera esencialmente independiente del hecho de que nos referimos a él. Esta actitud hacia el mundo se describe por el concepto de conocimiento objetivo, que simplemente selecciona aquellos estados mentales que nos ponen en contacto con el cómo son las cosas. El mundo, por ejemplo, generalmente lo comprendemos por todo lo que incluye nuestro modo de conocer (epistémico) más básico: adquirir conocimiento de lo que es el caso y asegurar ese conocimiento contra cualquier posible objeción que podamos encontrar. Por lo tanto, la idea de todo lo que hay en el mundo de una persona, podemos expresarlo por la forma de una afirmación explícita de conocimiento de sus modos básicos de conocer y defenderlo frente a un cuestionamiento crítico, normalmente, le irrita.
Los estados de conciencia que tenemos del mundo, son los objetos de cada representación exitosa para nuestra persona… no al mundo más amplio que por ejemplo la filosofía, la poesía o la ciencia permite distinguir. Una persona es a lo que se refiere como su idea absoluta de la realidad. Desde el punto de vista de las afirmaciones de una persona no educada en ciencias, el mundo mismo asume el estatus de intuitivo y absoluto; independiente y anterior al conocimiento.
Nuestro conocimiento científico afirma, por el contrario, que virus, células, genes, moléculas, átomos… están sujetos a condiciones especiales de modos de conocer, como condición para que entren en nuestra conciencia de cómo es el mundo y someterlo a revisión cuando enfrentamos objeciones críticas de su objetividad. De hecho, formar un científico, es educarlo en las referencias al mundo objetivo que nos hace plausible su existencia, y este mundo objetivo, conocerlo es simplemente estar en una posición falible, de aproximación permanente y nunca absoluta de su verdad.
Sacar provecho de esta reflexión, es intentar convencer a un joven universitario de que educarlo en ciencias, es volver a aprender a ver, sentir, observar, controlar, demostrar, calcular, medir, explicar, justificar…, el mundo en el que la ciencia hace conciencia, no se aparece sin esfuerzo a primera vista. Es vital tener en cuenta que debemos hacernos de los términos del habla, de las lógicas de conocer y los criterios de lo que existe, de la literatura con que comunica sus hallazgos y las tecnologías que extiende sus capacidades humanas. Por otro lado, si le aburre leer ciencia y no le gusta escribir para aprender a pensar… le afirmo que no podrá su conciencia sobrepasar los límites del conocimiento de su “mundo objetivo” no científico. El mundo no son piezas materiales que se transforman en conocimiento empírico, es decir, practicar en un laboratorio no es conocer el mundo científico… el mundo precede a nuestras afirmaciones de conocimiento que logramos agenciarnos (justificaciones), nuestro conocimiento de modelos explicación (teoría). Y así, podríamos pensar, que sin disertar no podemos gozar de una extensión de nuestra conciencia al mundo científico. Si no hablamos con los términos de la ciencia (escribir y leer), solo cargamos información cruda de este, seriamos solo imitadores de científicos, un fraude para los que nos impulsan a ser científicos.
4.2.3 ¿cómo sabemos que algo es objetivo?
La excelencia de la educación universitaria de un estudiante de ciencias empíricas (fácticas -de hechos- y contrafactual -diseño sintético de posibilidades de hechos-), tiene que definir el punto de vista desde el cual hace afirmaciones de conocimiento empírico, de lo contrario solo actúan de tomar mecánica irreflexiva, es decir, solo es un maquilador de datos. El conocimiento del conocimiento empírico no es en sí mismo empírico. Debemos establecer una distinción entre dos niveles teóricos: entre conocimiento objetivo, por un lado, y el nivel meta-conocimiento sobre lo que es el conocimiento objetivo, por otro lado. El cómo una teoría investiga las afirmaciones de verdad, la epistemología misma reclama el modo de conocer tan pronto se pronuncia cómo debemos entender el concepto de conocimiento objetivo. Es aquí donde se muestra que el problema del escepticismo. Si el escéptico nos convence que no podremos, después de todo, saber qué es el conocimiento objetivo, y mucho menos cómo es posible, entonces el conocimiento objetivo mismo amenaza con colapsar. Porque sin una comprensión de conocimiento objetivo, difícilmente podemos determinar si realmente hay algún conocimiento objetivo. Por lo tanto, no hay forma de evitar la cuestión de lo que realmente significa saber algo. La posibilidad de conocimiento es una presuposición de conocimiento empírico, sin que sea empíricamente conocible. El conocimiento, en otras palabras, adquiere sus contornos conceptuales particulares en virtud de cómo llegamos a distinguir algo de su compañero constante, la ignorancia (incertidumbre).
En el contrastivismo, desacuerdo con esta posición, el contenido de todos los casos de conocimiento (proporcional) está determinado respectivamente por su pertinencia a una clase de proposición que se distingue de una clase de contraste. En Lugar de “S sabe que P”, de hecho, siempre deberíamos leer “S sabe que P en lugar de Q”. Así la clase de contraste Q contiene así todas aquellas proposiciones cuya verdad implica la falsedad de las proposiciones de la clase de contraste P.
El conocimiento generalmente se contrasta con la ignorancia. Así desde Platón, este modo de distinción entre ser y parecer fue a la vez ontología y epistemología. Quien pretende saber qué es el conocimiento genera un espacio ontológico (criterios de lo que existe y es verdadero) de oposición dentro del cual el conocimiento contrasta con la ignorancia, y la posibilidad continua de que el segundo se convierta en la sombra errante del primero. Así que ser un laboratorista, el escepticismo es una condición de inteligibilidad de los modos de conocer (epistemología). En su continua confrontación con la ignorancia, se forma en el arte del diseño experimental, desde el cual investiga y reclama el conocimiento del conocimiento objetivo para distinguirlo de la ignorancia.
Dado que los modos de conocer mismos, por el contrario, se refieren tanto a la unidad exitosa de las afirmaciones de conocimiento y el mundo (conocimiento) como a su diferencia potencial (ignorancia), es continuamente más allá de todo conocimiento objetivo mismo. Esto, es una de las ideas centrales que se pueden ganar a través de nuestra confrontación con el escepticismo en la formación de nuevos científicos.
¿Qué significa saber algo? Sin esta respuesta no se da la excelencia en la práctica de laboratorio.
Sin una noción de qué es conocimiento, no es posible realizar ciencia, no es posible domesticar al Demonio de Descartes.
Una de las grandes lecciones de la ciencia es que el mundo diverge sustancialmente de cómo tendemos a verlo conforme lo observamos con nuevos conceptos, teorías y hechos. Por lo tanto, la adquisición de conocimiento y la duda empujan a nuevos límites. Solo tenemos que considerar el hecho demasiado familiar de que, con cada aumento de conocimiento de lo que aún no sabemos, de nuestra propia ignorancia cambiamos. De hecho, estrictamente hablando, el conocimiento en el exigente sentido del científico, es impensable en ausencia de medidas sobre si el mundo es exactamente como nos parecer ser. Apartémonos de nuestras suposiciones cotidianas, es una condición de la posibilidad misma de que el conocimiento como tal salga a la vista. Al igual que cualquier otra cosa que los pensadores puedan investigar, el conocimiento se convierte en un objeto de estudio solo una vez que hemos comenzado a preguntarnos sí y en qué medida se parece realmente a lo que consideramos la base de nuestras suposiciones preteóricas.
Tan pronto como tomamos incluso el más mínimo bocado del fruto del conocimiento, nos enfrentamos al desafío del escepticismo: la posibilidad del conocimiento implica la posibilidad de su imposibilidad. El conocimiento, en definitiva, implica duda, y la tarea de aliviar esta duda recae en las ontologías (criterios sobre lo que existe) y los modos de conocer (la epistemología).
Mientras que el escepticismo está íntimamente ligado a la posibilidad misma de todos y cada uno de los intentos de alcanzar la distancia teórica de la realidad. Al distanciarnos con el lenguaje de nuestras adscripciones de conocimiento cotidiano, la epistemología también introduce la posibilidad del escepticismo. Pero de la misma manera, implica la posibilidad de su propia imposibilidad. Después de todo, la epistemología es una empresa inherentemente autorreferencial: se esfuerza por el conocimiento del conocimiento. Esto se hace peculiarmente susceptible a paradojas. Porque si resulta que conceptos epistémicos tan fundamentales como “conocimiento”, “cognición”, “justificación”…, implican la posibilidad de escepticismo, entonces la epistemología misma está amenazada. Y dado que depende de la viabilidad de estos conceptos no menos que cualquier otra teoría, la epistemología no tiene más remedio que enfrentar la amenaza a su propia posibilidad desde dentro.
De ahí que la epistemología sea siempre una teoría de la reflexión, una teoría que tiene que dar cuenta de las presuposiciones que rigen su propia construcción. Mucho se deduce de su carácter reflexivo, del hecho de que se emite en unas afirmaciones de conocimiento, las afirmaciones de conocimiento sobre el conocimiento. Y cada que es una reacción al escepticismo, podemos entender el escepticismo a su vez como una empresa que pasa de la destrucción de las reclamaciones de conocimiento individual a la destrucción de las afirmaciones de conocimiento como tal.
Por lo tanto, no es simplemente una coincidencia histórica que los filósofos y científicos en el periodo moderno hayan desplegado el escepticismo cartesiano como una teoría motivacional para la epistemología, como estrategia en última instancia antiescéptica. Esta estrategia introducida por primera vez por el propio Descartes y su Demonio, equivalen a una estrategia metodológica. La idea misma de que podemos estudiar el escepticismo como condición de la posibilidad de reflexión. Al mismo tiempo, esta estrategia provoca nuevos ataques escépticos de segundo orden (teóricos) contra los que la epistemología también tiene que armarse.
4.3 ¿Cómo piensa la gente?
El esfuerzo para responder a esta pregunta es dominio de la ciencia cognitiva, o campo de estudio que incluye la psicología, filosofía, matemáticas, física, lingüística y la informática. Lógica proposional surgió en sintonía con el desarrollo de la computación moderna. Después de todo, la computadora es en el fondo un dispositivo de procesamiento, almacenamiento, memoria de trabajo, que hacen cálculos transformando símbolos en lenguaje máquina con la información de entrada. La computación de la inteligencia artificial se hace con la computación que responde a ¿cómo razona la gente? Programando para que se comporte realizando inferencias causales. Esta fue esencialmente la conclusión ofrecida por Alan Turing en un famoso ensayo Computing machuinery and intellegence[12]. Desarrolló cuidadosamente una forma inteligente conocida como la Prueba de Turing para decir si una computara podía pensar engañando a un juez para que creyera que era un hombre y no una mujer[13].
Las personas diferimos de las computadoras en formas críticas. Por un lado, calculamos de manera diferente. Tradicionalmente, las computadoras realizan una operación a la vez, calcular secuencialmente. Las personas son capaces de realizar muchas operaciones a la vez, ciertas funciones (como la memoria) implican el funcionamiento simultáneo de miles de millones de unidades simples, razonando juntas para recuperar recuerdos e inferir conclusiones, de la manera que todo nuestro cuerpo recuerda como andar en bicicleta.
Algunos diseños modernos informáticos recientemente implican una cantidad limitada de procesamiento paralelo, pero nada como el paralelismo que logra la mente. Una segunda diferida es que, a diferencia de las computadoras, las personas tienen vidas emocionantes directamente cinceladas a la composición química y los procesos fisiológicos de nuestros cuerpos. Podemos ser de carne, y eso lo cambia todo.
Una tercera diferencia, y en la que menos nos vamos a centrar, es que no somos consumidores pasivos de información, transformamos ciegamente los símbolos según lo solicitado. Somos agentes de agencia de conocimiento. Perseguimos activamente metas, ya sea la necesidad de comida, sexo, oxígeno amor, educación o libertad. Si las personas tienen libre albedrío es una pregunta mucho más allá de la lógica, es un asunto biológico. Por lo tanto, parece claro que hablamos, pensamos y actuamos como si lo hiciéramos. Entonces, para comprender la mente se requiere una forma de representar el albedrío dentro de la lógica, el lenguaje y las formas de procesar los criterios de lo que es real y lo que es ficción.
Comprender lo que significa ser un agente racional, puede parecer requerir respuestas a preguntas como “¿Qué es la conciencia?” ¿Cómo se codifica la intencionalidad en el cerebro? y ¿Qué significa ser racional? Pero la agencia puede comprenderse en términos más mundanos, pero comprensibles. La agencia puede ser tratada como nada más que la capacidad de intervenir en el mundo (con conocimiento) y cambiarlo. Y ni siquiera vamos a afirmar que las personas tengan una habilidad intelectual, aunque probablemente sí. Afirmo que piensan en el conocimiento. ¿Qué sabes? Un tipo de cosa que sabes es cómo funciona las cosas en el mundo. Conoces los mecanismos. Usted sabe cómo operar algunas máquinas cuánticas, biológicas…, ya sabe los causales a pulsar, las palancas a jalar. Sabe cómo se comporta la realidad profunda de lo que impulsa los cambios en el poder político, económico y cultural.
Todo este conocimiento es causal en el sentido de que se trata de los mecanismos que provocan los efectos de las causas. Se trata de eventos que tienen lugar en el tiempo y describe no solo cómo y cuándo aparecen juntos los objetos y los eventos, sino por qué. La respuesta a esta pregunta de por qué viene en forma de descripción de cómo las cosas podrían ser de otra manera, no solo qué efectos siguen a qué causas, sino qué efectos seguirán si las causas hubieran sido diferentes. Este es precisamente el tipo de conocimiento requerido para predecir el efecto de la acción, cómo el comportamiento cambia el mundo.
¿Qué entendemos realmente cuando pensamos que entendemos un mecanismo? Presumiblemente, como mínimo, tenemos alguna idea sobre qué insumos producen qué productos. Entendemos cómo la elección de las entradas determinan las salidas y por qué lo contrario no se sostiene. La elección de los productos no determina el valor de los insumos. Este tipo de conocimiento especial y estructurado requiere que entendamos que cambiar X es probable que termine con un cambio en Y; las causas y los efectos son asimétricos: cambiar Y no moverá a X; las causas y los efectos van juntos con el tiempo.
4.4 Teoría y credibilidad
El debate del pensamiento científico moderno, pensar desde la teoría y librarnos de los demonios con audaces diseños experimentales. El auge de la teoría formal y la revolución de la credibilidad son dos de los grandes desarrollos de la ciencia de los últimos 50 años. Con estos avances, el potencial para el diálogo productivo entre teoría y los empíricos nunca ha sido mayor. Por lo tanto, es penoso que, en las ciencias y en la ingeniería parezca estar esto a la deriva. Irónicamente, estos dos desarrollos, deberían unirse más en la formación de científicos en las universidades, estar uniéndolos a los ingenieros, en cambio los está dividiendo. La revolución de la credibilidad ha sensibilizado desde ingeniería a los científicos sobre los desafíos de separar la correlación de la causalidad y nos ha obligado a contar con la verosimilitud de las interpretaciones causales que se dan rutinariamente a las estimaciones empíricas[14].
Por un lado, a algunos científicos les preocupa que la búsqueda de estimaciones causales creíbles esté desplazando el objetivo canónico de comprender fenómenos científicos importantes. ¿Por qué sucede esto? Muchos ven a los partidarios de la revolución científica de los datos en la credibilidad, desdeñosos de lo que puede ser y de hecho, se puede aprender por estudios empíricos de otros enfoques. La revolución de la credibilidad nos distrae de nuestros verdaderos objetivos. Esarey y Summer describen el auge del “empirismo radical” como divorciado de la teoría[15]. Otros se lamentan que debido a no creer que una buena identificación causal, no siempre es posible en cuestiones de importancia central, la revolución de la credibilidad se ha llevado a los científicos a reducir excesivamente la gama de preguntas que hacen. Al priorizar las estrategias de identificación de hechos, se corre el riesgo de perder de vista los intereses teóricos y analíticos que motivan la investigación científica.
En el otro lado están los académicos que han abrazado la revolución de la credibilidad, argumentando que gran parte del trabajo cuantitativo canónico en ciencias ofrece solo la ilusión de aprender sin un modelado. Para estos, no tiene sentido abordar preguntas que no se pueden responder con claridad. En su lugar, sugieren centrarnos en cuestiones accesibles a diseños de investigaciones creíbles. Justo antes de la revolución de la credibilidad como producción en masa de pseudo-hechos cuantitativos a través de regresión múltiple y otros medios de la ciencia de datos; Hauke argumenta que sin un diseño de un experimento cercano a lo natural, una discontinuidad o algún otro diseño, ninguna cantidad de modelado estadístico puede hacer que el paso de la correlación a la causalidad sea persuasivo[16]. Esta conclusión tiene implicaciones para el tipo de preguntas causales que somos capaces de responder con cierto rigor.
Esta cisma recuerda la división anterior abierta por el auge de la teoría formal y su mayor enfoque en la construcción de modelos. Al igual que los partidarios de la revolución de la credibilidad, los primeros teóricos de la elección racional, como Green y Shapiro describen: no sostenemos que los politólogos tradicionales han estudiado los fenómenos equivocados, sino que han estudiado los fenómenos correctos de la manera equivocada[17].
En el papel de los críticos actuales de la revolución de la credibilidad están aquellos preocupados de una fetichización de la elegancia matemática que distrae a los científicos del objeto de generar ideas que fueran genuinamente útiles para explicar o adecuar para la evaluación empírica. Muchos lamentan que el progreso empírico se ha visto retrasado por lo que se denomina investigación basada en métodos, en lugar de investigaciones basadas en problemas. ¿Qué es interesante o útil?, preguntaron los críticos, acerca de los modelos estrechos construidos sobre suposiciones que llevan, en el mejor de los casos, solo una relación distante con la realidad. Por ejemplo, en su crítica de los modelos formales, Fernández (2021), argumentó que son una idea consistente, preciso, pero trivial es de menor valor que una nueva conjetura audaz que nos ayuda a comprender algún problema importante del mundo real… una teoría lógicamente consistente pero empíricamente falsa que tiene poco valor[18].
La formalización (modelado matemático) permite a los académicos evitar errores de lógica y logra una mayor transparencia. Pero estrecha las conexiones entre las suposiciones y las conclusiones fuera de todo lo que la teoría formal tuviera que ofrecer, esta sería una contribución muy importante. Algunos investigadores señalan tres virtudes de la formalización[19]: ver con claridad qué supuestos impulsan qué resultados; evitar errores de lógica a través del rigor y, lograr una especie de unidad o coherencia evitando hipótesis que dependen de supuestos contradictorios.
Esta cisma presagiaba la división cada vez más profunda de hoy entre teóricos y empíricos. Si bien, en principio, casi todo el mundo está de acuerdo en que la teoría y los empíricos deben trabajar juntos, en la práctica, cada parte siente que la otra a menudo no sostiene su parte del trato. Por un lado, un grupo de pensadores de mentalidad teórica está desconcertado y consternado por el giro empírico hacia los diseños de investigación para responder de manera creíble a preguntas causales estrechas[20]. ¿Por qué, se preguntan los empiristas, están obsesionados con responder cuidadosamente preguntas poco interesantes, en lugar de hacer un trabajo que hable de preguntas teóricas? Por otro lado, un grupo de pensadores con mentalidad empírica están igualmente desconcertados y consternados por el enfoque de los teóricos en modelos abstractos basados, desde su perspectiva, en suposiciones demostrablemente falsas[21]. ¿De qué sirve, se preguntan, pueden ser útiles tales modelos para explicar el mundo o guiar la investigación empírica?
Como resultado de esta mutua perplejidad e insatisfacción, los grupos se están separando, yendo sobre sus propios asuntos y viendo al otro con creciente escepticismo. Esta brecha cada vez mayor amenaza el vínculo entre teoría y lo empírico que son juntos esencialmente la empresa científica.
Ha llegado el momento de volver a unir estos dos grupos. La teoría formal y la revolución de la creatividad (ciencia de datos), son socias naturales que, juntas, pueden apoyar un diálogo en la formación de jóvenes universitarios. Una formación STEM entre teoría y lo empírico que nunca antes ha sido posible en la ciencia y el humanismo en un México de tradición negacionista, denunciado en 1928 por el nicolaita Samuel Ramos.
4.4.1 Darse la mano empiristas y teóricos
Sin embargo, reconciliar las disciplinas del oficio teórico y empírico, actualmente requiere realizar su potencial juntas. Empiristas y teóricos por igual impactan en la empresa del otro. Todos necesitan un marco mejor para encajar en la actividad universitaria de investigación y formación académica de nuevos científicos. Cada parte necesita comprender mejor qué tipo de conocimiento está tratando de crear la otra parte y cómo lo hacen. Solo con esta comprensión los teóricos verán cómo hacer que sus modelos sean genuinamente útiles para la investigación empírica. Y los empiristas verán cómo estructurar su investigación de maneras que hablen de preguntas teóricamente significativas.
Si vamos a aprender a detectar oportunidades para una conexión más profunda entre la teoría y los empíricos, tenemos que dedicar algún tiempo a los detalles. Detalles sobre por qué los teóricos escriben los tipos de modelos que hacen, y cómo esos modelos se pueden hacer más útiles para los empiristas. Detalles de sobre por qué los empiristas usan los tipos de diseños de investigación que hacen, y cómo esos diseños de investigación se pueden hacer para hablar mejor a preguntas teóricamente significativas. Detalles sobre cómo funciona exactamente la conexión entre ellos y qué hace que esa conexión sea informativa.
Pero sería un error empezar por ahí. Nos preocupa que si nos metemos de nuevo en los detalles, usted no tendría ningún contexto para entender por qué hacemos hincapié en algunos temas y restar importancia a otros. O cómo nuestra discusión de los detalles encaja en el panorama general, creando el diálogo sólido entre la teoría y los empíricos que es necesario para una ciencia próspera. En síntesis, extrañaremos el bosque para ir a ver los árboles.
Es necesario un marco conceptual para pensar en cómo encaja toda esta empresa científica. En términos generales, ¿cómo funcionan los modelos teóricos y la investigación empírica, ¿cómo los diseños experimentales o modelos se relacionan con el mundo real? Cuando comparamos una implicación teórica con un hallazgo empírico, ¿de qué tipo de afirmaciones científicas estamos aprendiendo? ¿Cómo podemos hacer tales comparaciones máximamente informativas sobre las preguntas que nos motivan, es decir, preguntas que nos motivan, es decir, preguntas sobre cómo funciona el mundo?
Comparar y contrastar los enfoques prominentes para vincular la estructura y el análisis de mediación causal. Esa comparación nos lleva a una discusión de la perspectiva de nuestro marco sobre la extrapolación. Esto es particularmente importante a la luz del argumento, presentado por algunos críticos, de que una consecuencia no deseada de la revolución de la credibilidad ha sido empujar a los académicos a centrarse en los datos de entornos muy localizados, lo que limita nuestra capacidad de aprender sobre principios más generales.
Vincular la teoría y lo empírico. Se centra en un objetivo de investigación en la realidad u objeto de estudio para abreviar. Un objeto es parte del universo real sobre el que estamos tratando de aprender, ya sea con teoría o empírica. Un modelo toma como objeto las leyes de la naturaleza, al igual que un estudio empírico que relaciona los resultados sintéticos de una teoría. Del mismo modo, la investigación teórica o empírica sobre los eventos de procesos tienen como objetivo la predicción en contextos reales.
Los modelos teóricos y los diseños de investigación empírica, por supuesto, son distintos al objeto en lo real. Pero cada uno, a su manera, intenta representar el objeto. Así que nuestra visión desde las alturas del bosque, debe aclarar un poco sobre lo que significa para los modelos teóricos y los diseños de investigación empírica, representar objetos del mundo real. Una vez que podamos ver más claramente cómo los modelos y los diseños experimentales se relacionan con el mundo, también obtendremos algo de claridad sobre cómo se relacionan entre sí.
Comencemos con los modelos y la idea de similitud[22]. La investigación teórica implica tratar de explicar un objeto del mundo real mediante la representación de algunas características de ese objeto. Para ello, el modelo característico de ese objeto, en un sentido debe ser aclarado en lo similar al objeto real. La palabra modelo recuerda a los modelos formales de elección racional, y esos son un ejemplo paradigmático de la idea. Pero las naciones de representación y similitud se aplican más ampliamente. Se pueden aplicar a otras formalizaciones, incluidas los modelos computacionales y los esquemas conceptuales para formalizar relaciones causales desde una experiencia sintética. Y se aplican una variedad de enfoques para teorizar informalmente, por ejemplo, el modelo de opinión pública.
Los modelos son siempre simplificaciones, ignorando gran parte de lo que está sucediendo en el objeto. A menudo hacen suposiciones que son demostrablemente parcialmente falsas como descripciones del mundo. Entonces, ¿cómo podrían ser útiles para la explicación teórica? La respuesta viene de desarrollar la noción de similitud, que da sustento a la práctica. Un modelo está destinado a ser similar al objeto de una manera muy particular. Ciertos actores, situaciones y mecanismos análogos en el destino. Las llamamos las características representacionales del modelo. No todo en el modelo está destinado a ser representacional. Cualquier modelo teórico tiene características auxiliares que no son descriptivas del objeto, pero ayudan con la manejabilidad o simplificación necesaria para que ese conocimiento sea ingeniería. Las notificaciones sobre las entidades de representación definen las condiciones de ámbito del modelo.
El análisis de un modelo produce implicaciones sobre las relaciones entre los objetos del modelo. Algunas de esas implicaciones dependen de las entidades de representación, pero son robustas para los cambios en las entidades auxiliares. Esas implicaciones son adecuadas para evaluar la similitud del modelo y el objeto. A esto lo llamamos las implicaciones pertinentes y necesarias para el progreso de una tecnología. La idea clave es que, si la similitud es cierta, entonces las implicaciones pertinentes del modelo deben reflejarse en el objeto real. Si, por el contrario, la implicación teórica depende crucialmente de una característica auxiliar del modelo que no es plausible similar al mundo, entonces no hay razón para esperar ver la implicación reflejada en el mundo como una herramienta de predicción que desarrolla tecnología.
Por el tipo de curso clásico de estadística en su modo en que se aborda, el estudiante se le permite decir X está relacionada con Y, X está asociada con Y, pero no X es causal de Y. Debido a esta restricción, las herramientas matemáticas para gestión de causales se consideran necesarias y hacen de las estadísticas solo un resumen de datos, no en cómo interpretarlos. Una excepción brillante fue el análisis de caminos (path), inventado por Sewall Writht en 1920. Sin embargo, el método de path fue subestimado en las estadísticas y sus comunidades por décadas, y fue hasta 1980 que la inferencia causal se abrió camino, cuando se hace conciencia que la falsa repuesta a las preguntas científicas reside en los datos, que se revelarían a través de ingeniosos trucos de mentira de datos.
Los datos pueden decir que a una planta que se le aplicó un químico, se recuperó de una infección más rápido que aquellas que no se expusieron, pero no puede decirle por qué. Cada vez en la ciencia y las empresas industriales se observó que los meros datos no son suficientes. Hoy en día, gracias a los modelos causales cuidadosamente elaborados, los científicos contemporáneos pueden abordar problemas que alguna vez se habrían considerado irresolubles o incluso más allá de la pálida investigación científica. Hace cien años no se consideró afirmar que fumar tabaco era causa de un peligro para salud, porque esta causa resultaba poco rigurosa en la ciencia. La mera mención de la palabra causal o efecto, crearía una tormenta de objeciones en cualquier publicación científica de buena reputación también hace cien años.
Pero hoy en día, epidemiológicos, biólogos, científicos sociales, informáticos y economistas plantean tales preguntas habitualmente y las responden con precisión matemática. Este cambio a solo 20 años, conduce a una ciencia de datos de probabilidad subjetiva que abraza el don cognitivo innato de nuestra mente causal para proponer efectos. Este cambio en el diseño experimental no ocurrió en el vacío; tiene un secreto matemático detrás que puede describirse como cálculo causal. Responde a los problemas de relaciones causa-efecto. Este potencial matemático trasformó la investigación biológica en una ciencia de precisión matemática.
El cálculo de la causalidad consta de dos objetos: grafos casuales, para expresar lo que sabemos, y un lenguaje simbólico (parecido al álgebra, para expresar lo que queremos saber). Los diagramas causales son simplemente Imag4 de nodos y flechas que resumen nuestro conocimiento científico existente dentro de redes causales. Los nodos representan cantidades o variables de interés y las flechas o ramas representan interacciones causales entre variables y cadenas o path a saber; variables (nodos) escuchan la interacción para que otras trasmitan el efecto. Se puede navegar en los grafos utilizando nodos y ramas como calles unidireccionales, se pueden comprender los grafos como vías causales y resolver el tipo de preguntas, qué causa qué. Aunque los diagramas causales son una herramienta poderosa, no son el único tipo de modelos causales posibles. A algunos científicos les gusta trabajar con ecuaciones matemáticas, otros, los estadísticos prefieren una lista de suposiciones que aparentemente resumen la estructura del diagrama. Independientemente del lenguaje, el modelo debe representar similitud con el objeto real, sin embargo, cualitativamente, el proceso que genera los datos, en otras palabras, son las fuerzas causa-efecto que operan en el entorno.
Junto con este lenguaje de conocimiento de grafos, también tenemos un “lenguaje de cuestiones” que es simbólico, para expresar las preguntas a las que queremos repuestas. Por ejemplo, si estamos interesados en el efecto de un medicamento (D) en la vida útil (L), entonces nuestra cuestión podría escribirse simbólicamente como:
P(L| hace (D)).
En otras palabras, ¿Cuál es la probabilidad (P) de que un paciente típico sobreviva L años si se le hace tomar el medicamento D? Esta pregunta describe lo que los epidemiológicos llamarían una intervención o un tratamiento y corresponde a lo que medimos en un ensayo clínico. En muchos casos es posible que deseemos comparar:
P(L| hace (D)) con P(L| hace (no-D))
Este último describe a los pacientes a los que se les negó el tratamiento, también llamados pacientes de control.
El operador “hacer” significa que estamos tratando con una intervención en lugar de una observación pasiva; la estadística clásica no tiene nada remotamente similar a este operador, en inglés se llama operador “do”. Debemos invocar a un operador do(D) para asegurar que el cambio observado en la vida útil L se debe al fármaco en sí y no se confunda con otros factores que tienden a acortar o alargar la vida. Si, en lugar de intervenir, dejamos que el propio paciente decida si tomar el medicamento, esos otros factores podrían influir en su decisión y las diferencias de vida entre tomar y no tomar el medicamento ya no se deberían al medicamento. Por ejemplo, supongamos que solo aquellos que tenían una enfermedad terminal tomaron el medicamento. Tales personas seguramente diferirían de aquellos que no tomaron el medicamento, y una comparación de los dos grupos reflejaría diferencias en la gravedad de su enfermedad en lugar del efecto del medicamento. Por el contrario, o abstenerse de tomar el medicamento, independientemente de las condiciones previas, eliminaría las diferencias preexistentes y proporcionaría una comparación válida.
Matemáticamente, escribimos la frecuencia observada de la esperanza de vida L entre los pacientes que voluntariamente toman el medicamento como P(L|D), que es la probabilidad condicional estándar utilizada en los libros de estadística. Esta expresión representan la probabilidad (P) de la esperanza de vida L condicionada a ver al paciente tomar el fármaco D. Tenga en cuenta que P(L|D) puede ser totalmente diferente de P (L|do(D)). Esta diferencia entre ver y hacer es fundamental y explica por qué no consideramos que la caída del barómetro sea una causa de la tormenta que se avecina. Ver caer el barómetro aumenta la probabilidad de la tormenta, mientras que forzarla a caer no afecta esta probabilidad.
Esta confusión entre ver (observar) y hacer ha dado lugar a una fuente de paradojas, algunas de las cuales atenderemos. Un mundo desprovisto de P(L|do(D) y gobernado únicamente por P(L|D) sería realmente extraño. Por ejemplo, los pacientes evitarían ir al médico para reducir la probabilidad de estar gravemente enfermos; las ciudades despedirían a sus bomberos para reducir la incidencia de incendios; los médicos recomendarían un medicamento a pacientes masculinos y femeninos, pero no a pacientes con género no revelado; y así sucesivamente. Es difícil creer que solo hace tres décadas, la ciencia operaba en un mundo así: el operador “do” no existía.
Uno de los logros culminante de la revolución causal ha sido explicar cómo predecir los efectos de una intervención sin promulgarla realmente. Nunca habría sido posible si no hubiéramos definido, en primer lugar, el operador “do” para que podamos hacer la pregunta de emularlo por medios no invasivos.
Cuando la cuestión científica de interés implica el pensamiento retrospectivo, recurriremos a otro tipo de expresión única para el razonamiento causal llamado contrafactual. Por ejemplo, supongamos que Pedro tomó la droga D y murió un mes después; nuestra pregunta de interés es si la droga podría haber causado su muerte. Para responder a esta pregunta, necesitamos imaginar un escenario en el que Pedro estaba a punto de tomar la droga, pero cambió de opinión. ¿Habría vivido?
Una vez más, la estadística clásica solo resume los datos, por lo que no proporciona ni siquiera un lenguaje para hacer esa pregunta. La inferencia causal proporciona una notación y, lo que es más importante, ofrece una solución. Al igual que con la predicción del efecto de las intervenciones, en muchos casos podemos emular el pensamiento retrospectivo humano con un algoritmo que toma lo que sabemos sobre el mundo observado y produce una respuesta sobre el mundo contrafáctico. Esta “algorítmica contrafactual” es otra joya descubierta por la revolución causal.
El rozamiento contrafáctico, es decir, que se ocupa de los “qué”, quizá parecería a algunos lectores poco científico. De hecho, la observación empírica nunca puede confirmar o refutar las respuestas a tales preguntas. Sin embargo, nuestras mentes hacen juicios muy confiables y reproducibles todo el tiempo sobre lo que podría ser o podría haber sido. Todos entendemos, por ejemplo, que si el gallo hubiera estado en silencio esta mañana, el sol habría salido igual de bien. Este consenso se deriva del hecho de que los contrafácticos no son productos de caprichos, sino que se reflejan en la estructura misma de nuestro modelo de mundo (en sus leyes).
Los contrafactuales son los bloques de construcción del comportamiento biológico, así como del pensamiento científico. La capacidad del reflexionar sobre las acciones pasadas y visualizar escenarios alternativos es la base del libre albedrío y la responsabilidad social. La algorítmica de los contrafactuales inventa a las máquinas de aprendizaje para beneficiarse de esta capacidad y participar en esta forma exclusivamente humana de pensar en el mundo. Nuestro énfasis en discutir las ideas, es atender el lenguaje de una profunda convicción de que el lenguaje da forma a nuestros pensamientos. No podemos responder a una pregunta que no puede hacerse, y no podemos hacer una pregunta para la que no tenemos palabras.
En nuestra experiencia desde finales de la década del 2000, nos dimos cuenta que la falta de comprensión de las relaciones causales por parte de las máquinas de aprendizaje era quizás el mayor obstáculo para interpretar la inteligencia humana. Además, la inteligencia artificial (IA) es un objetivo alcanzable si nos tomamos en serio aprender el razonamiento causal que da a las máquinas la capacidad de “reflexionar” sobre sus errores, identificando debilidades en su software, funcionan como entidades de cálculo y dialogan naturalmente con los humanos sobre sus propias elecciones y razonamientos como una emulación de causalidad.
En nuestra era, los lectores sin duda han escuchado términos como “conocimiento”, “información”, “inteligencia” y “datos”, y algunos pueden sentirse confundidos acerca de las diferencias entre ellos o cómo interactúan. Ahora estoy proponiendo lanzar otro término, “modelo causal”, en la combinación, y el lector puede preguntarse justificadamente si esto solo aumentará su confusión. ¡No lo hará! De hecho, anclara las alusivas nociones de ciencia, conocimiento y datos en un entorno concreto y significativo, y nos permitirá ver cómo los tres trabajan juntos para producir respuestas a preguntas científicas difíciles.
El motor de inferencia causal es una máquina que acepta tres tipos diferentes de entradas (suposiciones, consultas y datos) y produce tres tipos de salidas. La primera de las salidas es una decisión sí/no en cuanto a si la consulta dada puede en teoría ser responsable bajo el modelo causal existente, asumiendo bajo el modelo causal existente, datos perfectos e ilimitados. Si la respuesta es Si, el motor de inferencia produce a continuación un estimado. Esta es una fórmula matemática que se puede pensar como una receta para generar la respuesta a partir de cualquier dato hipotético, siempre que estén disponibles. Finalmente, después de que el motor de inferencia haya recibido una estimación real para la respuesta, junto con estimaciones estadísticas de la cantidad de incertidumbre en esa estimación. Esta incertidumbre refleja el tamaño limitado del conjunto de datos, así como los posibles errores de medición o los datos faltantes.
Si estamos en posesión de un modelo casual, podremos predecir el resultado de una intervención a partir de datos: creamos así una tecnología. Para profundizar en el contexto, ¿Cuál es el efecto de la droga D en la vida sutil L?
1. Conocimiento significa el rastro de experiencia que el agente de razonamiento ha tenido en el pasado, incluidas observaciones pasadas, acciones pasadas, educación y costumbres culturales, que se consideran relevantes para la consulta de su síntesis. El conocimiento indica que permanece implícitamente a la mente del agente y no se explica formalmente en el modelo de explicación.
2. La investigación científica: Siempre requiere suposiciones, que el investigador considera dignas de hacer explícitas sobre la base del conocimiento disponible. Si bien, la mayor parte del conocimiento del investigador permanece implícito en su cerebro, solo las suposiciones ven la luz del día y están encapsuladas en el modelo. De hecho, se pueden leer a partir del modelo, lo que ha llevado a algunos lógicos a concluir que un modelo no es más que una lista de suposiciones. Los científicos informáticos se oponen a esta afirmación, señalando que la forma en que se representan las suposiciones puede marcar una profunda diferencia en la capacidad de uno para especificarlas correctamente, sacar conclusiones de ellas e incluso ampliarlas o modificarlas a la luz de la evidencia convincente; para los científicos informáticos, se suele señalar que la forma en que se representan las suposiciones pueden marcar una profunda diferencia en la capacidad de uno para especificar correctamente, sacar conclusiones de ellas e incluso ampliarlas o modificarlas a la luz de la evidencia convincente.
3. Existen varias opciones para los modelos causales: diagramas causales, ecuaciones estructurales, declaraciones lógicas… Estamos convencidos de los diagramas causales para casi todas las aplicaciones, principalmente debido a su transparencia, pero también debido a las respuestas explícitas que proporcionan a muchas de las preguntas que deseamos hacer. Para el propósito de construir el diagrama, la definición de “causalidad” es simple, aunque un poco metafórica: una variable X es una causa de Y, si Y “escucha” X y determina su valor en respuesta a lo que escucha.
4. El patrón de escucha prescrito por las trayectorias del modelo causal generalmente resulta en patrones observables o dependencias en los datos. Estos patrones se denominan “implicaciones comprobables” porque se pueden usar para probar el modelo. Estas son declaraciones como “no hay un camino que conecta D y L, lo que se traduce en una declaración estadística, “D y Y son independientes”, es decir, encontrar D no cambia la probabilidad de L. Si los datos contradicen esta implicación, entonces necesitamos revisar nuestro modelo. Tales revisiones requieren revisar nuestro modelo.
5. Las consultas enviadas al motor de inferencias son las preguntas científicas que queremos responder. Deben formularse en vocabulario causal. Por ejemplo, ¿Qué es P(L|do(D)? Uno de los principales logros de la revolución casual ha sido hacer que este lenguaje sea científicamente transparente y matemáticamente riguroso.
6. Estimar: proviene del latín, que significa “lo que se ha de estimar”. Se trata de una cantidad estadística a estimar a partir de los datos que, una vez estimados, pueden representar legítimamente la respuesta a nuestra pregunta. Mientras sea escrito como fórmula de probabilidad, por ejemplo, : de hecho, es una fórmula para responder a la pregunta causal a partir del tipo de datos que tenemos, una vez que ha sido certificado por el motor. Es muy importante darse cuenta de que, contrariamente a la estimación tradicional en estadística, algunas preguntas pueden ser respondidas bajo el modelo causal actual, incluso después de la recopilación de cualquier cantidad de datos. Por ejemplo, si nuestro modelo muestra que tanto D como L dependen de una tercera variable Z, y si no tenemos forma de medir Z, entonces pregunta P(L|do(D) no puede ser respondida. En ese caso, es una pérdida de tiempo recopilar datos. En su lugar, necesitamos volver hacia atrás y refinar el modelo, ya sea agregando nuevos conocimientos científicos que podrían estimar Z o simplificando las suposiciones (a riesgo de estar equivocados), por ejemplo, que el efecto de Z en D es insignificante.
7. Los datos son los ingredientes que entran en la fórmula de estimación. Es fundamental darse cuenta de que los datos son profundamente tontos sobre las relaciones causales. Nos hablan de cantidades como P(L|D) o P(L|D,Z). Es el trabajo del estimado decirnos cómo hornear estas cantidades estadísticas en una expresión que, basada en los supuestos del modelo, es lógicamente equivalente a la consulta, por ejemplo, P(L|do(D). Nótese que en el gráfico para la noción de estimación, y de hecho, toda la parte superior de la figura no existe métodos tradicionales de análisis estadístico. Por ejemplo, si estamos interesados en la proporción de personas ente aquellos con esperanza de vida L que tomaron el medicamento D, simplemente escribimos esta consulta como P(D|L). La misma cantidad sería nuestra estimación. Esto ya especifica qué proporción en los datos deben estimarse y no requieren ningún conocimiento causal. Por esta razón, a algunos estadísticos hasta el día de hoy les resulta extremadamente difícil comprender por qué algunos conocimientos se encuentran fuera de la provincia de las estadísticas y por qué los datos por sí solos no pueden compensar la falta de conocimiento científico.
8. La estimación es lo que sale del horno. Sin embargo, solo es real sobre los datos: siempre es solo una muestra finita de una población teóricamente infinita. Incluso si los elegimos al azar, siempre existe la posibilidad de que las proporciones medidas en la muestra no sean representativa de las proporciones en la población en general. Afortunadamente, la disciplina de la estadística, potenciada por técnicas avanzadas de aprendizaje automático, nos brindan muchas formas de manejar esta incertidumbre: estimadores de máxima probabilidad, intervalos de confianza, pruebas de significación…
9. Al final, si nuestro modelo es correcto y nuestros datos son suficientes, obtenemos respuesta a nuestra pregunta causal, la respuesta se sumará a nuestro conocimiento científico y si las cosas no salieron mal, podría sugerirnos algunas mejoras en nuestro modelo causal.
Este diagrama de flujo puede parecer complicado al principio, y es posible que se pregunte si es realmente necesario. De hecho, en nuestras vidas ordinarias, de alguna manera somos capaces de hacer juicios causales sin pasar conscientemente por un proceso tan fino y ciertamente sin recurrir a las matemáticas de probabilidades y proporciones. Nuestra intuición causal por sí sola suele ser suficiente para manejar el tipo de incertidumbre que encontramos en las rutinas domésticas o incluso en nuestra vida profesional. Pero si queremos construir tecnologías sólidas, debemos construir predictores que procesen motores de pensamiento casual, o si estamos empujando las fronteras del conocimiento científico, donde no tenemos intuición que nos guíe, entonces un procedimiento cuidadosamente estructurado como este es obligatorio.
Queremos destacar el papel de los datos en el proceso anterior. Primero, observe que recopilamos los datos solo después de postular el modelo causal, después de indicar la consulta científica que deseamos responder y después de derivar el estimando. Esto contrasta con el enfoque estadístico tradicional, que ni siquiera tiene un modelo causal. Pero nuestro mundo científico actual presenta un nuevo desafío para el razonamiento sólido sobre las causas y los efectos. Mientras que la conciencia de la necesidad de un modelo causal ha crecido a pasos agigantados entre las ciencias, a muchos investigadores en inteligencia artificial les gusta omitir el difícil paso de construir o adquirir un modelo causal y confiar únicamente en los datos para todas las teorías cognitivas de los modos de conocer científico. La esperanza es formar una nueva generación de científicos universitarios, suele ser una revolución silenciosa, es que los datos mismos nos guíen a las respuestas correctas cada vez que vengan preguntas causales.
4.5 La lógica de la biología moderna
4.5.1. Causalidad en términos de probabilidad subjetiva
La lógica ha sido vista por Aristóteles principalmente como una herramienta para producir o adquirir conocimiento. Ha sido diseñada por Aristóteles como un remplazo de la dialéctica (discutir para descubrir la verdad mediante la exposición y confrontación de razonamientos y argumentaciones contrarias entre sí) que ha reinado en la Academia de Platón como el principal método filosófico para descubrir la naturaleza, la esencia de las cosas y los conceptos abstractos. Este desarrollo de los pensamientos de Aristóteles en realidad ha reflejado su transición de una visión platónica ortodoxa a una más mesurada que ha tratado la dialéctica como una mera técnica de razonamiento, tanto no esencial como insuficiente por sí misma para la búsqueda del conocimiento.
En su búsqueda de fundamento más firme de razonamiento, Aristóteles nunca pierde de vista sus propósitos y, dejando la dialéctica como método, conserva la intención principal detrás de ella y todavía sostiene que el objetivo principal de los argumentos y deducciones debe consistir en la producción de conocimiento. En este sentido, también podría verse como una teoría del conocimiento científico (episteme) en su forma más elevada. Según Aristóteles, poseemos conocimiento de un hecho en lugar de conocerlo de la manera accidental en la que el sofista sabe, solo cuando conocemos la causa de la que depende el hecho, y también que no es posible que sea de otra manera. Usando una terminología moderna, el conocimiento puede e incluso debe codificarse en términos de relaciones causa-efecto.
Esto lleva naturalmente a Aristóteles al concepto de demostración (apodeixis). Por demostración se refiere a silogismo, cuyo alcance tiene referencia con la lógica material, es decir, con referencia a lo real, a lo existencial u objetivo. Un patrón de razonamiento de dos niveles es claramente visible en la descripción anterior de las demostraciones. Según Aristóteles, el conocimiento científico de los hechos que no son “evidentes” es posible solo a través de la demostración, mientras que esta última se logra mediante un silogismo (deducción) que no solo es lógicamente válido, sino que también, y lo más importante, sigue el orden natural de las cosas. Este es el orden de prioridad, dependencia y necesidad determinada por la causalidad. En este sentido, la demostración no es solo un orden preferido del conocimiento construido humanamente, sino un mapeo de la estructura de lo real[23].
Según Aristóteles, una propiedad importante del conocimiento demostrativo es su universalidad y necesidad. El conocimiento y su objeto son diferentes de la opinión y su objetivo porque el conocimiento es universal y depende de elementos necesarios y lo que es necesario no puede ser de otra manera. Tal conocimiento se puede utilizar para predicciones y así lograr una nueva tecnología. En consecuencia, no puede haber conocimiento de las cosas que pueden ser de otra manera. Aristóteles generalmente se refiere a sus dos Analytics como un solo estudio, declara el tema de estudio (la demostración) o conocimiento demostrativo. Aún así, la silogística (que se describe en el Análisis previo) es un requisito previo importante antes de la demostración porque “el silogismo es el más general”; la demostración es una especie de silogismo, pero no todo silogismo es una demostración. En otras palabras, el razonamiento causal de la apodíctica (en lógica, expresa o encierra una verdad concluyente o que no deja lugar a duda o discusión) se basa firmemente en la lógica del silogismo. Además, Aristóteles proporciona una distinción entre lo que es anterior o mejor conocido “en el orden del ser”. Esta distinción se encuentra en la base de la diferencia entre la dialéctica (y el razonamiento puramente deductivo en silogística) y el razonamiento demostrativo.
Aristóteles ha proporcionado ejemplos vividos de la distinción entre deducción y demostración. Así, a partir de los hechos de que los planetas no parpadean y que lo que no parpadea en cielo está cerca, podemos deducir que los planetas están cerca. Sin embargo, esta deducción no es una demostración, ya que no da la razón del por qué, sino solo el hecho: no es porque los planetas no parpadean que estén cerca, sino porque están cerca, no parpadean. Es solo cuando probamos esto último a través del primero que la deducción correspondiente también será una demostración porque dará la razón del por qué.
Algunos conceptos erróneos acumulados en la historia de las interpretaciones de los Análisis de Aristóteles han sido causados por el deseo de hacerlos más “comprensibles” para el lector moderno educado lógica y filosóficamente. Algunos de ellos incluso han influenciado en la traducción misma de los textos de Aristóteles. Así, en la traducción revisada de Oxford Analytics, el término “causa” fue remplazado por “explicación[24]”. Esto ha ocultado hasta cierto punto la base causal del concepto aristotélico de demostración. Del mismo modo, el término de Aristóteles para el conocimiento (episteme) se ha traducido de diversas maneras como “ciencia” o “comprensión”, lo que ha reflejado la incertidumbre general sobre el lugar apropiado de la Analítica posterior y su tema en la imagen filosófica moderna.
De hecho, todo el propósito del Análisis Posterior más grande se ha vuelto poco claro para el elector “lógicamente educado” ya que la lógica propiamente dicha, es decir, una teoría del silogismo, ha sido descrita por Aristóteles ya en él relativamente corto Análisis. Una expresión extrema de esta incertidumbre se puede encontrar en una afirmación moderna de la demostración[25], aunque acompañada de una conclusión de que solo tiende a desviar la atención de los aspectos profundos, claros, útiles y hermosos de los “análisis” de los científicos modernos como el QFB.
El contenido del Análisis Posterior a menudo se ha descrito como una teoría particular del método científico. Por lo tanto, se ha argentado que Aristóteles fue el primero en producir una teoría filosófica de pleno derecho de la ciencia axiomatizada. De hecho, el apodíctica de Aristóteles no se limita a explorar dominios científicos específicos; en este sentido, es una mera facultad de proporcionar argumentos, al igual que silogística o dialéctica. Sin embargo, un método axiomático (principios evidentes de verdad) hace que las relaciones causales e incluso explicativas entre afirmaciones particulares sean en gran medida irrelevantes; lo que realmente importa en este último es solo la deducción lógica de las conclusiones de los axiomas. En contraste, el propósito de las pruebas demostrativas no consiste en establecer hechos que son previamente desconocidos, sino en proporcionar una compasión adecuada (o conocimiento verdadero) de estos hechos. En consecuencia, Aristóteles ha sugerido en realidad una dirección casi opuesta en la que las ciencias deben desarrollarse (para lo cual el título Analytics es especialmente apropiado), uno que comienza con hechos obtenidos, por ejemplo, de observaciones, y procede a sus explicaciones causales porque “sin una demostración no podemos tomar conciencia de lo que es una cosa. Es solo al final de este proceso analítico, es decir, a partir de demostraciones exitosas y teorías enteras, que podemos obtener un control de los principios (definiciones y axiomas) de una ciencia. En realidad, las consecuencias relevantes, incluidas las nuevas, de una manera puramente lógica.
Un lector educado en lógica también debería notar que Aristóteles apunta al conocido postulado de reflexibilidad de la inferencia lógica: a saber, que A implica A. De hecho, la irreflexibilidad está incluida en la definición misma de un silogismo de Aristóteles: un silogismo se define como un argumento en el que, siendo postuladas resulta por necesidad. En este sentido, un rasgo distintivo del formalismo lógico de inferencia causal, será la esencia del postulado de reflexibilidad preservando el resto de las propiedades de la inferencia lógica clásica.
Del mismo modo, la falacia de la No Causa fue descrita por Aristóteles como una falacia de “postular como causa lo que no es una causa” en las pruebas deductivas, lo que presupone claramente que las premisas de tales deducciones, o silogismos, no siempre son causas de sus conclusiones. Una vez más, una contraparte formal de esta distinción se describirá, en efecto, tratará de la noción de causalidad real.
La noción de inferencia causal sería sugerida como una contraparte formal de la noción aristotélica de demostración en el marco de nuestro formalismo de razonamiento causal. Para concluir esta descripción corta de la teoría de la demostración de Aristóteles, debemos agregar que los tres sistemas principales de razonamiento del gran edificio de Organon de Aristóteles, a saber, dialéctica, silogística y apodíctica, resultarán desempañar sus propios roles distintivos en el marco lógico de nuestro estudio. Mientras que los dos últimos podrían considerarse como los orígenes de nuestro sistema de razonamiento causal de dos niveles, la dialéctica podría verse como el origen de una teoría general de la argumentación; proporcionará una descripción formal del razonamiento ni monofónico que constituye otro ingrediente esencial de nuestro enfoque lógico de la causalidad en la ciencia biológica moderna en el orden de nano escala.
4.5.2 Ejemplo, filosofía de la nanobiología
5.5.2.1 Fundamento de la biología moderna
Miré por un microscopio, mi profesor de biología explicó que veríamos las células, la unidad básica de la vida. Y ahí estaban: matrices ordenadas de celdas tipo caja, todas apiladas en columnas ordenadas. Que impresionante parecía que el crecimiento y división de esas diminutas células era suficiente para empujar las raíces de una cebolla a través del suelo, para proporcionar a la planta una fuerza contraria a la de la gravedad por encima del suelo, para que la planta en crecimiento, agua, nutrientes, átomos y moléculas organizados con anclaje al suelo se adapten y progresen en medio de la más fiera incertidumbre.
A medida que aprendimos sobre células, nuestro sentido de asombro solo creció con cada nueva lectura, eso se conoce con el término tener una pasión. Las células vienen en una increíble variedad de formas y tamaños. La mayoría de ellas son demasiado pequeñas para ser vistas con los desnudos ojos de nuestra falta de lectura, no podríamos distinguir los bloques de construcción de los seres más complejos, cuando en realidad es mucho más interesante no rehuir por miedo a la complejidad.
La historia de la célula comienza en 1665 con Robert Hooke, miembro de la recién formada Royal Society de Londres por una sociedad que valora la discusión libre de las ideas, la importancia de ser tolerantes al error y flexibles a las nuevas ideas. Como tantas veces ocurre en la ciencia, fue una nueva tecnología la que desembocó su descubrimiento. Dado que la mayoría de las células son demasiado pequeñas para ser observadas a simple vista, su descubrimiento tuvo que esperar a la invención del microscopio a principios del siglo XVII. Los científicos son a menudo una combinación de teóricos y expertos en tecnología, esto fue parcialmente cierto para Galileo y Hooke, que se sentían igualmente cómodos explorando las fronteras de lo desconocido en la física, la arquitectura biológica, mientras inventó instrumentos científicos de precisión. Uno dijo al mundo que somos parte de un sistema solar y otro miró en lo profundo de una fina capa de corcho. Vio que la madera de corcho se compone de filas tras filas de cajas amuralladas, muy similares a las células en las puntas de raíz de la cebolla que vimos en el bachillerato 300 años más tarde. Hooke nombró estas células en honor de la palabra latina cella, que significa una pequeña habitación o cubículo. En ese sentido Hooke no sabía que las células que había dibujado eran en realidad no solo el componente básico de todas las plantas, sino de toda la vida.
Poco después de Hooke, Aton van Leeuwenhoek hizo otra observación crucial, cuando descubrió la vida unicelular. Vio estos organismos microscópicos nadando en muestras de agua de estanque y creciendo en la placa de sus dientes, algo que le molestó, porque estaba bastante orgulloso de su higiene dental. Le dio a estos pequeños seres un nombre entrañable, que ya no usamos hoy en día, “animalcules”. Los que encontró florecientes entre sus dientes, de hecho, las primeras bacterias descritas. Se había topado con todo un nuevo mundo de formas de vida de una sola célula.
Ahora sabemos que las bacterias y otros tipos de células microbianas son, con diferencia, las formas de vida más numerosas de la Tierra. Habitan todos los ambientes, desde la alta atmósfera hasta las profundidades de la corteza terrestre. Sin ellas, la vida se paralizaría. Descomponen los residuos, construyen suelos, reciclan nutrientes y capturan del aire el nitrógeno que las plantas y los animales necesitan para crecer y prosperar. Y cuando los científicos miran sus propios cuerpos, ven que por cada una de nuestras 30 billones o más células humanas, tenemos al menos una célula microbiana. Ustedes y todos los demás seres no somos entidades aisladas en lo individual, sino una colonia enorme en constante cambio, formada por células humanas y no humanas. Estas células de bacterias microscópicas y hongos viven de nosotros y en nosotros, afectando la forma en que digerimos los alimentos y luchamos contra las enfermedades.
Pero antes del siglo XVII, nadie tenía idea de que estas células invisibles existían, y mucho menos que funcionaban de acuerdo con los mismos principios básicos que todas las demás formas de vida más visibles. Durante el siglo XVIII y principios del siglo XIX, los microscopios y las técnicas microscópicas mejoran, muy pronto los científicos estaban identificando células de todo tipo de criaturas diferentes. Algunos comenzaron a especular que todas las plantas y animales fueron construidos a partir de colecciones unicelulares de Leeuwenhoek. Luego, después de una larga gestación, la teoría celular finalmente nació completamente un marco teórico. En 1839 el botánico Matthias Schleiden resumió: “hemos visto que todos los organismos están compuestos esencialmente como partes, a saber, de células”. La ciencia había llegado a la conclusión esclarecedora de que las células son la unidad estructural fundamental de la vida.
Las implicaciones de esta visión se profundizaron más cuando los biólogos se dieron cuenta de que cada célula es una forma de vida por derecho propio. Esta idea fue capturada por el pionero patólogo Rudolf Virchow, cuando escribió en 1858 que cada animal aparece como una suma de unidades vitales, cada una de las cuales lleva en sí las características completas de la vida.
Lo que esto significa es que todas las células están vivas. Los biólogos demuestran esto más vívidamente cuando toman células de cuerpos multicelulares de animales o plantas y las mantiene vivas en recipientes de vidrio o plástico, a menudo llamadas cajas Petri. Algunas de estas líneas celulares han estado creciendo décadas. Permitiendo a investigadores identificar procesos sin necesidad de hacer frente a la complejidad del organismo entero. Las células están activas; pueden moverse y responder al entorno y sus contenidos siempre están en movimiento. En comparación con todo un organismo, como un animal o una planta, una célula puede parecer simple, pero definitivamente está viva.
Había, sin embargo, una brecha importante en la teoría celular, como fue originalmente formulada por Schleiden y Schwann. No describió cómo surgieron las nuevas células. Esta brecha se cerró cuando los biólogos reconocieron que la célula se reproduce dividiéndose de una célula a dos, y concluyeron que las células solo son hechas por la división de una célula preexistente en dos. Virchow popularizó esta idea con un epigrama latino: todas las células provienen de células. Esta frase también ayudo a contrarrestar la idea incorrecta, todavía popular entre algunos en ese momento, de que la vida surge espontáneamente de la materia inerte todo el tiempo.
La división celular es la base del crecimiento y desarrollo de todos los organismos vivos. Es el primer paso crítico en la trasformación de un solo óvulo fertilizado uniforme de un animal en una bola de células y luego guiadas por la muerte programada de células en un ser vivo altamente complejo y autoorganizado: un embrión. Todo comienza con una célula que se divide y produce dos células, que pueden asumir identidades diferentes. La metamorfosis tiene lugar en rondas repetidas de división celular, seguidas de la creación de un embrión cada vez más elaborado, a medida que su geometría y división de funciones aparece, maduran en tejidos y órganos cada vez más especializados.
Esto significa que todos los organismos vivos, independientemente de su tamaño o complejidad, emergen de una sola célula. Creemos que todos respetaríamos las células un poco más si recordáramos que cada uno de nosotros era una vez una sola célula, formada cuando un espermatozoide y un óvulo se fusionaron en el momento que dos personas se vieron a sí mismas con amor.
La división celular explica las formas aparentemente milagrosas en que el cuerpo se cura a sí mismo. Si te cortaras con el borde de una hoja de papel, sería la división celular localizada alrededor de la lesión que repara la herida, ayudando a mantener vivo y sano el cuerpo. Los cánceres, sin embargo, son el desafortunado contrapunto a la capacidad del cuerpo de ensayar nuevas rondas de división celular intentando mejorar su adaptabilidad al medioambiente. El cáncer es causado por el crecimiento incontrolado, bloqueo del envejecimiento, y la división de las células que pueden propagar su malignidad, dañando o incluso matando el cuerpo.
El crecimiento, la reparación, la degeneración y la malignidad están vinculadas a cambios en las propiedades de nuestras células, en la enfermedad y en la salud, en la juventud y en la vejez. De hecho, la mayoría de las enfermedades se pueden rastrear hasta el mal funcionamiento de las células, y entender lo que sale mal en las células sustentando cómo desarrollamos nuevas formas de tratar la enfermedad.
La teoría celular sigue siendo influyente en la trayectoria de la investigación en las ciencias de la vida y en la práctica médica. También moldeó drásticamente el curso de nuestra vida. Desde que miramos la cebolla en el microscopio del bachillerato, hemos tenido curiosidad por las células y cómo funcionan cuando se reproducen y controlan su división para crear lo que somos, vida.
5.5.2.2 Nanobiología
La filosofía de la nanobiología se encuentra entre los debates de las posiciones "realista" y "estadísticalista", han involucrado respuestas a una variedad de preguntas independientes[26]: definiciones de conceptos evolutivos clave como la selección natural, la aptitud y la deriva genética; la causalidad en sistemas multinivel[27]; o la naturaleza de las explicaciones evolutivas de nanoestructuras celulares, entre otras. Este debate ofrece a las nanociencias una manera de desenredar un conjunto de estas preguntas que rodean la estructura causal de la selección natural en redes complejas sumergidas en un espacio de caos. Hacerlo nos permite derivar nanobiotecnologías que reconstruyen claramente el enfoque de predictibilidad, destacando características particulares de interés filosófico dentro de cada una de las aplicaciones en el marco de la emergencia climática. Además, estas características subyacentes entre capas de sistemas ofrecen una nueva filosofía científica de la biología: comprender el fondo de la dinámica de nanomáquinas celulares y "como objetivo crear sistemas vivos artificiales, ya sea rediseñando sistemas vivos que ya existen en el medio natural, o produciendo sistemas orgánicos cuasi biológicos, que emulan la vida orgánica[28]". Esto nos deja un campo de estudio de conexiones entre la computación de la complejidad, la probabilidad subjetiva, la topología de redes causales complejas, la mecánica cuántica en la ciencia biológica, y en general la biología de sistemas en el contexto de nanomáquinas celulares. Esta filosofía demuestra el valor potencial de una colaboración entre ciencias e ingeniería más amplia para la comprensión de la evolución.
Desde su origen, la teoría evolutiva ha demandado una interpretación filosófica cuidadosa, que implica la pregunta ¿Qué es la vida? Algunas razones para esto son bastante sencillas: desafiar los juicios de nuestro propio lugar en el universo[29] y amenaza a la contingencia de las teorías tradicionales de la ética[30] y la epistemología[31]. Tan pronto como Darwin puso el Origen en el papel, rápidamente se reconoció que se trataba, como mínimo, de una teoría científica inusual. Su argumento se basa en una hábil combinación de analogía de conocimiento sofisticado, como podrían ser para los productores agrícolas que modifican especies silvestres o aficionados a domesticación de palomas[32], teoría geológica de vanguardia respaldada por las propias observaciones al reduccionismo de mecanismos, de Darwin sobre el viaje de Beagle[33]. De aquí surge la tradición de reducción a mecanismos y causalidad subyacente entre sistemas biológicos. Estas conexiones tienen un trasfondo filosófico sorprendentemente, en palabras de Pence: "combinando el tratamiento cuidadoso de Hodge de la estructura del Origen con una comprensión más cautelosa de la filosofía de la ciencia de Herschel[34]". Esto no se parecía a la ciencia ordinaria del siglo XIX, así lo expresaron Darwin, el astrónomo John Herschel[35], el ingeniero Fleeming Jenkin[36] y el geólogo Adam Sedgwick[37].
La nanobiología plantea preocupaciones en las formas de tratar la naturaleza evolutiva como teoría científica, en la relación con la evidencia que respalda el acceso a modelos evolutivos contemporáneos de la probabilidad e inferencia estadística computacional con enfoque sintético y tecnológico[38]. Esta base ha sido complementada por hallazgos adicionales en siglo y medio intermedio a Darwin, que van desde los fundamentos bioquímicos del ADN hasta observaciones ecológicas a gran escala que Darwin habría pensado imposible[39]. Tales contribuciones aumentan la confianza en nuestras conclusiones sobre los cambios en la vida de la Tierra, pero ciertamente no hacen nada para que la relación teoría-evidencia sea más fácil de comprender.
No es una cuestión sencilla comprender la causalidad en sistemas en evolución. Los organismos individuales han sido, desde Aristóteles, ejemplos paradigmáticos de agentes causales, pero la marcha hacia adelante de las ciencias de la vida ha dividido estos organismo en sus partes componentes (órganos, tejidos, células, proteínas, aminoácidos, genes, ácidos nucleicos…) y los han combinado en agrupaciones sucesivas más grades (grupos de rasgos, poblaciones, especies y ecosistemas). En la medida que todas estas son descripciones de los mismos fenómenos orgánicos subyacentes, los filósofos de la biología tienen una interesante tarea interpretativa frente a nosotros: ¿Cómo armonizamos estas descripciones y cuáles deberíamos preferir en qué tipo de circunstancias? ¿Dónde está la verdadera “acción causal” en la teoría evolutiva? Desde el pensamiento de poblaciones de Ernst Mayr[40], hasta el anuncio periódico del retorno de entidades de grupos de Sterelny[41] o de organismo de Nicholson[42].
Elliott Sober, desarrolla un enfoque de la estructura causal fundamental de la teoría evolutiva[43]. El profesor Sober, premio Prometheus en 2008, se basa en cuestiones modernas de la biología evolutiva, pero es sensible a las formas en que la perspectiva de Darwin difería de la de muchos biólogos de hoy, ascendencia común, selección de grupos, proporción de sexos y naturalismo, rara vez se han discutido en su conexión con Darwin con un detalle tan penetrante. En esta imagen, la selección natural es un proceso causal que impulsa el cambio evolutivo. La fuerza y la dirección de este proceso es, a su vez, descrita por la aptitud Darwiniana. La forma adecuada de entender esta propiedad de aptitud generó su propia literatura, interna a la visión recibida[44], demasiado compleja, pero, en resumen, la idea es que la aptitud no describe alguna propiedad simple, fenotípica o demográfica de un organismo (su velocidad, fuerza o el números de descendientes que ha tenido hasta la fecha), sino más bien su propensión a sobrevivir y reproducirse, es decir, qué tan probable es que tenga varios números de descendientes. Así como es probable que un vidrio frágil se rompa en más pedazos cuando se cae que uno resistente, es probable que un organismo en forma tenga más descendientes que uno no apto, manteniendo todo lo demás igual. La aptitud, en este enfoque, resume un gran números de las propiedades causales relevantes de un organismo que, cuando se suman de la manera correcta, describen la probabilidad de varios resultados futuros posibles de la selección natural. La aptitud del grupo puede ser simplemente, una suma estadística de los valores de aptitud de los individuos en él. El error viene, si pensamos que la selección actúa por el bien del grupo, más que por el bien del individuo. La evolución por selección natural tiene sus causales. Pero al ver el grupo en lugar que al individuo como unidad de selección, los biólogos ubicaron las causas en el lugar equivocado. La supervivencia y proliferación de grupos es simplemente un reflejo de los procesos causales que trabaja en otros lugares.
El debate está entre selección de grupo y selección individual. La selección natural se toma entonces como un proceso causal que opera en poblaciones, la dirección y la fuerza de las cuales se rigen en parte por la aptitud, que es la propensión de un organismo a sobrevivir y reproducirle. La idea clave de Darwin, en esta lectura, fue ver que si un organismo tiene más probabilidad de sobrevivir y reproducirse, entonces, a largo plazo y si todo lo demás sigue igual, ese organismo (o rasgo) probablemente aumentará su representación en la población. Contrariamente a una objeción atribuida a Karl Popper[45], tal teoría evolutiva no es tautología, porque no hay garantía de éxito evolutivo que se encuentre allí: los más aptos solo tienen más probabilidad de sobrevivir y no determinismo que sobrevivirá. Podemos separar claramente las nociones de “selección de” y “selección para” Algunos rasgos son promovidos directamente por la selección natural, mientras otros aumentan en prevalencia solo porque están correlacionados con rasgos que mejoran la condición física.
Si un rasgo se asocia con un aumento en la aptitud de una manera contrafáctica y causalmente en la aptitud de una manera contrafáctica y casualmente robusta, que podemos descubrir examinando la propensión que describe la aptitud, entonces está siendo “selección para”; si podemos ver que el rasgo no es de hecho causalmente relevante para el éxito de un organismo, entonces simplemente se está beneficiando de la “selección de”.
También debemos reconocer que este enfoque, se usa para identificar los impactos causales de las diversas fuerzas o factores que contribuyen a la dinámica de las nanomáquinas celulares. Dado que el cambio evolutivo selectivo está claramente definido, entonces otros tipos de cambio, especialmente el debido a la deriva genética, que ha sido un tema importante para los biólogos[46]. De modo que el cambio evolutivo neto es el resultado de los impactos acumulados netos de estas características: selección, migración, mutación, deriva…
La situación cambió radicalmente, con la publicación de dos artículos que desafiaban directamente este punto de vista[47]. Crearon la corriente del pensamiento estadísticalista de la teoría de la evolución, es un enfoque complejo, se puede sintetizar: los estadísticos argumenta que la selección natural y la deriva genética son simplemente resúmenes convenientes de los eventos genuinamente causales que tienen lugar en la vida de los organismos individuales. Cuando los organismos comen, lucha, se aparean, y mueren, estos eventos causales son los que potencian la evolución. Así lo teóricos abstraen estos detalles de grano fino y construyen explicaciones evolutivos utilizando términos como selección[48], aptitud[49] y deriva[50].
En segundo lugar, los estadísticos argumentan que estas abstracciones no pueden ser causales. A un nivel suficiente de generalidad (después, es decir, suficiente abstracción), nos quedamos solo con identidades estadísticas a priori. Los efectos de la selección natural o la deriva genética, es decir, son solo consecuencias matemáticas de comprender las poblaciones como ciertos tipos de objetos estadísticos. El muestreo multigeneracionales de varios tipos, como se requiere simplemente al escribir un formalismo para representar un sistema en evolución, implica ciertos tipos de cambios a lo largo del tiempo, que corresponden directamente a los formalismos matemáticos de selección y deriva. Debido a que estas implicaciones son analíticas, no son causales.
En tercer lugar, y como una extensión inmediata de este último punto, los modelos de selección natural son neutros en cuanto al sustrato, es decir, no hacen referencia alguna a lo que se está seleccionando o qué es lo que está a la deriva[51]. La propia disposición de una población (es decir, en individuos portadores de rasgos con herencia y éxito diferencial) implicará la existencia de algunos tipos de cambios (a saber, un análogo a la selección, donde los tipos que se reproducen mejor estarán mejor representados en el futuro, y un análogo a la deriva, donde el resultado más probable se verá interrumpido debido a un error de muestreo gracias al tamaño finito de la población). Si dispusiéramos algo, desde monedas y alces, en ese tipo de estructuras a lo largo del tiempo, veríamos procesos que se parecían mucho a la selección y a la deriva en las "poblaciones" que resultaron[52].
La medida en que esto se presenta como un desafío a la visión recibida debe ser relativamente clara: la selección natural y la deriva genética no son procesos causales; aptitud no es una propiedad causal, mucho menos una propensión; las explicaciones evolutivas son abstracciones subjetivas, no explicaciones objetivas de los fenómenos poblacionales; la selección natural es, de hecho, una afirmación a priori sobre ciertos tipos de ensamblaje estadístico. Darwin debe ser visto, argumentan, como habiendo descrito hechos sobre los diversos eventos causales en los que los organismos involucrados (casos de éxito o fracaso en la lucha por la vida) y sus consecuencias a largo plazo para los linajes individuales, que no son el objetivo de los modelos matemáticos de la genética de poblaciones contemporáneas.
Tal desafío fue rápidamente recogido por los causalistas, y lo que siguió ha sido casi vente años (y contando) de debate cada vez más ramificado, que abarca más y más aspectos de la teoría evolutiva. Hemos visto contención sobre las definiciones mismas de selección natural y deriva genética[53], con un énfasis particular en una distinción entre los relatos de aquellos que los tratan como procesos que funcionan en el mundo, y otros informes de los tratan identificando resultados particulares o resultados dentro de las poblaciones.
Esto ha coincidido con un renovado debate sobre la naturaleza de la aptitud física. Los autores han cuestionado si la aptitud debe o no ser tomada como una propiedad de los organismos, rasgos o poblaciones[54]. Si la interpretación de la propensión en sí misma está sujeta a una variedad de contraejemplos propuestos y qué cambios serían necesarios para resolverlos y, quizás lo más fundamental, si una propiedad causal de aptitud como la propuesta por la posibilidad de la propensión puede posiblemente llenar el papel que se le exige en primer lugar[55].
Los argumentos sobre la naturaleza de la selección, a su vez, han invocado la literatura sobre procesos casuales, así como las fuerzas Newtonianas, en un intento de aclarar el locus de causalidad[56]. Tenga en cuenta que esto no es exactamente lo mismo que el clásico debate de “unidades de selección” —porque uno podría creer que son los organismos individuales los que están siendo seleccionados (que son los miembros de las “poblaciones Darwinianas” sensu), sin dejar de argumentar que la selección como proceso actúa sobre las poblaciones. La cuestión está más estrechamente relacionada con las consideraciones generales de la supervivencia y la relación entre los hechos causales a nivel de organismo, a nivel de rasgo y a nivel de población[57]. Al considerar cómo se expresan estas preguntas en los modelos de genética de poblaciones, tenemos que comprender en las inferencias extraídas por la genética de poblaciones, un tema que ha sido cuidadosamente explorado por Otsuka[58].
El mundo ha cambiado de manera transformadora. Los datos y la evidencia son omnipresentes. La información y los nuevos conocimientos impregna nuestra charla de todo, desde la política hasta la atención médica. Como resultado, la estadística y el razonamiento cuantitativo ya no debe ser competencia solo de aquellos que tienen el don para las matemáticas o prácticas la ingeniería, la ciencia. Adquirir competencias en el rozamiento cuantitativo fundamental es ahora una responsabilidad de todo ciudadano educado. Y esto requiere nuevas formas de educar y aprender.
No deseamos poner a disposición un curso tradicional de estadística. En nuestra opinión, a menudo son demasiados técnicos para muchos estudiantes y no se llega a los temas más importantes e interesantes, los que realmente importan para usar información cuantitativa para mejorar nuestras vidas y el mundo. Una persona sin formación, no suele comprender por qué la correlación no implica casualidad, hasta que comprende qué son correlación y casualidad.
Pero, que pasa con la motivación necesaria para afrentarnos a estos temas. Si no ponemos a la gente las cosas buenas por adelantado, no podremos mantenerla comprometida con su esfuerzo intelectual. Razonar la existencia desde exploración experimental más rigurosa, hace necesario escribir una narrativa que en todo momento, destaque la discusión conceptual extendida sobre el mundo real. Reflexionar sobre el uso de datos y evidencias, estas cosas realmente importan para formar en que se viven las vidas y se toman decisiones en todos los ámbitos del esfuerzo humano. Queremos mantener ese hecho en primer plano.
La segunda forma de involucrar a los lectores es enfatizar las ideas y más tarde los tecnicismos en segundo lugar. Nos encanta que los tecnicismos sean algo natural y no el enemigo de comprensión matemática y de los modos de conocer científico. Cuando las cosas se ponen técnicas, mucha gente deja de pensar y comienza a memorizar. Deseamos fervientemente evitarlo. Así que hablaremos de ideas y por qué son importante primero. Tratamos las cosas gráficamente lo más simple que podamos. Ver de una forma natural el empleo de asuntos técnicos es parte de ser un pensador claro. No puede entender la regresión media si no sabe qué significa la media o un ruido. No se puede entender el sesgo y la crisis de replicación si no sabe lo que significa significación estadística o lo que es un valor p. Y es difícil entender el problema de la confusión o las respuestas que ofrecen los diferentes diseños de investigación sin poder interpretar una regresión. Además, ser claro y preciso requiere un poco de matemáticas. Hay que hablar por un tiempo de conceptos como contrafactuales y casualidad. Lograr pensamientos claros es difícil, especialmente cuando se mezcla con todos los detalles técnicos que normalmente rodean los datos y el análisis de estos.
4.6 Hacer preguntas correctas
Pensar claramente en una era basada en datos es, ante todo, mantenerse enfocado en ideas preguntas. El tecnicismo, aunque importante, debe servir al diseño experimental de las ideas y preguntas. Desafortunadamente, las clases y materias de estadística no promueven el razonamiento cuantitativo sobre los datos, hacen todo lo contrario, solo imparten detalles técnicos de procesos de datos. Los estudiantes aprenden fórmulas estadísticas matemáticas, memorizan los nombres de procesos y pasos sin que se les haya pedido pensar clara y conceptualmente sobre los que están haciendo o por qué lo están haciendo. Tal enfoque puede funcionar para las personas a quienes el pensamiento matemático es natural. Pero estamos seguros de que, por el contrario, empuja el tecnicismo estadístico a los estudiantes a dejar de pensar y comenzar a memorizar, y lo divertido de aprender a pensar las estadísticas como un arte del diseño experimental.
Nuestro enfoque, por el contrario, está en la comprensión conceptual. ¿Qué características del mundo está comprando cuando analiza datos? ¿Qué preguntas pueden responder de manera correcta por los diferentes tipos de comparaciones? ¿Por qué una respuesta que suena convincente en realidad podría ser engañosa? ¿Cómo podría utilizar enfoques creativos para proporcionar una respuesta más profunda sobre la nube de incertidumbre?
No es que no creamos que los detalles técnicos sean importantes. Más bien, creemos que la técnica sin comprensión conceptual o pensamiento claro es una receta para el desastre. En nuestra opinión, una vez que pueda pensar claramente sobre el análisis cuantitativo, y una vez que entienda por qué hacer preguntas cuidadosas y precisas es tan importante, la técnica seguirá naturalmente. Además, esta forma es más divertida.
Los métodos de la estadística moderna, sus herramientas de análisis de datos que se enseñan rutinariamente en las escuelas secundarias, bachillerato y universidad, los sustantivos y verbos del lenguaje común de inferencia estadística que se habla en laboratorios de investigación y escritos en algunas revistas y, los resultados teóricos de miles de años de esfuerzo, se basan en un error lógico. Estos métodos no están equivocados de una manera menor, en el sentido, por ejemplo, de que la física de Newton es técnicamente solo una aproximación gravitacional y de baja velocidad sobre la realidad, pero aún así nos permite construir con éxito puentes y trenes. Están simplemente sesgadas. Pero lógicamente tienen graves consecuencias para el mundo de la ciencia que depende de ellas. A media que algunas áreas de la ciencia se han vuelto cada vez más impulsadas por los datos y las estadísticas, estas grietas fundamentales han comenzado a mostrar en forma de una crisis de reproducibilidad que amenaza con derribar disciplinas enteras de investigación. En el corazón del problema está un malentendido fundamental de la cuantificación de la incertidumbre, es decir, de la probabilidad, y su papel en la obtención de inferencias a partir de los datos.
Debemos aclarar que con la declaración anterior no pretendemos la “anticiencia” o incluso una acusación por una mala práctica. A pesar de todos los problemas, la ciencia sigue siendo, en palabras de Carl Sagan, una “vela en la oscuridad”. Es el mejor principio organizador que tiene la humanidad para el pensamiento disciplinado y escéptico, bajo la amenaza constante tanto de intereses corrompidos, resistentes a sus descubrimientos, con fuerzas de superstición y la pseudociencia. Lo que esperamos lograr es inspirar a jóvenes universitarios a volver al ojo escéptico hacia adentro y examinar críticamente la sabiduría recibida de cómo se construyen los argumentos basados en datos, para hacer que esos argumentos sean más fuertes y mejores. Nuestro objetivo es empujar a la educación científica hacia la mejora de su propio bien; hacer que la vela sea más brillante, no apagarla en la mecanización de ideas.
En esta discusión entre la probabilidad subjetiva y objetiva hay oportunidad de crecimiento intelectual. Dado que la probabilidad y la estadística son el lenguaje unificado de la incertidumbre, un ingrediente común en todas las disciplinas observacionales, parece natural que las técnicas estadísticas, adecuadamente reconstruidas nos permiten mejorar nuestro desempeño, sin pretender subestimar el tamaño del problema o su importancia. El problema es enorme; abordarlo requerirá deshacer más de un siglo de pensamiento estadístico y cambiar el vocabulario básico del análisis de datos científicos. El crecimiento de los métodos estadísticos representa quizás la mayor transformación en la práctica de la ciencia desde la Ilustración. La sugerencia de que la lógica fundamental que subyace a estos métodos está rota debería ser aterrador. Desde que estuvimos expuestos por primera vez a esa idea hace casi quince años, hemos pasado casi todos los días pensando, leyendo escribiendo y educando a otros sobre probabilidad y estadística mientras vivía con el doble temor de que esta propuesta radical con la que hemos comprometido y que podría ser correcta. Pero entre más pensábamos, más nos dábamos cuenta de que realmente no entendía lo que esas herramientas estaban haciendo, o por qué eran las herramientas estándar en primer lugar.
Esto es, debe decirse, exactamente el tipo de pregunta que las técnicas estándar de estadística están diseñadas para responder, y no solo para las apuestas de juegos. Desde la década de 1920, estos han sido los métodos de análisis de datos en todas las situaciones imaginables. Se suponen que técnicas como las pruebas de significación le dicen si un fenómeno que observa en los datos es real o solo el producto del azar. Nunca responden a la pregunta definitiva de una menta u otra, pero hay ciertas reglas de una manera y otra, pero hay ciertas reglas generales. Si una desviación tan grande o más grande que la que ha visto debe ocurrir solo con una probabilidad del 5 por ciento, entonces el consejo general es rechazar el azar como explicación.
Para nuestro cerebro matemático, estas pruebas siempre se sintieron un poco fuera de lugar. ¿Por qué debería preocuparme por la frecuencia con la que podría haber observado el resultado que realmente observé? Pudimos verlo mirándonos desde nuestra hoja de cálculo, así que supimos que había sucedido. ¿De dónde vino este umbral mágico del 5 por ciento de importancia? Y si nuestros datos pasaron el umbral y rechazamos la hipótesis del azar, ¿y qué?, las explicaciones convencionales de los libros textos nunca nos fueron satisfactorios y parecían estar deliberaste oscurecidas. Nuestra formación en filosofía, nos había dicho que no confiáramos en ninguna idea que no pudiéramos derivar por uno mismo desde los principios, y no importa cuánto lo intentara, simplemente no podíamos probar que las pruebas estadísticas eran correctas.
Nuestro verdadero problema era que, en todos los cálculos de probabilidad que habíamos hecho, las probabilidades se habían dado desde el principio, lo cual es típico de la forma en que se enseña generalmente el tema. Lo que comprendimos como terrosa de la probabilidad era un conjunto de reglas para manipular las probabilidades una vez dadas, no una forma de establecerlas en primer lugar. Siempre había una moneda justa o un par de dados o, en el entorno más abstracto matemático, una medida de probabilidad. Las preguntas eran entonces sobre las consecuencias de esas suposiciones: si un dado es justo, ¿cuál es la probabilidad de que observemos…? Pero no tenía forma de reconocer una probabilidad cuando no nos la entregaban. Cuanto más lo pensábamos, más nos dábamos cuenta de que no sabía lo que realmente significaba la probabilidad. Esto fue una Epifanía bastante desestabilizadora para alguien que ya había pasado una buena parte de su vida estudiando la probabilidad.
En 2005 por casualidad me llegó Probability Theory: the logic of science de Edwin Jaynes[59]. El libro nos respondió a las preguntas que nos habíamos estado molestando sobre el significado de la probabilidad, pero también hizo algo más. Fundamentalmente recolectó las formas en que pensaba sobre las estadísticas, la incertidumbre y el método científico. El libro de Jaynes ocupa una especie de nicho de culto en el mundo de la probabilidad. Así que sin darnos cuenta el mundo de las estadísticas que da entre dos campos: frecuentistas y Bayesianos. Jaynes era un bayesiano incondicional, tal vez el bayesiano más intenso. El argumento esencial de Jaynes: las estadísticas modernas son ilógicas… demuele la respuesta tradicional: la probabilidad de un evento es la frecuencia con la que lo verá suceder en muchas pruebas repetidas, y muestra cómo esa idea errónea ha llevado a todas las estadísticas del siglo XX por un camino ruidoso.
Para entender la falla de la estadística moderna, y lo que es tan ruidoso al respecto, tendremos que viajar a 1600 y ver qué problema motivaron por primera vez a los matemáticos desarrollar la teoría de la probabilidad. En particular, tendremos que considerar una de las primeras preguntas de le que ahora reconocemos como estadística, un problema preguntado y, supuestamente, respondido por uno de los padres fundadores de la probabilidad, el matemático suizo Jacob Bernoulli. Su trabajo más importante fue en la probabilidad, con el que luchó durante los últimos 20 años de su vida. Estaba escribiendo su libro Ars Conjectandi (arte de conjeturar) cuando murió. Su pensamiento fue a hombros de Huygens, Pascal y Pierre de Fermat.
Antes de Bernoulli, la gente había necesitado principalmente probabilidades para resolver problemas sobre juegos de azar. El problema que más preocupaba a Bernoulli era de inferencia probabilística. En el momento de su escritura, los conceptos básicos de probabilidad, los tipos de cálculos combinatorios para cosas como dados y juegos de cartas que ahora asignaríamos como problema a los estudiantes habían comenzado a resolverse formalmente recientemente. Así que asumir este desafío fue ambicioso, y luchó con el problema durante años. La idea principal de la solución en la que finalmente aterrizó fue esta: si toma una muestra lo suficientemente grande, puede estar muy seguro, dentro de un pequeño margen de certeza absoluta. Es decir, Bernoulli desarrolló lo que ahora entenderíamos como una primera versión de la ley de los grandes números.
Para cualquier dado y cualquier
, hay un tamaño de muestra n tal que, siendo w el número de guijarros blancos contados en la muestra y f siendo la verdadera fracción de guijarros blancos en la urna, la probabilidad de que
w/n caiga entre y
es mayor que 1- s.
Consideremos cada término para desempaquetar el contenido de ese teorema. Aquí, la fracción w/n es la relación entre guijarros blancos y totales que observamos en nuestra muestra. El valor (epsilon) captura el hecho de que es posible que no veamos la verdadera relación de urnas exactamente gracias a la variación aleatoria en la muestra: tal vez la proporción verdadera de 3/5, y en una muestra de 50 guijarros, obtenemos, digamos 32 blancos en lugar de 30. Pero podemos estar bastantes seguros de que, para muestras grandes, estaremos bastante cerca de un lado u otro del verdadero valor. El valor s refleja cuán seguros queremos estar. No importa cuán grande se la muestra que tomamos, siempre quedará la remota posibilidad de que tengamos mala suerte y obtengamos una muestra fuera de nuestra tolerancia de tamaño de un épsilon de la verdadera proporción de urna, pero podemos estar casi seguros de que esto no sucederá. Podemos, por ejemplo, establecer s=0.01 y estar 99 por cierto seguros. Bernoulli llamó a esto “certeza moral”, a diferencia de la certeza absoluta del tipo que solo la deducción lógica puede proporcionar.
Así que hay tres partes móviles en el cálculo: qué tan grande es la muestra que tomamos, qué tan cerca queremos estar de la verdad absoluta, y cuán seguros queremos estar de encontrarnos dentro de ese margen. Discutir todos esos términos fue lo que hizo que el problema fuera tan difícil.
Dicho en otras palabras, entonces, la estrategia de Bernoulli para la pregunta de inferencia es esta: “tome una muestra lo suficientemente grande como para que pueda estar moralmente seguro, en cualquier grado que eso signifique para usted, la proporción la muestra está dentro de su tolerancia deseada en la proporción en la urna. Por lo tanto, lo que sea que observemos es con alta probabilidad una buena aproximación del contenido de la urna”. Incluso tabuló de manera útil los valores de qué tan grande sería la muestra que necesitaría tomar para lograr varios niveles de certeza moral (99 por ciento, 99.9 por ciento, etc.). Como teorema, la Ley de Grandes Números de Bernoulli era técnicamente sofisticada para su época, requiriendo innovaciones matemáticas inteligentes para probar e inspirando múltiples generalizaciones a lo largo de los años. Como solución propuesta a su problema de inferencia, era conceptualmente atractiva, poderosa, elegante y equivocada. O, más generosamente hablando, estaba incompleta. Las formas exactas en que faltó la repuesta de Bernoulli nos llevarán algún tiempo desarrollarlas, pero la idea esencial es que a pesar de la aparente simetría lingüística, hay una diferencia crucial entre estas afirmaciones:
— La relación muestral es cercana a una relación de urna dada con alta probabilidad y
— la relación de urna es cercana a una relación de muestra dada con alta probabilidad.
Lo primero se refiere a una probabilidad de muestreo, que Bernoulli y sus contemporáneos se habían vuelto expertos en manejar en los juegos de azar (la probabilidad de lanzar un cierto número con un par dados), mientras que este último implica una probabilidad inferencial, que usamos al probar hipótesis, pronosticar eventos únicos y hacer otras afirmaciones probabilísticas sobre el mundo. Las probabilidades de muestreo se prestan a interpretaciones basadas en la frecuencia; la probabilidad de algo se mide con la frecuencia con la que sucede. Las probabilidades inferenciales requieren algo más sutil; la probabilidad de una declaración depende de cuánta confianza tengamos en ella. Las probabilidades de muestreo van de la hipótesis a los datos: dada una suposición, ¿qué observamos y con qué frecuencia? Las probabilidades inferenciales van de datos a las hipótesis: dado lo que observamos, ¿qué podemos concluir y con qué certeza? Las probabilidades de muestreo son fundamentalmente predictivas; las probabilidades inferencias son fundamentalmente explicativas.
Pictóricamente, las probabilidades de muestreo podrían representarse así:
Hipótesis datos
Dada una mezcla hipotética de guijarros en la urna igual a f, la probabilidad de obtener una muestra de datos de salida w blancos de n es…
Las probabilidades inferenciales se ven así:
Datos hipótesis
Dada una muestra de datos observada de w blancos de n, la probabilidad de que la mezcla de guijarros en la urna sea f es….
El problema con la respuesta de Bernoulli a su pregunta es que la flecha apunta en la dirección equivocada. Quería responder a una cuestión sobre la probabilidad de una hipótesis, pero lo hizo pensando solo en la probabilidad de una observación.
La confusión de las dos, y la idea general de que uno puede resolver cuestiones de inferencia usando solo probabilidades de muestreo, es lo que nosotros llamamos Falacia de Bernoulli. Aunque el principio pueda parecer un pequeño problema académico, las implicaciones de esta confusión son profundas y van al núcleo mismo de cómo pensamos y cuantificamos la incertidumbre en entornos desde lo elevado hasta lo mundano.
Generaciones de matemáticos, estadísticos y científicos de diversas disciplinas han caído presa de esta falacia durante los siglos siguientes, y hasta el día de hoy, muchos negarían que sea incluso una falacia en absoluto. El debate sobre la interpretación de la probabilidad, en particular, qué tipos de declaraciones de probabilidad están permitidas y cómo se ajustan esas declaraciones, ha durado casi todo el tiempo que la probabilidad ha existido como disciplina matemática, con amplias implicaciones para la práctica estadística y científica. Para una discusión matemática, este debate ha sido sorprendentemente acalorado. La probabilidad tiene una forma única de encender la confusión, la frustración y las guerras territoriales entre las personas de mentalidad analítica y rígida en el mundo de las matemáticas. Incluso puede estar experimentando fuertes sentimientos sobre la probabilidad.
Para empezar, tenemos que aclarar qué significa probabilidad. Argumentaremos a favor de una interpretación de la probabilidad que se puso de moda con el ascenso de la escuela frecuentista, que ahora subyace a la ortodoxa estadística, pero que sin embargo ha estado presente desde los primeros días de la probabilidad. Esta nueva/vieja interpretación ha visto regreso en los últimos años gracias en gran parte a autores como Jaynes[60]. La idea principal es esta: la teoría de la probabilidad es el razonamiento lógico, extendido a situaciones de incertidumbre. Mostramos cómo esta definición flexible incluye tanto muestreo como los tipos de inferenciales de probabilidad en el problema de Bernoulli cómo el intento de Bernoulli fue solo una parte de una respuesta completa.
Sin embargo, esto va más allá de dibujar guijarros de urnas o resolver acertijos. Una vez que aprenda a detectar la Falacia de Bernoulli, la creencia errónea de que la inferencia se puede realizar solo con probabilidades de muestreo, comenzarás a verla en casi todas partes. Para ilustrar los problemas de la Falacia de Bernoulli en el mundo real, se hace necesario explorar el razonamiento probabilístico en la evaluación de evidencia y diagnóstico. Tal vez algún día estemos en una situación de jugar evidencia.
El uso de la probabilidad en estas situaciones del mundo real está muy en el espíritu de Bernoulli, cuyo objetivo era formalizar los tipos de conjeturas necesarias para tomar decisiones o de otro tipo sobre la base de evidencia no concluyente (es decir, casi todas las decisiones).
[1] Clark, Bob. (2017). Wittgenstein, Mathematics and World.
DOI:10.1007/978-3-319-63991-8.
[2] https://plato.stanford.edu/entries/realism/#ViewOppoExisDimeIErroTheoArit
[3] Benacerraf, Paul. ‘Frege: the last logicist,’ in P. Frenchet al., eds.,Midwest Studies in Philosophy VI, Minneapolis: University of Minnesota Press, 1981
[4] Baz, Avner. (2020). Wittgenstein on Aspect Perception.
DOI:10.1017/9781108878012.
[5] Frápolli, María J.. (1992). Review of Penelope Maddy, Realism in mathematics. The Review of Modern Logic. 2.
[6] Gao, K.. (2016). A Naturalistic Look into Maddy's Naturalistic Philosophy of Mathematics. 11. 137-151.
DOI:10.3868/s030-005-016-0010-4.
[7] Wheeler, Samuel. (2021). Defending Wittgenstein’s Remarks on Cantor from Putnam. Philosophical Investigations.
DOI:10.1111/phin.12335.
[8] Heald, Graeme. (2019). Are Godel's Incompleteness Theorems Falsifiable?. DOI:10.13140/RG.2.2.24598.80965.
[9] Larsen, Peter. (2016). Jonathan Culler: Theory of the Lyric. Nordisk poesi. 1. 81-87.
DOI:10.18261/issn.2464-4137-2016-01-08.
[10] Leiter, Brian. (2005). The Hermeneutics of Suspicion: Recovering Marx, Nietzsche, and Freud.
[11] Charnock, Ian. (2004). Review: Alastair Fowler, Renaissance Realism: Narrative Images in Literature and Art. The Art Book. 11. 45 - 46.
DOI:10.1111/j.1467-8357.2004.00414.x.
[12] Arslanov, Marat & Yamaleev, M.. (2021). Turing Computability: Structural Theory. Journal of Mathematical Sciences. 256.
DOI:10.1007/s10958-021-05418-y.
[13] Jacquet, Baptiste & Jamet, Frank & Baratgin, Jean. (2021). On the Pragmatics of the Turing Test. 123-130. DOI:10.1109/IDT52577.2021.9497570.
[14] Nevo, Aviv & Whinston, Michael. (2010). Taking the Dogma out of Econometrics: Structural Modeling and Credible Inference. Journal of Economic Perspectives. 24. 69-82. 10.2139/ssrn.1559385.
[15] Esarey, Justin & Sumner, Jane. (2017). Marginal Effects in Interaction Models: Determining and Controlling the False Positive Rate. Comparative Political Studies. 51. 001041401773008. 10.1177/0010414017730080.
[16] Fürstenwerth, Hauke. (2013). On Correlation and Causality. Critical care medicine. 41. e140-1. 10.1097/CCM.0b013e31828c2517.
[17] Cox, Gary. (1999). The Empirical Content of Rational Choice Theory: A Reply to Green and Shapiro. Journal of Theoretical Politics - J THEOR POLIT. 11. 147-169. 10.1177/0951692899011002001.
[18] Fernández-Fernández, Claudia. (2021). Formal Model for Explicit Aware Knowledge. 10.1007/978-3-030-69606-1_6.
[19] Thicke, Michael. (2020). Evaluating Formal Models of Science. Journal for General Philosophy of Science. 51. 10.1007/s10838-018-9440-1.
[20] Grim, Patrick & Singer, Daniel. (2021). Computational Philosophy - Stanford Encyclopedia of Philosophy.
[21] Šešelja, Dunja. (2018). Exploring Scientific Inquiry via Agent-Based Modeling.
[22] Eberle, Oliver & Buttner, Jochen & Krautli, Florian & Müller, Klaus-Robert & Valleriani, Matteo & Montavon, Gregoire. (2020). Building and Interpreting Deep Similarity Models. IEEE Transactions on Pattern Analysis and Machine Intelligence. PP. 1-1. 10.1109/TPAMI.2020.3020738.
[23] Sharif, Mubashsr. (2021). Aristotle as a Critic. Literary Review. 1-5. 1.
[24] Gerson, Lloyd. (1995). Book Review:Posterior Analytics Aristotle, Jonathan Barnes. Isis. 86.
DOI:10.1086/357173.
[25] Corcoran, John. (2018). Aristotle’s Prototype Rule-Based Underlying Logic. Logica Universalis. 12.
DOI:10.1007/s11787-018-0189-4.
[26] D'Oro, Giuseppina. (2019). On an Imaginary Dialogue Between a Causalist and an Anti-causalist 1.
DOI:10.4324/9780429506048-5.
[27] Nayak, Richa & Chakraborty, Rajkumar & Hasija, Yasha. (2021). System biology and synthetic biology.
DOI:10.1016/B978-0-12-821972-0.00012-5.
[28] Macovei, Olivia. (2020). Conceptual Delimitations related to the Philosophical Approaches on Synthetic Biology. Logos Universality Mentality Education Novelty: Philosophy & Humanistic Sciences. 8. 83-104.
DOI:10.18662/lumenphs/8.2/47.
[29] Desmond, Hugh. (2018). Selection in a Complex World: Deriving Causality from Stable Equilibrium. Erkenntnis. 83. DOI:10.1007/s10670-017-9889-z.
[30] McPherson, Tristram & Plunkett, David. (2021). Metaethics and the conceptual ethics of normativity. Inquiry. 1-34.
DOI:10.1080/0020174X.2021.1873177.
[31] Rosa, Luiz & Andrade, Elaine & Picciani, Paulo & Faber, Jean. (2020). Constructivism and Realism in Boltzmann’s Thermodynamics’ Atomism. Foundations of Physics. 50. DOI:10.1007/s10701-020-00372-2
https://www.researchgate.net/publication/343585887_Constructivism_and_Realism_in_Boltzmann's_Thermodynamics'_Atomism
Gontier, Nathalie & Bradie, Michael. (2021). Evolutionary Epistemology: Two Research Avenues, Three Schools, and A Single and Shared Agenda. Journal for General Philosophy of Science. 52.
DOI:10.1007/s10838-021-09563-5.
[32] Largent, Mark. (2008). Darwin’s Analogy between Artificial and Natural Selection in the Origin of Species.
DOI:10.1017/CCOL9780521870795.004.
[33] Sloan, Phillip. (1986). Darwin, vital matter, and the transformism of species. Journal of the History of Biology. 19. 369-445. 10.1007/BF00138286.
[34] Pence, Charles. (2018). Charles Darwin and Sir John F. W. Herschel: Nineteenth-Century Science and its Methodology. HOPOS: The Journal of the International Society for the History of Philosophy of Science. 8. 108. DOI:10.1086/695719.
[35] Warner, B.. (2009). Charles Darwin and John Herschel. South African Journal of Science. 105. 432-439.
[36] Yeang, Chen-Pang. (2001). A Victorian Scientist and Engineer: Fleeming Jenkin and the Birth of Electrical Engineering (review). Victorian Studies. 44. 117-119.
DOI:10.2979/VIC.2001.44.1.117.
[37] Bellon, Richard. (2012). The Moral Dignity of Inductive Method and the Reconciliation of Science and Faith in Adam Sedgwick’s Discourse. Science & Education - SCI EDUCATION. 21. 1-22.
DOI:10.1007/s11191-011-9346-3.
[38] Cassidy, Mike. (2020). 2 - Reviewing the Evidence for Evolution.
DOI:10.1017/9781139016018.003.
[39] Currie, Adrian. (2021). Speculation Made Material: Experimental Archaeology & Maker’s Knowledge.
[40] Burkhardt, Richard. (1994). Ernst Mayr: Biologist-historian. Biology and Philosophy. 9. 359-371.
DOI:10.1007/BF00857942.
[41] Paternotte, Cédric. (2014). Kim Sterelny, Richard Joyce, Brett Calcott and Ben Fraser (eds): Cooperation and Its Evolution. Acta Biotheoretica. 62. DOI:10.1007/s10441-013-9208-2.
[42] Raimondi, Vincenzo. (2021). Autopoiesis and evolution: the role of organisms in natural drift. Adaptive Behavior. 29. 105971232110306.
DOI:10.1177/10597123211030694.
[43] Sober, Elliott. (2014). Precis of “Did Darwin write the Origin backwards?” Philosophical essays on Darwin’s theory. Philosophical Studies. 172. DOI:10.1007/s11098-014-0369-x.
[44] Wool, David & Paz, Naomi & Friedman, Leonid. (2020). Evolution of the Theory of Natural Selection.
DOI:10.1201/9781003023869-12.
[45] Popper, Karl. (2010). Darwinism as a Metaphysical Research Programme. DOI:10.1515/9781400831296-023.
[46] Ashraf, Bilal & Lawson, Daniel. (2021). genetic drift. European Journal of Human Genetics.
DOI:10.1101/2020.08.17.2541110.
[47] Matthen, Mohan & Ariew, André. (2002). Two Ways of Thinking About Fitness and Natural Selection. The Journal of Philosophy. 99. 55-83.
DOI:10.2307/3655552.
Walsh, Denis & Lewens, Tim & Ariew, André. (2002). The Trials of Life: Natural Selection and Random Drift. Philosophy of Science. 69. 429-446. DOI:10.1086/342454.
[48] Tvrda, Eva & Benko, Filip & Slanina, Tomáš & Du Plessis, Stefan. (2021). The Role of Selected Natural Biomolecules in Sperm Production and Functionality. Molecules. 26. 5196. DOI:10.3390/molecules26175196.
[49] Smith, J. & Zakrzewski, Alexandria & Johnson, Jennifer & Valleau, Jeanette. (2016). Ecology, Fitness, Evolution: New Perspectives on Categorization. Current Directions in Psychological Science. 25. 266-274.
DOI:10.1177/0963721416652393.
[50] Shao, Shanshan & zhang, huiyan & Xiao, Rui & Li, Xiaohua & Cai, Yixi. (2017). Catalytic conversion of biomass-derivates by in situ DRIFTS: Evolution of coke. Journal of Analytical and Applied Pyrolysis. 127.
DOI:10.1016/j.jaap.2017.07.026.
[51] Tobias, Michael & Morrison, Jane. (2021). Does Natural Selection Select for Natural Selection?.
DOI:10.1007/978-3-030-64526-7_42.
[52] Sterpetti, Fabio. (2021). Mathematical Explanations in Evolutionary Biology or Naturalism? A Challenge for the Statisticalist. Foundations of Science. 1-33.
DOI:10.1007/s10699-021-09818-w.
[53] Arp, Robert. (2011). Sahotra Sarkar and Anya Plutynski (eds): A Companion to the Philosophy of Biology. Science & Education. 20. 191-195.
DOI:10.1007/s11191-010-9255-x.
[54] Suárez, Mauricio. (2019). The Complex Nexus of Evolutionary Fitness. https://www.researchgate.net/publication/344869128_The_Complex_Nexus_of_Evolutionary_Fitness
[55] Wong, T.Y.. (2021). Environment, Equivalence Inferences, and the Twins: A Reply to Sober. Philosophy, Theory, and Practice in Biology. 13.
DOI:10.3998/ptpbio.16039257.0013.002.
[56] Largent, Mark. (2008). Darwin’s Analogy between Artificial and Natural Selection in the Origin of Species.
DOI:10.1017/CCOL9780521870795.004.
[57] Weiss, Robin. (2020). Santayana’s Epiphenomenalism Reconsidered. European Journal of Pragmatism and American Philosophy. XII.
DOI:10.4000/ejpap.2138.
[58] Otsuka, Jun. (2018). Ontology, Causality, and Methodology of Evolutionary Research Programs.
[59] Jaynes, Edwin. (2003). Probability Theory: The Logic Of Science.
DOI:10.1007/BF02985800.
[60] Velupillai, K.. (2015). de Finetti’s theory of probability and its Jaynesian critique. Economia Politica. 32.
DOI:10.1007/s40888-015-0005-z.