Texto de apropiación científica y tecnológica_____________________________
Módulo 1. La educación escolar frente a su práctica pseudocientífica: impostores de la ciencia
1.1 La humildad frente a lo desconocido
La habilidad en la humildad para reconocer, flexibilizar y cambiar nuestras ideas, es la fortaleza clave en la actividad científica[1]. En muchos dominios de la profesión, el científico escolar universitario sigue luchando con el problema de distinguir las prácticas científicas de las pseudocientíficas. Revisando la evidencia de la brecha científico-profesional escolar. Específicamente, delimitamos los principios básicos del pensamiento científico, delineamos los errores cognitivos generalizados que pueden contribuir a la creencia en prácticas pseudocientíficas dentro de lo escolar y profesión, proporcionamos una lista de 10 señales clave de advertencia de la pseudociencia, y ofrecemos 10 recetas fáciles de usar, diseñadas para fomentar el pensamiento científico entre los profesionales e investigadores de la ciencia escolar. Sostenemos que el pensamiento científico, aunque falible, es en última instancia la mejor protección de los científicos escolares contra una serie de errores de pensamiento.
Las preocupaciones sobre la amplia brecha entre la ciencia y la práctica, incluida la ciencia escolar, son omnipresentes y de larga data[2], en las universidades poco desarrolladas no se considera el pensamiento científico en lo escolar[3]. Esta brecha científico-profesional, como se le ha llegado a llamar[4], está marcada por una notable disyunción entre la evidencia científica sobre las mejores prácticas de disertación, evaluación y tratamiento disponibles, por un lado, y lo que los practicantes realmente hacen en sus prácticas rutinarias, por otro. El término popular, "brecha científico-profesional", puede implicar, engañosamente en nuestra opinión, que uno es necesariamente un científico o un practicante, no ambos. Por el contrario, como en la clínica, podemos distinguir entre dos dimensiones conceptualmente independientes en lo escolar: ciencia versus no ciencia, por un lado, e investigación y práctica, por el otro[5]. Esta doble distinción da como resultado cuatro cuadrantes. Uno puede ser un investigador científico, un investigador no científico, un practicante científico o un practicante no científico. Esta distinción subraya un punto crucial. El concepto de practicante científico no es un oxímoron, porque incluso los escolares que no realizan investigaciones pueden actuar como científicos en el ámbito del diagnóstico. Es decir, pueden aportar un pensamiento científico riguroso para evaluar los problemas de comportamiento, pensamiento y de aprendizaje de los escolares. Además, pueden ser consumidores activos y perspicaces de la literatura de investigación en lo escolar y funcionar como académicos-practicantes[6] que continuamente se esfuerzan por basar sus prácticas en la mejor evidencia de investigación disponible. Junto con sus colegas científicos, algunos escolares y profesionales de la salud aliados han pedido un aumento en la confianza en las prácticas basadas en la evidencia, disertación y diseño experimental para ayudar a cerrar la brecha científico-profesional[7]. Los científicos escolares eficaces deben aprender no solo a administrar intervenciones basadas en la evidencia, sino también a convertirse en consumidores reflexivos y perspicaces de la evidencia de la investigación más rigurosa y práctica de la disertación en lo escolar, No es suficiente leer la literatura o asistir a seminarios de educación continua o en servicio. Se debe leer y escuchar con atención. El hecho de que un artículo se publique en una revista revisada por pares no significa que la ciencia sea precisa o necesariamente sólida[8]. Dicho en términos ligeramente diferentes, todos los escolares, independientemente del entorno en el que operen, necesitan desarrollar y mantener un conjunto de habilidades que les permita distinguir las prácticas basadas en evidencia de las no basadas en evidencia.
A pesar de la importancia crucial de este conjunto de habilidades intelectuales, algunos dominios de lo escolar, siguen caracterizados por técnicas populares, pero poco respaldadas. De hecho, el problema de las afirmaciones cuestionables y no validadas en lo escolar, como la ciencia educativa, no es nuevo. Tres ejemplos de afirmaciones populares, pero sin fundamento sobre niños excepcionales: (a) un estudio publicado que pretendía demostrar aumentos notables en el coeficiente intelectual (de 35 puntos o más) siguiendo prácticas de enseñanza especiales (pero descritas de manera inadecuada), mostró que se basaba en afirmaciones totalmente infundadas[9]; y (b) afirmaciones asombrosas de la efectividad del "patrón psicomotor", un tratamiento neurológico para la tartamudez, problemas de lectura, parálisis cerebral y otras discapacidades que requieren que los niños realicen movimientos extraños para recapitular el desarrollo de su sistema nervioso, pero eso es basado en una investigación fatalmente defectuosa[10]. La ignorancia de los estándares válidos de evidencia empírica y una voluntad obstinada de creer que se había encontrado una panacea, se combinaron para desviar energías preciosas y recursos financieros hacia callejones esencialmente sin salida.
1.2 La pseudociencia en la ciencia escolar
Como sugiere, un número sustancial de científicos escolares parece no basar sus prácticas en ciencia sólida. Este hecho parece ser especialmente cierto en el ámbito de la evaluación de datos, teorías y conceptos. Además, existen amplias razones para el malestar con respecto al uso de prácticas cuestionables e incluso pseudocientíficas en la ciencia escolar. Pero, ¿qué es la pseudociencia? la pseudociencia es una ciencia “falsa” o “fingida” que “no se caracteriza por estudios cuidadosamente controlados que den como resultado un conocimiento públicamente verificable[11]. En términos algo diferentes, podemos pensar en las prácticas pseudocientíficas como aquellas que poseen la apariencia superficial de la ciencia, pero carecen de su sustancia[12]. En otras palabras, son impostores de la ciencia, aunque sus defensores rara vez son charlatanes deliberados o conscientes. Por definición, las prácticas pseudocientíficas carecen de un apoyo empírico-teórico adecuado para respaldar sus extravagantes afirmaciones. En algunos casos, incluso pueden causar daño[13]. Vale la pena señalar que las prácticas pseudocientíficas no son necesariamente inválidas o ineficaces, pero las afirmaciones asociadas con estas prácticas superan en gran medida la evidencia científica disponible. De hecho, una amplia gama de estrategias populares de evaluación e intervención pseudocientíficas son relevantes para la ciencia escolar, incluidas las técnicas asociadas con trastornos del aprendizaje y problemas de conducta.
Mitos generalizados en la ciencia escolar
La ciencia escolar también tiene muchos mitos: afirmaciones ampliamente aceptadas que no están respaldadas por pruebas convincentes. Los mitos prominentes de la ciencia escolar, incluidos los conceptos erróneos sobre las discapacidades de lectura y matemáticas, la utilidad de la evaluación en la memoria, el tratamiento del trastorno por déficit de atención e hiperactividad y programas de prevención del suicidio[14]. A continuación, ofrecemos una muestra altamente selectiva (y lejos de ser exhaustiva) de una variedad de mitos relevantes para la ciencia escolar. Hay varias otras creencias populares pero poco respaldadas, como la supuesta efectividad de la comunicación facilitada para el autismo, la noción de que ciertas personas tienen el "cerebro izquierdo" y otras "el cerebro derecho", y la afirmación de hacer coincidir los estilos de aprendizaje de los estudiantes con los estilos de enseñanza de los profesores fomentan su aprendizaje, por ejemplo:
• Autoestima: muchos psicólogos asumen que la baja autoestima está muy relacionada con la inadaptación y el bajo rendimiento escolar, y muchas escuelas ofrecen programas diseñados para mejorar la autoestima. Sin embargo, los estudios muestran que, aunque la autoestima se correlaciona negativamente con la depresión, esta correlación es solo de magnitud modesta; además, la autoestima está mínimamente relacionada con el éxito interpersonal y el uso de sustancias[15]. Además, la mayoría de las investigaciones sugieren que, aunque la baja autoestima se correlaciona con un bajo rendimiento escolar, no está causalmente relacionada con ella.[16]
Sostenemos que la ciencia y el pensamiento científico son salvaguardas valiosas, de hecho esenciales, contra los encantos a menudo seductores de la pseudociencia. También pueden ayudarnos a identificar mitos y conceptos erróneos superficialmente convincentes pertinentes a la ciencia escolar. Además, ciertos errores cognitivos generalizados que pueden impedir la evaluación precisa de las prácticas analíticas y pueden contribuir a la adopción de prácticas pseudocientíficas y la aceptación de conceptos erróneos, especialmente en la estadística.
1.3 Ciencia: una definición aproximada
Ya hemos ofrecido una definición en miniatura de pseudociencia. Pero, ¿Qué es la ciencia? Los filósofos de la ciencia han debatido durante mucho tiempo la respuesta a esta pregunta engañosamente compleja. Aunque no pretendemos ofrecer una respuesta concluyente aquí, ofrecemos algunas pautas útiles. Sea lo que sea la ciencia, está claro lo que no es. La ciencia no es un conjunto de hechos y cifras acumulados, ni es un dispositivo monolítico de recopilación de la verdad que sea idéntico en diversas disciplinas. Aunque “el” método científico a menudo se introduce en las clases de biología, química o física de la escuela, como una técnica única para ayudarnos a comprender el estado de la naturaleza, cada disciplina científica está asociada con su propio conjunto de salvaguardas contra el error. Por lo tanto, el concepto de "el" método científico es casi con seguridad un mito[17] porque existen múltiples métodos científicos, cada uno diseñado para responder a diferentes tipos de preguntas. Diversos campos científicos, como la psicología, la química, la biología y la astrofísica, utilizan métodos muy diferentes para minimizar los errores y llegar a una aproximación más cercana a la verdad. Sin embargo, a pesar de sus marcadas diferencias superficiales, las metodologías científicas utilizadas por diferentes campos fuera y dentro de la ciencia comparten una característica clave: el compromiso de erradicar los errores en nuestra red de creencias[18]. En última instancia, como lo conciben la mayoría de los filósofos, el enfoque sistemático del conocimiento, más que las características del conocimiento per se, hace que una disciplina sea científica. Específicamente, como argumentó el físico ganador del premio Nobel Richard Feynman (1985), “la esencia de la ciencia es hacer todo lo posible para demostrar que estamos equivocados”. Como señaló Feynman, debemos esforzarnos continuamente por encontrar formas de someter nuestras creencias más preciadas a pruebas rigurosas y de cambiar de opinión cuando la evidencia nos obligue[19]. Como observó el astrónomo y escritor científico Carl Sagan, la ciencia es ante todo una forma de pensar, una mentalidad de duda junto con una mentalidad abierta a nuevas afirmaciones[20]. Debemos lograr un equilibrio saludable entre la duda y la mentalidad abierta: este equilibrio es el enfoque que a menudo se denomina escepticismo. Escepticismo, en contraste para el cinismo, implica una voluntad de considerar afirmaciones novedosas, pero también una insistencia en la evidencia que las respalde. Mientras que el cinismo está marcado por el desdén hacia afirmaciones nuevas y no comprobadas, y en muchos aspectos es tan problemático como la excesiva apertura mental[21]. En las elocuentes palabras de Sagan, la ciencia implica una mezcla de actitudes aparentemente contradictorias. Por un lado, requiere una apertura casi completa a todas las ideas, por extrañas y raras que suenen, una propensión a preguntarse ... Pero al mismo tiempo, la ciencia requiere el escepticismo más vigoroso e intransigente, porque la gran mayoría de las ideas son simplemente incorrectas, y la única forma de distinguir lo correcto de lo incorrecto, el trigo de la paja, es mediante el análisis y la experimentación crítica. Demasiada apertura y aceptación de todas las nociones, ideas e hipótesis, equivale a no saber nada. Demasiado escepticismo, especialmente el rechazo de nuevas ideas antes de que se prueben adecuadamente, y no solo está desagradablemente gruñón, sino que también está cerrado al avance de la ciencia. Lo que necesitamos es una combinación acertada.
1.4 Ciencia versus sentido común
En marcado contraste con los escritores que han argumentado que la ciencia es poco más que sentido común formalizado[22], estamos del lado de aquellos quienes han sostenido que la esencia de la ciencia es el "sentido poco común[23]". Es decir, la ciencia no es natural, porque a menudo requiere que anulemos nuestras corazonadas e intuiciones sobre el mundo natural, incluido el mundo psicológico. Quizás lo más importante es que la ciencia es un potente antídoto contra el realismo ingenuo[24], la tentadora pero errónea suposición de que el mundo es exactamente como lo vemos.
Una gran cantidad de dichos en nuestro idioma atestiguan el dominio del realismo ingenuo en nuestro pensamiento cotidiano: "Ver para creer", "Lo creeré cuando lo vea", "Lo vi con mis propios ojos". De hecho, podría decirse que el realismo ingenuo es la fuente de muchas de las teorías científicas más espectacularmente equivocadas de la historia. Durante la mayor parte de la historia de la humanidad, la gente asumió que la tierra era el centro del sistema solar, porque sus percepciones crudas y su realismo ingenuo les aseguraban que así era. Después de todo, cada día, aparentemente permanecemos plantados en tierra firme mientras el sol dibuja un gran arco alrededor del cielo desde el amanecer hasta el anochecer[25]. Por tanto, desde una perspectiva fenomenológica, parece que estamos en el centro de las cosas, aunque esta perspectiva es, por supuesto, engañosa. De manera similar, cuando un científico escolar realiza una intervención para alterar el comportamiento problemático en el aula de un estudiante y observa una mejora después de esa intervención, puede asumir que la intervención fue responsable del cambio. Esa conclusión sería comprensible, ya que encaja con el realismo ingenuo: "Vi el cambio con mis propios ojos". Pero esta inferencia sería errónea, ya que refleja el error lógico de “post hoc, ergo propter hoc” (después de esto, por lo tanto por esto). Específicamente, la conclusión omite considerar una plétora de explicaciones rivales para la mejora, incluidos los cambios que ocurren naturalmente, regresión a la media (la tendencia de las puntuaciones extremas a volverse menos extremas después de volver a realizar la prueba), efectos placebo, (mejora resultante de la mera expectativa de mejora), interferencia de múltiples tratamientos (atribuir la mejora a un tratamiento específico cuando en realidad se debe a una intervención concurrente), efectos novedosos (la tendencia de los participantes a reaccionar de manera diferente a cualquier nueva intervención) y otros artefactos[26]. En cambio, para evaluar si la intervención funcionó, los científicos escolares deben valerse de métodos científicos, como ensayos controlados aleatorios[27] y diseños sistemáticos dentro de los sujetos[28], que ayudan a excluir la mayoría de estas fuentes de error. Por lo tanto, al menos algo de la renuencia a adoptar la práctica basada en la evidencia en la psicología escolar es comprensible, y refleja en gran medida una preferencia por el razonamiento intuitivo y de “sentido común” sobre el razonamiento científico. Sostenemos que la primera forma de razonamiento nos llega a todos de forma más natural y automática. El razonamiento científico, por el contrario, no es natural: debe aprenderse, practicarse y mantenerse como un hábito mental[29]. De hecho, un trabajo reciente en psicología del desarrollo sugiere que los estudiantes muestran ciertos impedimentos profundamente arraigados al pensamiento científico, como una tendencia a inferir la teleología (es decir, el propósito) y la causalidad incluso cuando está ausente[30]. En pocas palabras, el pensamiento científico no es una forma natural de conceptualizar el mundo. Por lo tanto, no es de extrañar que el pensamiento científico sea un desarrollo relativamente reciente en la historia de la humanidad, que se originó de forma incipiente en la antigua Grecia y que no emergió plenamente hasta la Ilustración europea a finales del siglo XVII. Visto desde esta perspectiva, la resistencia de algunos científicos escolares a los enfoques de evaluación y tratamiento basados ??en la evidencia no es muy sorprendente. La mayoría de nosotros nos inclinamos a confiar en nuestras intuiciones y observaciones informales, que tienden a ser personales, tangibles y subjetivamente inmediatas. Tienden a privilegiarlos sobre los hallazgos científicos, que suelen ser impersonales, abstractos y subjetivamente distantes. Por lo tanto, cuando las intuiciones del científico escolar con respecto a la validez de una técnica de evaluación o la eficacia de una intervención empírica entran en conflicto fuertemente con evidencia científica bien replicada, a menudo pueden ponerse del lado de sus intuiciones. Sin embargo, la larga historia de errores en la medicina, la psicología y otras disciplinas nos enseña que las intuiciones, aunque ciertamente útiles en muchas circunstancias, son falibles[31]. Muchos historiadores de la medicina han argumentado que antes de aproximadamente 1890, la historia de la medicina fue en gran parte la historia del efecto placebo y que la mayoría de los procedimientos practicados por los médicos eran inútiles, dañinos o, en el mejor de los casos, no más útiles que un placebo. Durante siglos, los médicos "sabían", basándose en su experiencia clínica, que tratamientos como la formación de ampollas, las purgas y la hemorragia eran eficaces, aunque ahora reconocemos que este "conocimiento" estaba lamentablemente equivocado[32]. Aún así, vale la pena señalar que las intuiciones son útiles a pesar de su falibilidad. En particular, las intuiciones a veces pueden ser extremadamente útiles en lo que los filósofos de la ciencia a veces denominan “contexto de descubrimiento[33]”, es decir, generación de hipótesis. Por ejemplo, un científico escolar experimentado que tiene una fuerte corazonada de que un estudiante debe asegurarse en la mayoría de los casos de comprobar esta corazonada, teniendo en cuenta los peligros del sesgo de confirmación. Pero en el "contexto de la justificación", es decir, la prueba sistemática de hipótesis, una dependencia excesiva del pensamiento intuitivo puede ser peligrosa, incluso desastrosa. Esto se debe a que nuestras intuiciones, que se basan en un pensamiento asociativo rápido en lugar de un pensamiento analítico lento, generalmente no son adecuadas para abordar cuestiones científicas[34]. Por ejemplo, el pensamiento intuitivo a "nivel instintivo" no suele estar orientado a descartar hipótesis rivales en entornos escolares. El mensaje de fondo aquí es no ignorar reflexivamente nuestras intuiciones, ya que nuestras corazonadas y observaciones subjetivas (a) a veces son correctas y (b) a veces pueden ser útiles para generar hipótesis fructíferas para luego ser probadas en investigaciones rigurosas. En cambio, debemos tratar nuestras intuiciones con saludable escepticismo y estar preparados para modificarlas o incluso descartarlas cuando la evidencia científica bien controlada las contradiga repetidamente. Además, los científicos escolares deben esforzarse continuamente por poner sus poderosas intuiciones a pruebas sistemáticas tanto en entornos clínicos como de investigación. En algunos casos, estas intuiciones resultarán precisas; en otros, resultarán erróneos. Solo los métodos científicos, salvaguardias contra el error, pueden decirnos en última instancia si nuestras intuiciones son correctas o incorrectas. Si la historia de la ciencia nos ha enseñado algo, es que la certeza subjetiva es una guía poco confiable para la veracidad de las afirmaciones científicas. Debemos escuchar nuestras intuiciones, pero no debemos dejarnos aprisionar por ellas, y mejor atender nuestros sesgos[35], suficientes para preocuparnos por ganar humildad intelectual:
Realismo ingenuo. Creencia de que el mundo es precisamente como lo vemos.
Sesgo de confirmación. Tendencia a buscar evidencia consistente con nuestras creencias y negar, descartar o distorsionar evidencia que no lo es.
Cierre prematuro. Llegar a una conclusión prematura antes de que la evidencia adecuada esté disponible.
Creencia de perseverancia. Tendencia a aferrarse a creencias a pesar de repetidas pruebas contradictorias.
Correlación ilusoria. Tendencia a percibir asociaciones estadísticas que están objetivamente ausentes.
Sesgo de retrospectiva. Error de percibir eventos como más predecibles después de que han ocurrido.
Pensamiento grupal. Preocupación por la unanimidad grupal que impide la evaluación crítica de un tema.
Dependencia excesiva de heurísticas. Tendencia a ubicar. Demasiado peso en los atajos mentales y las reglas empíricas.
Heurística de disponibilidad. Juzgar la probabilidad de un evento por la facilidad con la que viene a la mente.
Heurística de anclaje. Tendencia a ser indebidamente influenciado por la información inicial.
Heurística de afectación. Juzgar la validez de una idea por la reacción emocional que produce en nosotros.
Heurística de representatividad. Juzgar la probabilidad de un evento por su similitud con un prototipo.
Descuido de la tasa base. Descuidar o ignorar la prevalencia de una característica en la población.
Sesgo punto ciego. Tendencia a vernos a nosotros mismos como inmunes a los sesgos a los que otros son propensos.
Desembalaje. Obtener toda la información de diagnóstico relevante sobre un individuo Biasa agregada. Asunción de que los datos grupales son irrelevantes para un individuo o cliente dado.
Búsqueda satisfactoria. Tendencia a finalizar la búsqueda de otras posibilidades de diagnóstico una vez que se ha llegado a una conclusión diagnóstica inicial.
Eclipsar diagnóstico. Tendencia a un dramático y sobresaliente diagnóstico para llevar a los médicos a pasar por alto diagnósticos menos obvios (p. ej., discapacidad de aprendizaje).
Momento de diagnóstico. Tendencia a aceptar sin crítica diagnósticos previos del mismo individuo.
Error psicológico. Descuidar la posibilidad de que un problema de comportamiento sea médico, no psicológico, en origen.
Patología biasa. Tendencia a sobrepatologizar el comportamiento relativamente normativo.
1.5 Ciencia versus pseudociencia: señales de advertencia
Los errores cognitivos, pueden conducir a prácticas científicas escolares subóptimas; en algunos casos, pueden llevar a los científicos escolares a caer presa de afirmaciones pseudocientíficas. Como se señaló anteriormente, las pseudociencias pueden considerarse como disciplinas que muestran la apariencia superficial de la ciencia pero que carecen de su sustancia[36]. A diferencia de muchas otras afirmaciones inverosímiles, pueden ser especialmente peligrosas porque a menudo parecen ser convincentes en la superficie. Como consecuencia, pueden engañar incluso a individuos altamente inteligentes y bien entrenados. Como ocurre con los errores cognitivos, la aceptación de afirmaciones pseudocientíficas rara vez se debe a una baja inteligencia general o una educación insuficiente. En cambio, todos podemos ser víctimas de afirmaciones pseudocientíficas a menos que seamos conscientes de sus características más comunes[37]. Es casi seguro que la ciencia y la pseudociencia difieren entre sí en grado más que en especie, por lo que es poco probable que haya un único criterio necesario o suficiente para distinguir la ciencia de la pseudociencia. Sin embargo, podemos identificar varios indicadores útiles o "señales de advertencia" de la pseudociencia[38]. Aunque ninguna de las señales de advertencia proporciona evidencia dispositiva de que una afirmación sea dudosa, mientras más señales de este tipo exhiba una afirmación, más escépticos deberíamos volvernos. Muchas afirmaciones dudosas en ciencia escolar, debemos señalar, incorporan varias señales de advertencia simultáneamente. Aquí delineamos diez señales de advertencia que deberían ser especialmente útiles para los psicólogos escolares para diferenciar las afirmaciones y prácticas científicas de las pseudocientíficas. Tales señales de advertencia pueden ser útiles para los científicos escolares cuando evalúan afirmaciones en los medios de comunicación, en Internet, en talleres, en la literatura revisada por pares e incluso en conversaciones con sus colegas. Junto con cada signo, que ayuda a ilustrarlo:
Indicador de pseudociencia:
- Falta de falsabilidad y uso excesivo de hipótesis ad hoc
- Falta de autocorrección.
- Énfasis en la confirmación.
- Evasión de la revisión por pares.
- Dependencia excesiva de pruebas testimoniales y anecdóticas.
- Ausencia de conectividad.
- Reclamaciones extraordinarias.
- Falacia ad antiquitatem.
- Uso del lenguaje hipertécnico.
- Ausencia de condiciones de contorno.
Señal de advertencia número uno: Falta de falsabilidad y uso excesivo de hipótesis ad hoc. Según el filósofo de la ciencia Sir Karl Popper, la falsabilidad (la capacidad de refutar una teoría con evidencia) es una característica clave de la ciencia, mientras que la falta de falsabilidad es una característica clave de la pseudociencia[39]. Popper criticó las teorías de la personalidad de Freud y Adler como no dotadas de falsabilidad, ya que eran consistentes con prácticamente cualquier conjunto de hallazgos observados. Como señaló Popper, esta teoría es prácticamente imposible de falsificar y, por lo tanto, no es científica. Una persona que aspire a convertirse en un poderoso líder mundial podría acomodarse dentro de la teoría, pero según Adler, también podría hacerlo una persona que se convierta en un alcohólico crónico; la última persona podría simplemente estar usando su forma de beber para persuadirse a sí mismo de que "si no me hubiera convertido en un bebedor empedernido, seguramente me habría convertido en una gran persona". Una teoría que explica todos los resultados concebibles, observó Popper de manera incisiva, en efecto no explica nada. Como consecuencia, no es científico. Las teorías científicas no solo deben anticipar ciertos resultados; deben excluir otros resultados. Las teorías pueden volverse esencialmente infalsabilidad por el uso excesivo de hipótesis ad hoc[40]. Una hipótesis ad hoc es esencialmente una "vía de escape" o "escapatoria" que los investigadores pueden utilizar para explicar los hallazgos negativos, resultados que desafían sus hipótesis. Como consecuencia, puede invocar una o más hipótesis ad hoc para explicar estos hallazgos inesperados. Una o más de estas hipótesis ad hoc pueden incluso ser correctas. En algunos casos, las hipótesis ad hoc tienen un papel legítimo que desempeñar en la ciencia, especialmente cuando fortalecen el contenido de la teoría, el poder predictivo o ambos. Por el contrario, en las pseudociencias, las hipótesis ad hoc rara vez se fortalecen y, en cambio, se invocan típicamente como un medio desesperado para salvar las afirmaciones de todas las falsificaciones excepto ciertas. El uso excesivo de hipótesis ad hoc puede hacer que las afirmaciones sean virtualmente imposibles de falsificar en la práctica, porque una acumulación de tales hipótesis puede en efecto servir como escudos protectores impenetrables contra hallazgos negativos. Como consecuencia, el uso excesivo de hipótesis ad hoc puede colocar afirmaciones fuera del alcance de las pruebas científicas.
Señal de advertencia dos: Falta de autocorrección a largo plazo, las afirmaciones científicas tienden gradualmente a autocorregirse, ya que los métodos científicos están diseñados para arraigar nuestros errores en nuestra red de creencias[41]. Por el contrario, las pseudociencias tienden a estancarse durante largos períodos de tiempo, y a menudo muestran escasos cambios ante la repetida evidencia contraria. Irónicamente, el estatus provisional de la ciencia, que a veces ha llevado a los estudiosos posmodernistas a cuestionarla, es una de sus principales fortalezas, porque el conocimiento científico aceptado siempre está abierto a revisión en espera de nuevos datos. Al mismo tiempo, algunos hallazgos científicos, están tan bien establecidos que podemos depositar una confianza sustancial en ellos, incluso cuando reconocemos que hay algunos aspectos remotos de posibilidad de que puedan ser anulados o revisados ??algún día. En general, los investigadores haciendo caso omiso de esta evidencia de investigación negativa, los defensores de los estilos de aprendizaje han establecido un mercado floreciente de herramientas de evaluación y medición[42]. Dada la gran cantidad de evidencia que contradice la hipótesis de emparejamiento de estilos de aprendizaje, los estudiantes y los maestros harían bien en recurrir a técnicas educativas basadas en investigaciones científicas más sólidas[43].
Señal de advertencia tres: Énfasis en la confirmación. Como señalamos anteriormente, el sesgo de confirmación puede llevarnos a buscar evidencia que sea consistente con nuestras hipótesis e ignorar o reinterpretar selectivamente evidencia que no lo sea. Las ciencias incorporan salvaguardas sistemáticas contra el sesgo de confirmación, como diseños de control aleatorios; por el contrario, las pseudociencias tienden a burlar descaradamente tales salvaguardas. Además, en las pseudociencias, los resultados positivos generalmente reciben un peso considerablemente mayor que los resultados negativos; este énfasis en la confirmación más que en la refutación va en contra del principio de que la ciencia funciona mejor al someter las afirmaciones al riesgo de falsabilidad. Como escribió el filósofo de la ciencia Mario Bunge, el pseudocientífico, como el pescador, exagera su pesca y descuida sus fallas o las disculpa. Como es el caso de muchas afirmaciones cuestionables, afirman que se puede utilizar para tratar "todos los problemas de conducta". Para reforzar sus afirmaciones (y lo más relevante para la señal de advertencia actual de la pseudociencia), los creadores presentan numerosas citas y reseñas en su sitio web como evidencia de la efectividad de su programa. Sin embargo, el sitio web no menciona la posibilidad de que no funcione para todos los casos.
Señal de advertencia cuatro: Evasión de la revisión por pares. Aunque el proceso de revisión por pares está lejos de ser perfecto[44] y no está libre de influencias o sesgos políticos, por lo general brinda al menos cierta protección contra la investigación de mala calidad. En el proceso de revisión por pares, los consejos editoriales de las revistas y los comités de revisión de subvenciones envían artículos y propuestas de subvenciones para que sean revisadas por varios, a menudo tres o más, académicos independientes (y generalmente anónimos). Mientras que las ciencias se basan en la revisión por pares como una salvaguardia parcial contra el error, muchas pseudociencias pasan desapercibidas en la revisión por pares, difundiendo y promoviendo afirmaciones antes de que hayan sido sometidas a un cuidadoso escrutinio por parte de los expertos.
Señal de advertencia cinco: Dependencia excesiva de la evidencia anecdótica y testimonial. Como han observado algunos estudiosos, el plural de anécdota no es un hecho. En otras palabras, múltiples piezas de evidencia anecdótica rara vez, si es que alguna vez, son suficientes para concluir que una afirmación es correcta. Esta conclusión es válida porque las anécdotas son (a) a menudo difíciles de verificar, (b) de representatividad poco clara o cuestionable, y (c) casi siempre vulnerables a múltiples explicaciones en competencia. La relación entre la evidencia anecdótica y la eficacia del tratamiento es típicamente asimétrica[45]. Sin embargo, si uno escucha afirmaciones anecdóticas de la eficacia de un tratamiento por parte de los consumidores, no debe concluir que el tratamiento debe ser eficaz. Solo los estudios controlados que han sido replicados por académicos independientes pueden permitirle llegar a esta conclusión.
Señal de advertencia seis: Ausencia de conectividad. Keith Stanovich definió la “conectividad” como la medida en que las afirmaciones se basan en otras afirmaciones o se “conectan con ellas[46]”. Las ciencias desarrolladas tienden a mostrar un carácter acumulativo, con afirmaciones novedosas basadas en hallazgos bien establecidos. En contraste, las pseudociencias a menudo carecen de conectividad con otros conocimientos, pretendiendo construir paradigmas completamente nuevos de la nada. Por supuesto, en casos raros, en la ciencia surgen paradigmas completamente nuevos que derrocan el conocimiento existente, un fenómeno que Kuhn denominó como "ciencia revolucionaria". Sin embargo, estos éxitos espectaculares son muy pocos y distantes entre sí, y están acompañados de evidencia especialmente persuasiva de que el nuevo paradigma puede predecir hallazgos que los paradigmas anteriores no pueden. Ejemplo: Los defensores de la idea de que algunos individuos son de "cerebro izquierdo" mientras que otros tienen "cerebro derecho" se basan en hallazgos científicos legítimos que indican que los dos hemisferios a menudo difieren algo en sus estilos cognitivos[47]. Sin embargo, estos defensores ignoran el considerable corpus de investigaciones que muestran que ambos hemisferios están en interacción virtualmente continua y no habitan en “mundos” psicológicos separados[48]. También ignoran la evidencia de que los dos hemisferios son mucho más similares que diferentes en su procesamiento de información.
Señal de advertencia siete: Reclamaciones extraordinarias. Como argumentaron Marcello Truzzi[49] y más tarde Sagan, las reclamaciones extraordinarias requieren evidencia extraordinaria. Es decir, si uno presenta una afirmación que va en contra de prácticamente todo el conocimiento existente, debe proporcionar evidencia especialmente convincente para esta afirmación. Este principio encaja con los principios básicos del pensamiento bayesiano, un enfoque que incorpora la plausibilidad a priori de las afirmaciones al evaluar su fuerza probatoria. Sin embargo, muchas pseudociencias presentan afirmaciones extraordinarias sin ofrecer pruebas igualmente extraordinarias. Ignorar estos nuevos patrones es potencialmente crear desequilibrio y frustración en la mente de esta preciosa nueva idea.
Señal de advertencia ocho: Uso de lenguaje hipertécnico. En un esfuerzo por diferenciar con precisión entre conceptos superficialmente similares, los científicos a menudo encuentran útil introducir terminología nueva y distinta. No obstante, se puede abusar de esta práctica, especialmente cuando la terminología proporciona técnicas sin fundamento con un prestigio de respetabilidad científica inmerecida. Los promotores de la pseudociencia a menudo se basan en un lenguaje demasiado técnico en un esfuerzo por establecer la legitimidad de sus prácticas que de otro modo serían inválidas. En contraste con el lenguaje de las ciencias bien establecidas, este lenguaje con frecuencia carece de precisión, significado o ambos.
Señal de advertencia nueve: Ausencia de condiciones de frontera. Las teorías y prácticas científicas generalmente incorporan condiciones de frontera claramente definidas: instancias en las que las afirmaciones asociadas con la teoría son, y no son, aplicables. En marcado contraste, “se supone que la mayoría de los fenómenos pseudocientíficos operan en una gama extremadamente amplia de condiciones[50]”, de modo que los proponentes pueden afirmar que su concepto o tratamiento se aplica a prácticamente todas las condiciones, o prácticamente a todas. Las afirmaciones expansivas carecen claramente de condiciones límite: ellas presentan su método como una panacea para prácticamente todos contextos.
1.6 Crisis de humildad intelectual, el gran desafío del científico
La capacidad de autocorregirse se considera un sello distintivo de la ciencia. Sin embargo, la autocorrección no siempre ocurre con la evidencia científica por defecto. La trayectoria de la credibilidad científica puede fluctuar con el tiempo, tanto para campos científicos definidos como para la ciencia en general. La historia sugiere que, lamentablemente, son posibles grandes catástrofes en la credibilidad científica y el argumento de que "es obvio que se han hecho progresos" es débil. La evaluación cuidadosa del estado actual de la credibilidad de varios campos científicos es importante para comprender cualquier déficit de credibilidad y cómo se pueden obtener y establecer resultados más confiables. Los mecanismos de reproducción eficientes e imparciales son esenciales para mantener altos niveles de credibilidad científica. Cualquier desviación del principio de que la búsqueda de la verdad tiene prioridad sobre cualquier otro objetivo puede dañar seriamente las funciones autocorrectoras de la ciencia.
La influencia de las creencias previas de los científicos en sus juicios sobre la calidad de la evidencia. Un análisis bayesiano indica que el patrón de efectos de concordancia encontrado en estos estudios puede ser normativamente defendible, aunque también se avanzan argumentos en contra de la implementación de un enfoque bayesiano del juicio científico[51].
Ser necios. La variedad de estrategias que los individuos pueden usar para resistir la persuasión: Refuerzo de actitudes, contraargumentos, afecto negativo, exposición selectiva, validación social y derogación de la fuente. También se reveló una estrategia novedosa, afirmando la confianza de que nada puede hacer que uno cambie de opinión. El necio practica derogación de la fuente por la importancia de la actitud, el conocimiento percibido, la efectividad percibida de la estrategia y la deseabilidad social significativa en la probabilidad percibida de usar varias estrategias. Contra argumentar es la estrategia más eficaz para resistir la persuasión[52].
La hipótesis de la impotencia científica predice que las personas se resisten a la evidencia científica que refuta las creencias al concluir que el tema de estudio no es susceptible de investigación científica. Por lo tanto, el hecho de que se presenten pruebas científicas que refuten las creencias puede conducir a una erosión de la creencia en la eficacia de los métodos científicos[53].
En los últimos años, los científicos han prestado cada vez más atención a la reproducibilidad. Por ejemplo, el Reproducibility Project, un intento de replicación a gran escala de 100 estudios publicados en las principales revistas, encontró que solo el 39% podía reproducirse sin ambigüedades[54]. Existe un creciente consenso entre los científicos de que la falta de reproducibilidad se debe a varios factores metodológicos, incluido el bajo poder estadístico, los grados de libertad de los investigadores y el énfasis en la publicación de resultados positivos sorprendentes. Sin embargo, existe un polémico debate sobre hasta qué punto las fallas en la reproducción de ciertos resultados también podrían reflejar diferencias contextuales entre la investigación original y el intento de replicación. Estos resultados sugieren que los investigadores, los replicadores y los consumidores deberían tener en cuenta los factores contextuales que podrían influir en un proceso psicológico de conocer. Ofrece varias pautas para tratar la sensibilidad contextual en la reproducibilidad.
Prueba de reflexión cognitiva, es una medida simple de un tipo de capacidad cognitiva: la capacidad o disposición para reflexionar sobre una pregunta y resistirse a informar la primera respuesta que se le ocurra. De hecho, la relación es a veces tan fuerte que las preferencias mismas funcionan efectivamente como expresiones de la capacidad cognitiva, un hecho empírico que pide una explicación teórica[55].
1.7 Formar científicos
El objetivo de las intervenciones de educación científica es nutrir, enriquecer y mantener el interés natural y espontáneo en el conocimiento y los procedimientos científicos. Presentamos una taxonomía de la investigación sobre el pensamiento científico desde la perspectiva del desarrollo cognitivo y los intentos asociados de enseñar ciencia. Resumimos algunos de los desacuerdos actuales en el campo de la educación científica y ofrecemos algunas sugerencias sobre formas de continuar avanzando en la enseñanza de la ciencia.
La autocorrección, una característica clave que distingue la ciencia de la pseudociencia, requiere que los científicos actualicen sus creencias a la luz de nueva evidencia. Sin embargo, las personas a menudo se muestran reacias a cambiar sus creencias. Se ha descubierto que los científicos actualizaron sus creencias, pero no tanto como el modelo bayesiano sugiere que deberían hacerlo si confían en los resultados. No se ha encontrado evidencia de que los científicos se volvieran más críticos con la replicación de resultados cuando habrían preservado sus creencias preexistentes. Tampoco encontraron evidencia de que la inversión personal o la falta de experiencia desalienten la actualización de creencias, pero las personas con mayor humildad intelectual actualizaron sus creencias con más eficacia. Los resultados sugieren que los estudios de replicación pueden contribuir a la autocorrección dentro de la ciencia, pero los estudiantes de ciencias pueden subestimar su valor probatorio.
Se propone que la motivación puede afectar el razonamiento al depender de un conjunto sesgado de procesos cognitivos, es decir, estrategias para acceder, construir y evaluar creencias. La motivación para ser exacto mejora el uso de aquellas creencias y estrategias que se consideran más apropiadas, mientras que la motivación para llegar a conclusiones particulares mejora el uso de aquellas que se consideran más probables de producir la conclusión deseada. Existe evidencia considerable de que es más probable que las personas lleguen a las conclusiones a las que quieren llegar, pero su capacidad para hacerlo se ve limitada por su capacidad para construir justificaciones aparentemente razonables para estas conclusiones. Estas ideas pueden dar cuenta de una amplia variedad de investigaciones relacionadas con el razonamiento motivado.
Para explorar la hipótesis de que el desarrollo de la identidad de un dominio específico predice sesgos de razonamiento, los adolescentes y adultos jóvenes completaron medidas de identidad de dominio general y específico de dominio, regulación epistémica y capacidad intelectual y evaluaron argumentos que apoyaban o amenazaban sus metas ocupacionales. Los sesgos se definieron como el uso de un razonamiento sofisticado para rechazar los argumentos que amenazan el objetivo y el uso de un razonamiento superficial para aceptar argumentos que apoyan el objetivo. A través de dos medidas de sesgo, los análisis de regresión jerárquica mostraron que la identidad vocacional específica del dominio y la regulación epistémica predecían mejor los sesgos de razonamiento. Ni la edad ni la capacidad intelectual predijeron una variación significativa en los sesgos después de que se ingresaron los puntajes de identidad vocacional y regulación epistémica en las ecuaciones de regresión. Los resultados apoyan la tesis de que los sesgos en dominios específicos pueden explicarse tanto por atributos de personalidad específicos de dominio como por disposiciones metacognitivas generales de dominio para monitorear el razonamiento y descontextualizar la estructura del problema a partir de contenidos superficiales. Se propone un marco de proceso dual para explicar las relaciones entre identidad, regulación epistémica, edad, capacidad intelectual y sesgos de razonamiento.
El razonamiento generalmente se considera un medio para mejorar el conocimiento y tomar mejores decisiones. Sin embargo, mucha evidencia muestra que el razonamiento a menudo conduce a distorsiones epistémicas y malas decisiones. Esto sugiere que debería repensarse la función del razonamiento. Nuestra hipótesis es que la función del razonamiento es argumentativa. Es idear y evaluar argumentos destinados a persuadir. El razonamiento así concebido es adaptativo dada la dependencia excepcional de los seres humanos de la comunicación y su vulnerabilidad a la desinformación. Una amplia gama de evidencia en la psicología del razonamiento y la toma de decisiones puede reinterpretarse y explicarse mejor a la luz de esta hipótesis. El bajo rendimiento en las tareas de razonamiento estándar se explica por la falta de contexto argumentativo. Cuando los mismos problemas se colocan en un marco argumentativo adecuado, las personas resultan ser hábiles argumentadores. Los expertos en argumentar, sin embargo, no buscan la verdad, sino argumentos que respaldan sus puntos de vista. Esto explica el notorio sesgo de confirmación. Este sesgo es evidente no solo cuando las personas están realmente discutiendo, sino también cuando razonan de manera proactiva desde la perspectiva de tener que defender sus opiniones. Un razonamiento tan motivado puede distorsionar evaluaciones y actitudes y permitir que persistan creencias erróneas. El razonamiento utilizado de forma proactiva también favorece las decisiones que son fáciles de justificar, pero no necesariamente mejores. En todos estos casos descritos tradicionalmente como fallas o defectos, el razonamiento hace exactamente lo que se puede esperar de un dispositivo argumentativo: buscar argumentos que apoyen una conclusión dada y, ceteris paribus, favorecer conclusiones para las que se puedan encontrar argumentos.
Referencias
[1] McDiarmid, A.D., Tullett, A.M., Whitt, C.M. et al. Psychologists update their beliefs about effect sizes after replication studies. Nat Hum Behav (2021). https://doi.org/10.1038/s41562-021-01220-7
[2] Maríñez-Lora, Ané & Atkins, Marc. (2012). Evidence-based treatment in practice-based cultural adaptations.. DOI:10.1037/13752-012.
[3] Forest, Peter & Pizzola, Peter & Kammrath, Brooke. (2021). Science and Pseudoscience.
DOI:10.1002/9781119764724.ch8.
[4] Hong, Jon-Chao & Ming-Yueh, Hwang & Szeto, Elson & Tai, Kai-Hsin & Tsai, Chi-Ruei. (2020). Undergraduate Science Students’ Scientist–Practitioner Gap: the Role of Epistemic Curiosity and Cognitive Flexibility. International Journal of Science and Mathematics Education. 19.
DOI:10.1007/s10763-020-10096-4.
[5] McGill, Ryan & Dombrowski, Stefan & Canivez, Gary. (2018). Cognitive Profile Analysis in School Psychology: History, Issues, and Continued Concerns. Journal of School Psychology. 71. 108-121.
DOI:10.1016/j.jsp.2018.10.007.
[6] Peterson, Roger & Lambos, Katherine. (2019). A Sociocultural-Constructionist Epistemology for the Psychology of Aging Summary and Keywords A Sociocultural-Constructionist Epistemology for the Psychology of Aging Subject: Methods and Approaches in Psychology, Psychology and Other Disciplines Online Oxford Research Encyclopedia of Psychology. DOI:10.1093/acrefore/9780190236557.013.336.
[7] Gansle, Kristin & Noell, George. (2008). Consulting with Teachers Regarding Academic Skills: Problem Solving for Basic Skills. International Journal of Behavioral Consultation and Therapy. 4.
DOI:10.1037/h0100843.
[8] Starling, Natalie & Elias, Eric & Coleman, Mykelle. (2019). Concentrations in School Psychology: Can Specialization Empower the Evolution of the Profession?. Contemporary School Psychology. 25. 1-8.
DOI:10.1007/s40688-019-00264-x.
[9] Cross, Tracy & Cross, Jennifer. (2021). Suicide among Gifted Children and Adolescents: Understanding the Suicidal Mind. DOI:10.4324/9781003238348.
[10] Kohn, Carolynn & Sayers, Steven. (1997). Crazy therapies: What are they? Do they work?. Clinical Psychology Review - CLIN PSYCHOL REV. 17. 580-582.
[11] Bickle, John & Craver, Carl & Barwich, Ann-Sophie. (2021). The Tools of Neuroscience Experiment: Philosophical and Scientific Perspectives.
DOI:10.4324/9781003251392.
[12] Teo, Thomas. (2011). Radical Philosophical Critique and Critical Thinking in Psychology. Journal of Theoretical and Philosophical Psychology. 31. 193-199.
DOI:10.1037/a0024708.
[13] Kranzler, John & Maki, Kathrin & Benson, Nicholas & Eckert, Tanya & Floyd, Randy & Fefer, Sarah. (2020). How Do School Psychologists Interpret Intelligence Tests for the Identification of Specific Learning Disabilities?.
DOI:10.1007/s40688-020-00274-0.
[14] Swann, William & Chang-Schneider, Christine & Mcclarty, Katie. (2007). Do people's self-views matter? Self-concept in everyday life. The American psychologist. 62. 84-94. 10.1037/0003-066X.62.2.84.
[15] Olga, Wellyda & Suryadi, Denrich. (2021). The Relationship Between Perceptions of Social Support and Self-Esteem in University Graduates. DOI:10.2991/assehr.k.210805.087.
[16] Brooke, Stephanie. (2010). Breaking the myths surrounding child development.. Psyccritiques. 55. No Pagination Specified.
DOI:10.1037/a0020470.
[17] Slovic, Paul. (2021). Thinking and Deciding Rationally About Catastrophic Losses of Human Lives.
[18] Tjeltveit, Alan. (2015). Appropriately addressing psychological scientists' inescapable cognitive and moral values. Journal of Theoretical and Philosophical Psychology. 35. 35-52. DOI:10.1037/a0037909.
[19] Feynman, Richard & Teich, Malvin. (1986). Surely You're Joking, Mr. Feynman! Adventures of a Curious Character. Physics Today. 39. 61-. DOI:10.1063/1.2815146.
[20] Sagan, Carl. (1996). The Candle and the Darkness. (Book Reviews: The Demon-Haunted World. Science as a Candle in the Dark.). Science. 273. 442-443.
[21] Coker, Rory. (2021). Distinguishing Science and Pseudoscience.
[22] Anderson, & Dallas, William. (2021). Refutation and justification in Moore's defense of common sense.. Thesis (Ph. D.)--University of Massachusetts, (Five College Cooperative Program), 1976.
[23] McCauley, Robert. (2021). The naturalness of religion and the unnaturalness of science.
[24] Bastardi, Anthony & Uhlmann, Eric & Ross, Lee. (2011). Wishful Thinking: Belief, Desire, and the Motivated Evaluation of Scientific Evidence. Psychological science. 22. 731-2. DOI:10.1177/0956797611406447.
[25] Brodt, Susan & Ross, Lee. (1998). The Role of Stereotyping in Overconfident Social Prediction. Social Cognition. 16. 225-252.
DOI:10.1521/soco.1998.16.2.225.
[26] Sfetcu, Nicolae. (2019). Science and pseudoscience - Falsifiability.
DOI:10.13140/RG.2.2.29821.61926.
[27] Minasian, Mara. (2012). Self-Distancing and Cognitive-Behavioral Therapy Homework Exercises: A Longitudinal Study Examining the Completion of Daily Worry Logs in the Third Person.
[28] Kazdin, Alan. (2021). The Kazdin Method for Developing and Changing Behavior of Children and Adolescents. International Journal of Mental Health Promotion. 23. 1-14. DOI:10.32604/IJMHP.2021.019135.
[29] Porche, Demetrius. (2016). Diagnostic Errors: Improving Diagnostic Practice. American Journal of Men's Health. 10. 5-5. DOI:10.1177/1557988315616452.
[30] Stern, Florian & Delaval, Marine & Kampourakis, Kostas & Ller, Andreas. (2020). Implicit associations of teleology and essentialism concepts with genetics concepts among secondary school students. PLoS ONE. 15.
DOI:10.1371/journal.pone.0242189.
[31] Dawes, Robyn & Faust, David & Meehl, Paul. (2002). Clinical versus Actuarial Judgment.
DOI:10.1017/CBO9780511808098.042.
[32] Swofford, H. & Champod, Christophe. (2021). Implementation of Algorithms in Pattern & Impression Evidence: A Responsible and Practical Roadmap. Forensic Science International: Synergy. 3. 100142.
DOI:10.1016/j.fsisyn.2021.100142.
[33] Witte, Erich H. & Stanciu, Adrian & Zenker, Frank. (2020). A simple measure for the empirical adequacy of a theoretical construct.
DOI:10.31234/osf.io/gdmvx.
[34] Seth, Udbhav. (2019). Thinking, fast and slow. Journal of the Practice of Cardiovascular Sciences. 5. 55.
DOI:10.4103/jpcs.jpcs_21_19.
[35] Nickerson, Raymond. (2015). Conditional Reasoning: The Unruly Syntactics, Semantics, Thematics, and Pragmatics of "If".
DOI:10.1093/acprof:oso/9780190202996.001.0001.
[36] Chow, Julie & Colagiuri, Ben & Rottman, Benjamin & Goldwater, Micah & Livesey, Evan. (2021). Pseudoscientific Health Beliefs and the Perceived Frequency of Causal Relationships. International Journal of Environmental Research and Public Health. 18. 11196.
DOI:10.3390/ijerph182111196.
[37] Taschner, Natália & Orsi, Carlos & Almeida, Paulo & Pilati, Ronaldo. (2021). The impact of personal pseudoscientific beliefs in the pursuit for non-evidence-based health care. Journal of Evidence-Based Healthcare. 3.
DOI:10.17267/2675-021Xevidence.2021.e3516.
[38] Visser, Margreet & Lawick, Justine. (2021). Scientific research.
DOI:10.4324/9780429023910-4.
[39] Taran, Shaurya & Adhikari, Neill & Fan, Eddy. (2021). Falsifiability in medicine: what clinicians can learn from Karl Popper. Intensive care medicine. 47.
DOI:10.1007/s00134-021-06432-z.
[40] Brumback, Roger. (2012). Book Review: Believing Bullshit: How Not to Get Sucked Into an Intellectual Black Hole. Journal of Evidence-Based Complementary & Alternative Medicine. 17. 78-78.
DOI:10.1177/2156587211427165.
[41] Carlson, Matthew. (2015). Logic and the Structure of the Web of Belief. Journal for the History of Analytical Philosophy. 3.
DOI:10.15173/jhap.v3i5.28.
[42] Pashler, Harold & Harris, Christine. (2021). Statistical consequences of staging exploration and confirmation. Methods in Psychology. 5. 100078. DOI:10.1016/j.metip.2021.100078.
[43] Lindsey, Robert & Shroyer, Jeffery & Pashler, Harold & Mozer, Michael. (2014). Improving Students' Long-Term Knowledge Retention Through Personalized Review. Psychological science. 25.
DOI:10.1177/0956797613504302.
[44] Ismail, Sharif & Farrands, Alice & Wooding, Steven. (2009). Evaluating Grant Peer Review in the Health Sciences: A review of the literature. DOI:10.7249/TR742.
[45] Menz, Cordelia & Spinath, Birgit & Hendriks, Friederike & Seifried, Eva. (2021). Reducing educational psychological misconceptions: How effective are standard lectures, refutation lectures, and instruction in information evaluation strategies?. Scholarship of Teaching and Learning in Psychology. 10.1037/stl0000269.
[46] Toplak, Maggie & Rizeq, Jala. (2020). Development of Judgment, Decision Making, and Rationality.
DOI:10.1093/acrefore/9780190236557.013.542.
[47] Cohen, Yaniv & Putrino, David & Wilson, Donald. (2015). Dynamic cortical lateralization during olfactory discrimination learning: Piriform cortical asymmetry during odour learning. The Journal of Physiology. 593.
DOI:10.1113/jphysiol.2014.288381.
[48] Carey, David. (2001). Mind myths: exploring popular assumptions about the mind and the brain. Applied Cognitive Psychology - APPL COGNITIVE PSYCHOL. 15. 347-349.
DOI:10.1002/acp.736.
[49] Cardeña, Etzel. (2014). A call for an open, informed study of all aspects of consciousness. Frontiers in human neuroscience. 8. 17.
DOI:10.3389/fnhum.2014.00017.
[50] Moeller, Amanda & Johnson, Benjamin & Levy, Kenneth & LeBreton, James. (2021). Conceptualizing and measuring the implicit personality: The state of the science.
DOI:10.1016/B978-0-12-819200-9.00014-4.
[51] Tappin, Ben & Gadsby, Stephen. (2019). Biased belief in the Bayesian brain: A deeper look at the evidence. DOI:10.31234/osf.io/v3r9d.
[52] Beckert, Johannes & Koch, Thomas & Viererbl, Benno & Riehl, Charlotte. (2020). The disclosure paradox: how persuasion knowledge mediates disclosure effects in sponsored media content. International Journal of Advertising. 40. 1-26.
DOI:10.1080/02650487.2020.1859171.
[53] Scharrer, Lisa & Bromme, Rainer & Stadtler, Marc. (2021). Information Easiness Affects Non-experts’ Evaluation of Scientific Claims About Which They Hold Prior Beliefs. Frontiers in Psychology. 12. 678313. DOI:10.3389/fpsyg.2021.678313.
[54] Sabik, Natalie & Matsick, Jes & McCormick-Huhn, Kaitlin & Cole, Elizabeth. (2021). Bringing an Intersectional Lens to “Open” Science: An Analysis of Representation in the Reproducibility Project. Psychology of Women Quarterly. 45. 475-492.
DOI:10.1177/03616843211035678.
[55] Burgoyne, Alex & Mashburn, Cody & Tsukahara, Jason & Hambrick, Zach & Engle, Randall. (2021). Understanding the relationship between rationality and intelligence: a latent-variable approach. Thinking & Reasoning. 1-42.
DOI:10.1080/13546783.2021.2008003.