Para pensar como científicos debemos desarrollar ciertas habilidades que van en contra de nuestra naturaleza humana (y son difíciles hasta para los mismos científicos), como ser objetivos o alejarnos de nuestras propias creencias.
Un claro ejemplo de esto es la idea de que las vacunas pueden causar autismo, que sigue estando fuertemente arraigada en nuestra sociedad (muchísimos padres deciden no vacunar a sus hijos gracias a esta información sesgada) incluso aunque se sabe muy bien que la evidencia para respaldarla no existe o esta sesgada por intereses económicos y errores metodológicos, como fue el famoso caso de Andrew Wakefield.
Prat Shah y sus colegas de la Universidad de Michigan analizan porqué es tan difícil pensar como científico en su nueva adición a la serie de libros: Psychology of Learning and Motivation. En el mismo se publican contribuciones empíricas y teórica en psicología experimental y cognitiva. Te presentamos 5 puntos extraído de este material:
Nos encantan las anécdotas
Cuando tomamos decisiones diarias muchos nos dejamos influenciar más por el testimonio de una sola persona que por calificaciones o resultados impersonales realizados por muchos individuos. Ese es el poder de las anécdotas, nublar nuestro pensamiento crítico.
En un estudio del 2016, Fernando Rodriguez y sus colegas les pidieron a estudiantes que evaluaran reportes de noticias científicas cuyas conclusiones eran inapropiadas a partir de evidencia débil. Algunos reportes comenzaban con una anécdota que apoyaba la conclusión inapropiada, otros no tenían anécdota (condición control). Sin importar su nivel universitario o su conocimiento de conceptos científicos, los estudiantes eran menos competentes en sus evaluaciones cuando éstas comenzaban con una anécdota.
Los autores concluyeron que las anécdotas pueden afectar nuestra capacidad de juzgar científicamente situaciones del mundo real.
Somos demasiado seguros de nosotros mismos
En un estudio del año 2003 se les pidió a cientos de universitarios que leyeran noticias científicas, las interpretaran y calificaran su comprensión. Los estudiantes se equivocaron en muchas cosas (por ejemplo, confundían correlación con causalidad) incluso aunque creían tener una buena comprensión.
Otro estudio de los 80 encontró que el 60% de los ciudadanos norteamericanos y británicos encuestados aseguraba estar moderadamente o muy bien informados sobre los nuevos hallazgos científicos. Sin embargo, un porcentaje mucho más pequeño fue capaz de responder preguntas fáciles sobre ciencia de nivel escolar. Parte del problema parece ser que inferimos nuestro entendimiento de textos científicos basados en cuán bien hemos comprendido el lenguaje utilizado. Esto significa que las noticias científicas populares, escritas en el lenguaje del lego, pueden contribuir a la confianza que sienten las personas en su comprensión.
Este “sesgo de fluidez” también puede aplicar a clases de ciencias: un estudio del 2013 halló que los alumnos sobreestimaron el conocimiento que habían adquirido de una clase de ciencias, cuando esta era dada por un orador cautivador.
Estamos sesgados por nuestras creencias previas
Este obstáculo a la objetividad científica fue demostrado por un clásico estudio llevado a cabo en los 70, en el cual se les pedía a los participantes que evaluaran investigaciones científicas que apoyaran o fueran en contra de sus creencias previas.
Por ejemplo, uno de los estudios a ser evaluados mostraba que, supuestamente, las tasas de asesinato eran menores en los estados norteamericanos con pena de muerte; los participantes demostraron un sesgo obvio en sus evaluaciones. Es decir, si apoyaban la pena de muerte, tendían a evaluar el estudio más favorablemente; por otro lado, si estaban en contra de esta medida eran más propensos a ver las fallas del estudio.
Las habilidades científicas ofrecen poca protección contra este sesgo, e incluso pueden complicarlo. Un estudio realizado en el año 2013 les pidió a los participantes que evaluaran un artículo científico sobre control de armas. Los sujetos con mayores habilidades matemáticas estaban especialmente sesgados: si los descubrimientos apoyaban sus creencias previas, eran generosos en sus evaluaciones, pero si no lo hacían utilizaban sus habilidades para destrozarlos.
Nos seducen los gráficos, las fórmulas y las neurociencias sin sentido
Un estudio pronto a ser publicado lo muestra claramente (Ibrahim et al, 2017): se les pidió a los individuos que consideraran una noticia sobre una correlación entre alimentos genéticamente modificados que era consistente con un cuerpo robusto de investigaciones que mostraba que eran seguros o que, por el contrario, habían observado lo opuesto, es decir que eran dañinos para la salud (e iban en contra de la mayor parte de la evidencia). Sumado a esto, la noticia estaba acompañada (o no) por un gráfico de dispersión sobre los nuevos resultados. Cuando las noticias tenían el gráfico de la evidencia, que era inconsistente con los estudios previos (por ejemplo, mostraba alguna posibilidad de que fueran dañinos), los participantes eran más propensos a interpretar que la nueva evidencia mostraba que eran dañinos, comparados con los que lo leyeron sin gráfico.
Esto que es muy preocupante porque muestra que los datos nuevos nos convencen con tal facilidad, que ni siquiera consideramos sus méritos científicos.
Investigaciones similares a esta han observado que los lectores se ven seducidos por la jerga y fórmulas neurocientíficas superficiales.
Ser un investigador experimentado o una persona inteligente no es suficiente
Ser un investigador experto no te salva de las debilidades humanas que socavan el pensamiento científico. Sus facultades críticas se ven contaminadas por sus propios planes, por el motivo último de hacer sus experimentos.
Por eso es importante la revolución científica abierta que ocurre en la psicología: al presentar métodos e hipótesis transparentes y pre-registrar sus estudios, se reducen las posibilidades de que se desvíen o corrompan por el sesgo de confirmación.
Shah y sus colegas señalan que las habilidades cognitivas (CI) no son un buen predictor de las habilidades del sujeto para pensar como científico. Es más relevante la actitud mental y su motivación o capacidad para anular el instinto, lo que podría ser bueno porque éstas pueden entrenarse.
En resumen
Nuestras emociones y creencias siempre van a afectar la forma en que percibimos y entendemos el mundo, no es posible ser totalmente objetivos y racionales. Es lo que nos hace humanos. La idea de este artículo es que puedas discernir el efecto que esto tiene en nuestros nuestras interpretaciones y tomar mejores decisiones.
Fuente: Research Digest