Tabla de contenido:

No veré hasta que crea: ¿Cómo aprender a cambiar tu punto de vista?
No veré hasta que crea: ¿Cómo aprender a cambiar tu punto de vista?

Video: No veré hasta que crea: ¿Cómo aprender a cambiar tu punto de vista?

Video: No veré hasta que crea: ¿Cómo aprender a cambiar tu punto de vista?
Video: Está EMBARAZADA de 9 MESES… ¿Dará a luz en el escenario? | Audiciones 5 | Got Talent España 5 (2019) 2024, Mayo
Anonim

Constantemente distorsionamos la realidad a nuestro favor, muy pocas veces nos damos cuenta de esto y menos a menudo admitimos que nos equivocamos. Estas debilidades del pensamiento humano permiten que la propaganda y la publicidad funcionen, y en ellas se basa la manipulación de la opinión pública en las redes sociales. Somos especialmente malos para razonar sobre cosas relacionadas con nuestras creencias y fe. ¿Cómo "darse cuenta" de un error?

“Una vez que ha aceptado cualquier creencia, la mente humana comienza a atraerlo todo para fortalecerlo y confirmarlo. Incluso si esta creencia refuta más ejemplos de los que confirma, el intelecto o los pasa por alto o los considera insignificantes”, escribió el filósofo inglés Francis Bacon. Cualquiera que haya participado en debates en Internet sabe perfectamente lo que quiso decir.

Los psicólogos llevan mucho tiempo tratando de explicar por qué somos tan reacios a cambiar nuestro punto de vista. La conjetura de Bacon, avanzada hace casi cuatrocientos años, ahora está respaldada por cientos de estudios científicos. Y cuanto mejor comprendamos nuestras distorsiones mentales, más probabilidades tendremos de aprender a resistirlas.

No veré hasta que crea

Los límites de la irracionalidad humana solo pueden adivinarse. Cualquier estudiante de psicología puede usar un par de pruebas simples para demostrar que eres parcial y parcial. Y no estamos hablando de prejuicios ideológicos, sino de los mecanismos más básicos de nuestro pensamiento.

En 2018, científicos del Centro Universitario de Hamburgo-Eppendorf mostraron a los participantes en el experimento varios videos. Los participantes debían determinar en qué dirección se movían los puntos blancos en la pantalla negra. Dado que muchos de los puntos se movían erráticamente, no fue tan fácil hacer esto.

Los científicos notaron que después de tomar la primera decisión, los participantes se adhirieron inconscientemente a ella en el futuro. “Nuestras decisiones se convierten en un incentivo para tener en cuenta solo la información que está de acuerdo con ellas”, concluyen los investigadores

Este es un sesgo cognitivo bien conocido llamado sesgo de confirmación. Encontramos datos que apoyan nuestro punto de vista e ignoramos todo lo que lo contradice. En psicología, este efecto se documenta de manera colorida en una variedad de materiales.

En 1979, se pidió a los estudiantes de la Universidad de Texas que estudiaran dos trabajos académicos sobre la pena de muerte. Uno de ellos argumentó que la pena de muerte ayuda a reducir la delincuencia y el segundo refutó esta afirmación. Antes de comenzar el experimento, se preguntó a los participantes cómo se sentían acerca de la pena de muerte y luego se les pidió que calificaran la credibilidad de cada estudio.

En lugar de tener en cuenta los argumentos de las partes contrarias, los participantes solo reforzaron su opinión inicial. Quienes apoyaron la pena de muerte se convirtieron en partidarios fervientes, y quienes se opusieron a ella se convirtieron en oponentes aún más fervientes

En un experimento clásico de 1975, a los estudiantes de la Universidad de Stanford se les mostró un par de notas de suicidio a cada uno. Uno de ellos era ficticio y el otro fue escrito por un suicidio real. Los estudiantes tenían que diferenciar entre una nota real y una falsa.

Algunos de los participantes resultaron ser excelentes detectives: se ocuparon con éxito de 24 pares de 25. Otros mostraron total desesperanza e identificaron correctamente solo diez notas. De hecho, los científicos engañaron a los participantes: ambos grupos completaron la tarea aproximadamente de la misma manera.

En el segundo paso, se les dijo a los participantes que los resultados eran falsos y se les pidió que calificaran cuántas notas identificaron correctamente. Aquí es donde empezó la diversión. Los estudiantes del grupo de “buenos resultados” se sintieron seguros de que hicieron bien la tarea, mucho mejor que el estudiante promedio. Los estudiantes con “calificaciones bajas” continuaron creyendo que habían fracasado estrepitosamente.

Como señalan los investigadores, "una vez formadas, las impresiones permanecen notablemente estables". Nos negamos a cambiar nuestro punto de vista, incluso cuando resulta que no hay absolutamente ninguna base detrás de él.

La realidad es desagradable

La gente hace un muy mal trabajo al neutralizar hechos y sopesar argumentos. Incluso los juicios más racionales, de hecho, surgen bajo la influencia de deseos, necesidades y preferencias inconscientes. Los investigadores llaman a esto "pensamiento motivado". Hacemos todo lo posible para evitar la disonancia cognitiva, el conflicto entre las opiniones establecidas y la nueva información.

A mediados de la década de 1950, el psicólogo estadounidense Leon Festinger estudió una pequeña secta cuyos miembros creían en el inminente fin del mundo. La fecha del apocalipsis se predijo para un día específico, el 21 de diciembre de 1954. Desafortunadamente, el apocalipsis nunca llegó ese día. Algunos comenzaron a dudar de la verdad de la predicción, pero pronto recibieron un mensaje de Dios que decía: su grupo irradiaba tanta fe y bondad que salvó al mundo de la destrucción.

Después de este evento, el comportamiento de los miembros de la secta cambió drásticamente. Si antes no buscaban atraer la atención de los forasteros, ahora comenzaron a difundir activamente su fe. Según Festinger, el proselitismo se convirtió en una forma de eliminar la disonancia cognitiva. Esta fue una decisión inconsciente, pero a su manera lógica: después de todo, cuantas más personas puedan compartir nuestras creencias, más demostrará que tenemos razón.

Cuando vemos información que es consistente con nuestras creencias, sentimos una satisfacción genuina. Cuando vemos información que es contraria a nuestras creencias, la percibimos como una amenaza. Se activan los mecanismos de defensa fisiológicos, se suprime la capacidad de pensamiento racional

Es desagradable. Incluso estamos dispuestos a pagar para no enfrentarnos a opiniones que no encajen en nuestro sistema de creencias.

En 2017, científicos de la Universidad de Winnipeg preguntaron a 200 estadounidenses cómo se sentían sobre el matrimonio entre personas del mismo sexo. A quienes apreciaron esta idea se les ofreció el siguiente trato: responda 8 argumentos en contra del matrimonio entre personas del mismo sexo y obtenga 10 dólares, o responda 8 argumentos en apoyo del matrimonio entre personas del mismo sexo, pero obtenga solo 7 dólares por ello. A los opositores al matrimonio entre personas del mismo sexo se les ofreció el mismo trato, solo que en términos opuestos.

En ambos grupos, casi dos tercios de los participantes acordaron recibir menos dinero para no enfrentar la posición contraria. Al parecer, tres dólares todavía no son suficientes para superar una profunda desgana a escuchar a quienes no están de acuerdo con nosotros.

Por supuesto, no siempre actuamos tan tercos. A veces estamos dispuestos a cambiar de opinión de forma rápida y sin dolor sobre algún tema, pero solo si lo tratamos con un grado suficiente de indiferencia

En un experimento de 2016, los científicos de la Universidad del Sur de California ofrecieron a los participantes varias declaraciones neutrales, por ejemplo, "Thomas Edison inventó la bombilla". Casi todo el mundo estuvo de acuerdo con esto, refiriéndose al conocimiento escolar. Luego se les presentó evidencia que contradecía la primera afirmación, por ejemplo, que hubo otros inventores de iluminación eléctrica antes de Edison (estos hechos eran falsos). Ante la nueva información, casi todos cambiaron su opinión original.

En la segunda parte del experimento, los investigadores ofrecieron a los participantes declaraciones políticas: por ejemplo, "Estados Unidos debería limitar su gasto militar". Esta vez, su reacción fue completamente diferente: los participantes reforzaron sus creencias originales en lugar de cuestionarlas.

“En la parte política del estudio, vimos mucha actividad en la amígdala y la corteza de los islotes. Estas son las partes del cerebro que están fuertemente asociadas con las emociones, los sentimientos y el ego. La identidad es un concepto deliberadamente político, por lo tanto, cuando a las personas les parece que su identidad está siendo atacada o cuestionada, se extravían”, resumen los investigadores.

Las opiniones que se han convertido en parte de nuestro "yo" son muy difíciles de cambiar o refutar. Cualquier cosa que los contradiga, lo ignoramos o negamos. La negación es un mecanismo de defensa psicológico básico en situaciones de estrés y ansiedad que ponen en duda nuestra identidad. Es un mecanismo bastante simple: Freud lo atribuyó a los niños. Pero a veces obra milagros.

En 1974, el subteniente del ejército japonés Hiroo Onoda se rindió a las autoridades filipinas. Se escondió en la jungla de la isla de Lubang durante casi 30 años, negándose a creer que la Segunda Guerra Mundial había terminado y los japoneses fueron derrotados. Creía que estaba librando una guerra de guerrillas detrás de las líneas enemigas, aunque en realidad solo luchó con la policía filipina y los campesinos locales.

Hiroo escuchó mensajes en la radio sobre la rendición del gobierno japonés, los Juegos Olímpicos de Tokio y un milagro económico, pero consideró que todo era propaganda enemiga. Admitió su error solo cuando llegó a la isla una delegación encabezada por el ex comandante, quien hace 30 años le dio la orden de "no rendirse y no suicidarse". Después de que se canceló la orden, Hiroo regresó a Japón, donde fue recibido casi como un héroe nacional.

Dar a las personas información que contradice sus creencias, especialmente aquellas que están cargadas de emociones, es bastante ineficaz. Las anti-vacunas creen que las vacunas causan autismo, no solo por falta de educación. La creencia de que conocen la causa de la enfermedad les da una parte considerable de consuelo psicológico: si las codiciosas corporaciones farmacéuticas tienen la culpa de todo, al menos está claro con quién enfadarse. La evidencia científica no ofrece tales respuestas

Esto no significa, por supuesto, que tengamos que justificar prejuicios infundados y peligrosos. Pero los métodos que usamos para combatirlos a menudo producen resultados opuestos.

Si los hechos no ayudan, ¿qué puede ayudar?

Cómo persuadir sin hechos

En El enigma de la mente, los psicólogos cognitivos Hugo Mercier y Dan Sperber intentaron responder a la pregunta de cuál es la causa de nuestra irracionalidad. En su opinión, la principal tarea que nuestra mente ha aprendido a resolver en el transcurso de la evolución es la vida en un grupo social. Necesitábamos razón para no buscar la verdad, sino para no perder la cara frente a nuestros compañeros de tribu. Nos interesa más la opinión del grupo al que pertenecemos, que el conocimiento objetivo.

Si una persona siente que algo amenaza su personalidad, rara vez puede tener en cuenta el punto de vista de otra persona. Ésta es una de las razones por las que las discusiones con oponentes políticos suelen ser inútiles

“Las personas que intentan demostrar algo no pueden apreciar los argumentos de otra persona, porque los consideran un ataque contra su imagen del mundo de antemano”, dicen los investigadores.

Pero incluso si estamos programados biológicamente para ser conformistas de mente estrecha, esto no significa que estemos condenados.

“Es posible que la gente no quiera cambiar, pero nosotros tenemos la capacidad de cambiar, y el hecho de que muchos de nuestros delirios y puntos ciegos de defensa propia estén integrados en la forma en que funciona nuestro cerebro no es una excusa para dejar de intentar cambiar. Genial - el cerebro también nos empuja a comer mucha azúcar, pero después de todo, la mayoría de nosotros hemos aprendido a comer verduras con apetito, no solo pasteles.¿Está el cerebro diseñado para que tengamos un destello de ira cuando nos ataquen? Genial, pero la mayoría de nosotros hemos aprendido a contar hasta diez y luego encontrar alternativas a la simple decisión de atacar al otro jugador con el palo.

- del libro de Carol Tevris y Elliot Aronson "Los errores que cometí (pero no yo)"

Internet nos dio acceso a grandes cantidades de información, pero al mismo tiempo nos permitió filtrar esta información para que confirme nuestro punto de vista. Las redes sociales han conectado a personas de todo el mundo, pero al mismo tiempo han creado burbujas de filtro que nos apartan discretamente de las opiniones que no aceptamos.

En lugar de dar la vuelta a los argumentos y defender obstinadamente nuestras opiniones, es mejor tratar de comprender cómo llegamos a esta o aquella conclusión. Quizás todos deberíamos aprender a conducir diálogos según el método socrático. La tarea del diálogo socrático no es ganar en una discusión, sino reflexionar sobre la confiabilidad de los métodos que usamos para crear nuestra imagen de la realidad.

Es poco probable que los errores cognitivos encontrados por los psicólogos se apliquen solo a los estudiantes de Stanford. Todos somos irracionales y hay algunas razones para ello. Nos esforzamos por evitar la disonancia cognitiva, exhibimos sesgos de confirmación, negamos nuestros propios errores, pero somos muy críticos con los errores de los demás. En la era de los "hechos alternativos" y las guerras de información, es muy importante recordar esto

Quizás la verdad se pueda descubrir en un diálogo, pero primero debes entrar en este diálogo. El conocimiento sobre los mecanismos que distorsionan nuestro pensamiento debe aplicarse no solo a los oponentes, sino también a nosotros mismos. Si el pensamiento "ajá, aquí todo corresponde plenamente a mis convicciones, por lo tanto es cierto", te llega, es mejor no alegrarte, sino buscar información que ponga en duda tu conclusión.

Recomendado: