"Una sociedad que antepone la igualdad -en el sentido de igualdad de resultados- a la libertad, acabará sin igualdad y sin libertad. El uso de la fuerza para lograr la igualdad destruirá la libertad, y la fuerza, introducida con buenos propósitos, acabará en manos de personas que la utilizan para promover sus propios intereses.”
-Milton Friedman
“La ciencia está convencida de que debe buscar la verdad, la religión está convencida de que ya la tiene”.
- Jorge Wagensberg
"De todas las tiranías, una tiranía ejercida sinceramente por el bien de sus víctimas puede ser la más opresiva. Sería mejor vivir bajo barones ladrones que bajo omnipotentes entrometidos morales…La crueldad del barón ladrón puede a veces dormir, su avidez puede en algún momento ser saciada; pero los que nos atormentan por nuestro propio bien nos atormentarán sin fin, pues lo hacen con la aprobación de su propia conciencia.”
-C.S.Lewis
Aprovecho un interesante artículo de Joseph Bernstein para abordar uno de los temas más importantes de nuestro tiempo, aunque en el fondo se trata de una variante del eterno dilema entre libertad y seguridad. El artículo de Bernstein se titula “Vendiendo la Historia de la Desinformación” y en esencia viene a decir que la desinformación y la mala información (la Big Disinfo, como la llama) se están vendiendo como un grave problema y que hay que hacer algo al respecto en la forma de censura y de control. A lo largo del texto se mencionan distintas alternativas que se han propuesto como solución para este problema. El Instituto Aspen ha creado, por ejemplo, la Comisión sobre el Trastorno de la Información, para ayudar al gobierno, al sector privado y a la sociedad a responder a la moderna crisis de fe en las instituciones. La Big Tech (Youtube, Facebook, Twiter, etc) están controlando lo que se puede decir en ellas sobre diferentes temas (lo relacionado con la covid, ideología de género, etc.) y han proliferado los fact-chequers. La web de noticias Recode ha informado de una iniciativa llamada el Proyecto para la Buena Información. Otros ejemplos serían la petición en febrero en un artículo del New York Times se pedía el nombramiento de un “zar de la realidad” y en diferentes ámbitos institucionales se han pedido “Ministerios de la Verdad” que controlen la información que se difunde.
A lo largo del artículo, Bernstein defiende que la amenaza real de la desinformación no es tan grande como nos quieren hacer creer y aporta algunos datos sobre el hecho de que la eficacia de los anuncios o de la propaganda no es tan cierta como nos lo pintan. Por ejemplo, un estudio de 2019 de miles de usuarios de Facebook encontró que compartir noticias falsas era una rara actividad y más del 90% de los usuarios no lo hace. Ya hemos hablado en el blog de que no somos tan crédulos como se piensa a propósito de la obra de Hugo Mercier -que defiende esa postura con datos en artículos y libros- y ahí tenéis más datos al respecto.
Igual que el tabaco causa cáncer, los promotores de la amenaza que supone la desinformación establecen la relación causal de que consumir mala información genera falsas creencias y al final también cuesta vidas. Biden dijo, por ejemplo, que la desinformación sobre la Covid en Facebook mata gente, pero esto esta lejos de haber sido demostrado. La Big Tech ha dado un giro en este terreno y está de acuerdo con Biden. En 2016 Mark Zuckerberg dijo que era una idea loca pensar que malos contenidos de Facebook hubieran persuadido a un número suficiente de votantes de cambiar su voto en las elecciones a la presidencia de 2016. Dijo: "Hay una profunda falta de empatía al afirmar que la única razón por la que alguien pudo votar como lo hizo es porque vio noticias falsas". Un año más tarde, repentinamente escarmentado, se disculpó por ser simplista y se comprometió a hacer su parte para frustrar a los que "difunden información errónea”.
Sin embargo, es muy difícil establecer esa relación causal. Sólo ciertos tipos de personas responden a ciertos tipos de propaganda en ciertas situaciones. Ciertas personas buscan determinada información porque ya tienen unas creencias previas y no al revés. Es verdad que han pasado cosas sorprendentes o inexplicables en su momento en los últimos años, como la victoria de Trump o el Brexit, y se detecta una pérdida de confianza en las instituciones en los países occidentales, pero la causa de todo ello está lejos de ser evidente. Una solución a esa ignorancia es echar la culpa a las redes sociales con lo que tenemos un fácil modelo de causa efecto que nos tranquiliza. Como decía H.L. Mencken, para todo problema complejo hay una solución clara, simple y equivocada y solemos preferir una mala explicación a reconocer que no sabemos y habitar en la incertidumbre.
Imaginemos que fuera verdad algo como que si la gente oye al presidente Trump decir que beber lejía es bueno para combatir la Covid la gente va a ser tan ingenua como para ponerse a beberla. De entrada, esto no es cierto porque, como dice Mercier, desde un punto evolucionista, que fuéramos tan crédulos e influenciables no tiene lógica y disponemos de unos mecanismos que se llaman de vigilancia epistémica. La credulidad implica costes graves para el receptor, porque acepta una información errónea o engañosa contraria a sus intereses y en la medida en que la comunicación es adaptativa, los humanos no deberían ser crédulos por defecto.
Pero, como decía, imaginemos que realmente esto pudiera ocurrir. Pues entonces tenemos un grave problema, si nuestras sociedades producen individuos que pueden creer estas cosas, no me parece que la solución sea crear un Ministerio de la Verdad que vigile que nadie diga que beber lejía cura la Covid. Parece más lógico producir de entrada unos individuos que no tuvieran la vulnerabilidad de creer cualquier cosa que se les diga.
Hemos estado oyendo mucho durante esta pandemia que hay que seguir la ciencia. Pero la ciencia no son unos resultados, creencias o afirmaciones concretas. La ciencia es un proceso por el que se hacen hipótesis, se realizan experimentos y se comprueba si los datos respaldan las hipótesis o teorías. Lo que tenemos que defender y mimar no son unas determinadas creencias que los científicos o la sociedad tengan en un momento dado. Lo que tenemos que cuidar es el proceso de crítica y de comprobación ya que nunca podemos estar seguros de conocer la verdad y de tener la última palabra. Si matamos el proceso, dependeremos siempre de una autoridad que nos diga cuáles son las verdades finales. Pero esos censores ¿cómo van a saber cuál es la verdad? ¿por ciencia infusa? ¿Cómo van a llegar a ellas si ya no disponemos del proceso que produce el conocimiento? Estaríamos en el terreno de la religión y no en el de la ciencia. Prohibir la expresión de opiniones sería perfectamente lógico si ya supiéramos cuál es la verdad pero la historia nos demuestra que muchas cosas que creíamos ciertas eran totalmente erróneas y hemos tenido que actualizar constantemente nuestros conocimientos. Por tanto, nadie tiene un poder especial para decidir lo que es verdad o lo que es mentira.
Como decíamos en el comentario del libro Kindly Inquisitors, suprimir los errores tiene más riesgos y peligros que no suprimirlos, básicamente porque para llevarlo a cabo hay que crear una autoridad que dice lo que es verdad y lo que no lo es. Una vez creada esa autoridad, lo falso será cualquier cosa que las autoridades no quieren oír. Un chiste sobre la URSS decía que en la URSS por supuesto que había libertad de expresión, lo único que ocurría es que no se permitía decir mentiras… Henry Ford cuando sacó el Ford T, el primer modelo fabricado en una cadena de montaje, sólo lo fabricaba en color negro y la publicidad decía: “puede usted escogerlo en cualquier color siempre que sea negro”. ¿Queremos ir a un mundo donde podamos decir cualquier cosa siempre que sea los que nos deja decir Facebook o el gobierno? Es verdad que las noticias falsas son un problema pero si creamos una institución que tenga el enorme poder necesario para controlarlas igual lo que estamos haciendo es saltar de la sartén al fuego. Como suele decirse, a veces es peor el remedio que la enfermedad.
@pitiklinov