miércoles, 29 de junio de 2016

Joanna Moncrieff y los psicofármacos

Esta entrada es un comentario del libro de Joanna Moncrieff Hablando claro. Una introducción a los fármacos psiquiátricos, de la Editorial Herder. Joanna Moncrieff es una psiquiatra británica fundadora y copresidente de Critical Psychiatry Network, una agrupación de psiquiatras opuesta al modelo biologista y al ejercicio de la coacción sobre el paciente. Es, por tanto, una de las voces críticas con la psiquiatría del panorama actual.

Comparando con las críticas de Gøtzsche a los psicofármacos hay que decir que la crítica de Moncrieff tiene mucho más fundamento. En general, en cada uno de los apartados que revisa acepta el uso de los psicofármacos en las fases agudas y en los casos graves (lo cual es un progreso respecto a que hay que tirar todos los psicofármacos al mar). A lo que está más opuesta es al uso de los psicofármacos de forma crónica, luego hablaré de ello. Por otro lado también acepta que existen trastornos mentales y que son graves, dice por ejemplo del Trastorno Bipolar: “el trastorno maníaco-depresivo es una condición terrible que puede hacer naufragar la vida familiar de las personas que lo padecen, llevarles a perder su trabajo y dejarlas con deudas ruinosas y otros graves problemas”. Esto también es un progreso con respecto a Gøtzsche en cuanto significa reconocer la existencia y gravedad del sufrimiento mental.

El eje del libro de Moncrieff y de su pensamiento es la distinción entre el modelo centrado en la enfermedad (que sería el de la psiquiatría ortodoxa) y el modelo centrado en el fármaco, que es el que defiende ella (y tiene toda la razón). El modelo centrado en la enfermedad supone que existe un proceso anormal en el cerebro y que los efectos beneficiosos de los fármacos se derivan de sus efectos sobre ese presunto proceso de la enfermedad (por ejemplo, una supuesta deficiencia de serotonina en la depresión). El modelo centrado en el fármaco, que defiende Moncrieff, plantea que los fármacos producen un estado alterado en el cerebro, un estado de intoxicación, y puede resultar que los efectos inducidos por el fármaco pueden venir bien a una persona que tiene un problema psiquiátrico. Un ejemplo que pone siempre Moncrieff es el del alcohol en la ansiedad social: el alcohol es usado por personas con fobia social porque les desinhibe para poder hablar y relacionarse mejor pero nadie diría que el alcohol es un “tratamiento” de la fobia social. Estoy totalmente de acuerdo con este planteamiento que hace Moncrieff pero voy a decir varias cosas sobre él porque no extraigo a partir de él las mismas conclusiones que deriva Moncrieff:

1- Esta idea no es una idea que se le haya ocurrido a Moncrieff y ella misma reconocen que era la idea que había en la Psiquiatría al principio de la era de la psicofarmacología. La mayoría de los descubrimientos en Psicofarmacología se produjeron por serendipia en los años 50 y 60 del siglo pasado. Ninguno de los primeros psicofármacos se descubrieron o se empezaron a utilizar para lo que se utilizarían luego y los descubrimientos los hicieron clínicos, no directamente las farmacéuticas. La clorpromacina se usó como potenciador de anestesia general y fue un cirujano, Laborit el que observó que producía tranquilización manteniendo una conciencia clara y pensó que podría usarse en psiquiatría. Los primeros IMAOS, la isoniacida, eran antituberculosos y se observó que mejoraban el ánimo. Y otro caso es el descubrimiento de la imipramina por Kuhn. Kuhn buscaba un neuroléptico (lo de llamarlos antipsicóticos es muy posterior) y vio que mejoraba el ánimo. Pero el laboratorio propietario de la molécula, Geigy, no veía mercado para un “antidepresivo”. Entonces en Europa se pensaba que la depresión era algo psicológico, la reacción a una pérdida de algún tipo, y no se pensaba que una medicación pudiera mejorarla. Que se llegara a comercializar la imipramina fue por una casualidad. Robert Boehringer, que era un accionista importante de Geigy había oído de la molécula y su mujer sufría depresión y pidió utilizarla en ella. Cuando su mujer mejoró presionó a Geigy para que siguiera desarrollando la molécula y lo comercializara. Lo que quiero señalar es que los psicofármacos se empezaron a utilizar, y se utilizan, por sus efectos como fármacos y no en base a teorías sobre su mecanismo de acción en enfermedades. Luego diré algo más sobre la creación de las enfermedades, proceso que no se debe exclusivamente a la Big Pharma.

2- Lo que Moncrieff critica en la Psiquiatría ocurre exactamente igual en toda la Medicina. Como dice Jorge L Tizón en la introducción del libro de Moncrieff: “en la medicina actual, en realidad son pocos los fármacos que actúan sobre la etiología de una enfermedad, sobre su causa última. En primer lugar, porque esta a menudo no es una causa única, sino una composición compleja de factores de riesgo y vulnerabilidades, muchos de ellos inaccesibles al fármaco, más aún cuando la enfermedad ya se ha declarado. En segundo lugar, porque la mayor parte de los fármacos actúan tan sólo revirtiendo total o parcialmente un segmento del proceso patobiológico que produce los síntomas de la enfermedad, no sus causas “últimas”. Efectivamente, si exceptuamos los antibióticos no hay probablemente en medicina ningún tratamiento de la causa última. Cuando yo uso un diurético en la hipertensión estoy actuando de forma inespecífica, exactamente igual que cuando uso un ansiolítico en un trastorno de ansiedad.

3- Lo que Moncrieff critica en la Psiquiatría ocurre exactamente igual con la Psicoterapia. Las psicoterapias no actúan tampoco curando ningún “proceso psicológico anormal” específico o último de cada problema en el que se emplean. Cuando se propone la terapia cognitiva como tratamiento en las psicosis no es porque solucione la “causa psicológica última” de las psicosis ya que no existe tal cosa. La psicoterapia se utiliza, igual que los diuréticos, como una tratamiento inespecífico, pero eso no parece importarle a nadie y sólo se critica este hecho cuando hablamos de psicofármacos.

4- Por último, creo que la diferenciación que hace Moncrieff no afecta a la clínica. Voy a poner un ejemplo. Pongamos una mujer que ha sufrido una ruptura de pareja y no supera el trauma. Está acudiendo a una psicóloga pero no mejora. Han pasado meses y no deja de pensar en ello y ha tenido que renunciar incluso a una oferta de trabajo porque no se encuentra en condiciones de trabajar. Entonces acude a la consulta del psiquiatra. Pues el psiquiatra puede usar perfectamente el modelo centrado en el fármaco para ayudarla. Los antidepresivos, además de su efecto sobre el ánimo, tienen un efecto que podemos llamar “antiobsesivo” de “inducir pasotismo” o de “desconexion emocional”. Este efecto consiste en que si una persona está preocupada o dando vueltas a un asunto el fármaco ayuda a quitar esa preocupación del primer plano mental, a que no tenga tanta repercusión afectiva y en definitiva a que la persona pueda seguir con su vida. El psiquiatra puede explicar este efecto a la mujer y ésta puede decidir ensayar la medicación durante 6-8 semanas para ver si le resulta de utilidad. No hay ningún conflicto entre el modelo de Moncrieff, que ya digo que es básicamente correcto, y la utilización de los psicofármacos. 

Vuelvo ahora al tema de los tratamientos a largo plazo sobre los que Moncrieff es muy escéptica, y también con razón, porque los psicofármacos tienen efectos secundarios, graves algunas veces. Quiero decir algo simplemente para que se entienda la complejidad del problema. En el tratamiento de las depresiones, por ejemplo, se recomienda una duración del tratamiento mínima de 6 meses. Este criterio cambia según el número de episodios depresivos previos. Si la persona ha sufrido depresiones previas la duración del tratamiento se alarga. Bien, la postura de los pacientes, y de los psiquiatras aunque se crea lo contrario, es utilizar la medicación el menor tiempo posible, pero esto hay que individualizarlo según el tipo de depresiones que sufre la personas y según sus deseos. El problema es que si una persona sufre un nuevo episodio depresivo las consecuencias pueden ser muy graves. Jonathan Rottenberg cuenta en su libro The Depths cómo una depresión le robó 4 años de su vida; en casos más desafortunados la depresión puede acabar con la vida del paciente. Si tuviéramos buenos antidepresivos y eficaces al 100% podríamos esperar y tratar la depresión cuando aparezca, lo mismo que tratamos una infección urinaria cuando se presenta. Así que siempre es una decisión difícil hacer un balance entre los pros y los contras de la medicación y la decisión puede ser diferente en cada caso. Evidentemente es una decisión que corresponde básicamente al paciente y su familia, aconsejados por el psiquiatra.

En el caso de las psicosis y del Trastorno Bipolar ocurre lo mismo. Como reconoce Moncrieff, en la cita que he puesto más arriba, un nuevo episodio maniaco puede suponer la ruptura del matrimonio o acabar en la ruina. Así que se trata de hacer una valoración muy difícil entre ventajas e inconvenientes. Para acabar este apartado comento algo sobre las psicosis y la esquizofrenia. En este trastorno una recaída puede tener consecuencias demoledoras a nivel social y familiar, como en el Trastorno Bipolar, pero aquí se añade el problema de que una nueva recaída puede suponer un deterioro tal vez definitivo de la propia enfermedad. La mayoría de las veces los primeros episodios psicóticos revierten fácilmente con muy poca medicación y la persona vuelve a ser la que era y a llevar una vida normal. Pero cuando estas psicosis evolucionan a una esquizofrenia ocurre muchas veces que tras un nuevo episodio psicótico la persona no recupera su nivel de funcionamiento previo y es incapaz de estudiar, trabajar o llevar una vida normal. Aparece lo que se llama sintomatología defectual o negativa, un deterioro de funciones psicológicas, y esta sintomatología puede ser crónica o durar mucho tiempo. Por lo tanto, la decisión de evitar medicación y esperar a ver si aparecen nuevos episodios psicóticos puede conllevar un riesgo muy alto. 

Moncrieff señala que probablemente un 30-40% de psicosis pueden tratarse sin fármacos y evolucionan bien. Esto es algo que sabemos los psiquiatras desde el primer año de carrera. Antiguamente se hablaba de la regla de los tres tercios: un tercio de las psicosis se curan, un tercio se hacen crónicas y un tercio lleva un curso intermitente con fases de mejoría y empeoramiento. En líneas generales esta regla sigue siendo válida hoy en día. Así que Moncrieff tiene razón, el problema es que no sabemos qué pacientes son quién, es decir, qué pacientes son los que van a estar en cada uno de estos tercios. Si lo superamos podríamos tomar decisiones más individualizadas. 

Me gustaría señalar una cosa con respecto a  la esquizofrenia, porque suele olvidarse. Se suele olvidar la parte negativa, defectual, o de deterioro de la esquizofrenia y se suele decir que la esquizofrenia es una psicosis, dando mucha importancia a la presencia de alucinaciones y delirios.  Sin embargo, Kraepelin la llamó “demencia precoz” y las que se consideran las primeras descripciones de la esquizofrenia (las de Haslam y Pinel de 1809) también enfatizan la demencia en edad juvenil como lo característico de la esquizofrenia. En mi opinión, y esto es mi criterio personal, creo que la  esquizofrenia es una enfermedad cerebral que en algunos momentos de su evolución cursa con psicosis.

Quería señalar algunas cosas sobre la visión de Moncrieff de los medicamentos y de la enfermedad mental. Con respecto a la enfermedad mental parece, porque dice cosas algo contradictorias a veces, que Moncrieff acepta en el fondo la posibilidad de que los trastornos mentales puedan ser debidos a anomalías cerebrales. En la página 162 dice algo que sugiere que esto no es así: “el meollo de esta forma de pensar (la ortodoxa centradas en la enfermedad) es la idea de que el “sufriente” tiene una enfermedad, o una clase de anomalía biológica, que sólo puede ser descrita debidamente mediante una indagación científica”. Pero en la página 168: Entender la actividad de los fármacos psiquiátricos según un modelo centrado en el fármaco no contradice la idea de que las condiciones psiquiátricas pueden ser causadas por anormalidades cerebrales o desequilibrios químicos”…”el modelo centrado en el fármaco no implica que los trastornos psiquiátricos sean del todo independientes de las contingencias cerebrales. Por supuesto que la conducta de las personas está reflejada en la química de sus cerebros. Tampoco implica que no haya alteraciones sutiles en los cerebros de algunas personas que requieran cuidados psiquiátricos. De hecho, el modelo centrado en el fármaco es del todo compatible con la perspectiva de que los trastornos mentales puedan ser enfermedades del cerebro”…”Hoy por hoy, todo lo que el modelo centrado en el fármaco plantea es que los medicamentos  que tenemos en la actualidad no parecen actuar revirtiendo un efecto biológico”.

Deduzco de ello y de lo que dice a continuación en la página  siguiente que sí acepta un origen cerebral de las enfermedades mentales pero que no está demostrado y que no puede basarse exclusivamente en que los medicamentos actuales solucionan una causa o proceso subyacente de enfermedad. Si es así, estoy de acuerdo con ella. 

Sobre los medicamentos es ilustrativo este párrafo:

“Un importante aspecto que hay que señalar aquí es que la experiencia de estar bajo la influencia de un fármaco es algo totalmente diferente a nuestras emociones y experiencias normales. Los fármacos no provocan verdadera felicidad, tristeza, confianza, orgullo o envidia, por ejemplo. Algunas personas han hablado de fármacos , como el Prozac, como si fueran medicamentos para cierto estilo de vida, o “fármacos inteligentes” que pueden hacer a la gente normal más feliz, más segur de sí misma y que obtenga más éxito. Pero no hay razón alguna para creer que los fármacos puedan hacer algo tan sofisticado como eso”

Siento decirle a Moncrieff que esto tan sofisticado es lo que nos dicen precisamente que les ocurre algunos pacientes (no todos por supuesto) que toman antidepresivos: que se sienten más  seguros de sí mismos y más confiados, que se sienten mejor consigo mismos que estando rumiando y anticipando peligros todo el día. Creo que aquí Moncrieff deja traslucir un dualismo mente/cuerpo según el que lo biológico no puede afectar a lo mental.  Asímismo, merece la pena señalar que estar bajo la influencia de un trastorno mental también es algo totalmente diferente a nuestras emociones y experiencia normales y no es nada agradable la mayoría de las veces. El problema es elegir entre ambas cosas. Esto lo refleja muy bien en este pasaje:

“Los efectos útiles de los fármacos surgen y son parte de un estado inducido por el medicamento, un estado de intoxicación, que no es el estado normal del cuerpo. Tomar drogas psiquiátricas es como entorpecer o suprimir aspectos de nuestra vida mental o emocional. La cuestión es si esta discapacidad es preferible al sufrimiento psiquiátrico que está siendo experimentado. Algunas veces el sufrimiento es tan severo que un nivel de supresión inducido pro el fármaco será bienvenido y aliviará. En otras situaciones los efectos de los fármacos pueden ser tan desagradables que algunas personas preferirán continuar en una estado mental turbulento”.

Para concluir, quería decir algo sobre la idea de Moncrieff de que los responsables de que se adoptara en la Psiquiatría el modelo centrado en la enfermedad, en lugar del inicial modelo centrado en el fármaco, son los laboratorios farmacéuticos, la Big Pharma. Hay que decir que esto es verdad pero que no es toda la verdad. Como casi siempre en la vida, las cosas suelen ser más complicadas. Para empezar, como ya he dicho más arriba, los descubrimientos de los psicofárnacos los realizaron clínicos y la Big Pharma se sube al vagón con posterioridad, en algunos casos a regañadientes, como ilustra el caso de Kuhn y la imipramina. Claro que la Big Pharma intenta por todos los medios aumentar su mercado y convencernos de que tomemos sus medicamentos, pero la Big Pharma no es todopoderosa y se inventa las cosas de la nada. 

Una explicación del tránsito a una visión más centrada en la enfermedad la tiene la FDA. Como señala David Healy, otro psiquiatra crítico nada sospechoso de defender a la Big Pharma, en 1962 la FDA, por medio de la llamada enmienda Kefauver-Harris ( Kefauver-Harris amendments), realizó los cambios probablemente más importantes de su historia. Esto ocurrió a raíz de los efectos teratogénicos de la talidomida (en Europa porque la FDA no la aprobó gracias a Frances Kelsey) y las principales decisiones fueron que para aprobar un medicamento los laboratorios debían demostrar tanto su eficacia como su seguridad. Previamente a esta legislación, los laboratorios registraban el nuevo medicamento para lo que fuera y en 60 días el medicamento salía al mercado si la FDA no objetaba. La demostración de la eficacia se concretó en la realización de ensayos clínicos aleatorizados y controlados y esto llevó a que los fármacos se estudiaran y promocionaran para enfermedades concretas. Según Healy, esto impulsó el que es en el fondo el sistema actual donde los medicamentos se aprueban para enfermedades o indicaciones concretas.

La Big Pharma nos ha intentado vender medicamentos para muchas cosas y unas veces lo ha conseguido y otras no. Nos ha querido vender la depresión, los ataques de pánico pero también  “la timidez”, el “trastorno de compra compulsiva”, el trastorno obsesivo compulsivo, y en los últimos años el trastorno bipolar. Y  algunas cosas se las hemos comprado y otras no. Y lo que ha ocurrido recientemente es que la Big Pharma se ha ido de la Psiquiatria, ha abandonado la Psiquiatría porque no ve manera de sacar nuevos psicofármacos. Si fuera tan poderosa seguiría inventando enfermedades y medicamentos y vendiéndolos como gominolas pero, de momento, parece que se les ha acabado su poder en el campo de la Psiquiatría (y de la neurología que no está mucho mejor). Si, por ejemplo, tenemos una epidemia de “depresión” (sea esto lo que sea, enfermedad o no) quizás tenemos que mirar a nuestra sociedad y a nuestro estilo de vida para ver de donde salen todas esas personas que llenan las consultas de los psiquiatras y psicólogos en vez de mirar sólo al mismo malo de la película de siempre, la Big Pharma. Y que conste que este malo es malo, muy malo, malo de verdad, pero dividir el mundo en malos y buenos está muy bien para las películas de Hollywood pero es bastante simplista si lo que queremos es entender la realidad.

@pitiklinov

Referencia:







martes, 21 de junio de 2016

Psicología evolucionista del Orgullo

Figura1
Aunque el orgullo ha ocupado un lugar central en las discusiones filosóficas y religiosas, la psicología no le ha hecho mucho caso. A lo largo de la historia esta emoción ha sido considerada principalmente como algo negativo. San Agustín y Santo Tomás de Aquino consideraban el orgullo como el peor de los pecados, para Dante era el más mortal de los siete pecados mortales y también otras religiones no judeocristianas como el budismo o el filósofo chino Lao Tse lo condenan.

Sin embargo, la mayoría de tradiciones diferencian entre dos tipos de orgullo: un orgullo virtuoso donde la persona reclama lo que se merece y otro orgullo donde la persona reclama algo que está más allá de lo que se merece y que se ve como vanidad. Algunos idiomas tienen incluso palabras diferentes para estos dos tipos de orgullo pero en otros mucho idiomas se utiliza la misma palabra para los dos. Es curioso que muchas de las palabras indicadas para designar el orgullo son términos como “hincharse” uno mismo o “agrandarse” que tienen que ver con la expresión de esta emoción , como enseguida veremos.

Aunque Darwin incluyó el orgullo en su estudio de las emociones de 1872, éste no consiguió posteriormente ser incluido en la lista de emociones básicas. Se considera una emoción secundaria, de las que requiere una autoconciencia, como la vergüenza o la culpa, y no ha sido hasta la última década en que se ha empezado a apreciar que el orgullo es una emoción importante y evolutivamente adaptativa que cumple importantes funciones sociales. En esta entrada, siguiendo el esquema de Jessica Tracy y cols. vamos a utilizar el enfoque de Tinbergen y sus famosas cuatro preguntas para estudiar este fenómeno mental a varios niveles:1) su funcionamiento en tiempo real, sus causas proximales 2) la ontogenia, es decir, cómo se desarrolla en el individuo 3) su función, la causa evolucionista o distal de su existencia 4) su filogenia, cómo ha evolucionado en las especies 5) su base neurobiológica:

1- El Orgullo en tiempo real, su visión proximal

Como ya hemos comentado, muchos autores coinciden en que hay más de un orgullo, principalmente lo que se llama un orgullo “auténtico” y un orgullo “hubrístico” (podéis leer sobre el origen de este palabro tan raro y su relación con el poder aquí o aquí). Cuando hablamos del orgullo natural o sano usamos palabras como tener confianza o seguridad en uno mismo, ser experto o estar formado en algo, etc. Cuando hablamos del orgullo hubrístico hablamos de arrogancia, vanidad, engreimiento y similares. Diversos estudios confirman que los sujetos diferencian estas dos emociones en uno mismo y en los demás. El orgullo auténtico se asocia a conductas prosociales y a rasgos positivos de personalidad como agradabilidad, responsabilidad, estabilidad emocional o apertura a la experiencia. El orgullo hubrístico se relaciona con conductas antisociales y se relaciona negativamente con la responsabilidad y la agradabilidad y positivamente con el narcisismo. El orgullo hubrístico es el que está detrás de la agresión narcisista, la hostilidad, los problemas interpersonales y otras conductas autodestructivas.

Los individuos que puntúan alto en orgullo auténtico puntúan bajo en depresión, ansiedad, fobia social, agresión, hostilidad e hipersensibilidad al rechazo y puntúan alto en satisfacción en las relaciones, apoyo social y en la seguridad de las relaciones con sus parejas. Por contra, los individuos que puntúan alto en orgullo hubrístico suelen ser más agresivos, hostiles, experimentan ansiedad crónica, tienen menos apoyo social y vínculos  más inestables. Como luego veremos, el orgullo auténtico tiene que ver con el prestigio y el hubrístico con la dominancia.

Una pregunta fundamental cuando hablamos del orgullo desde un punto de vista proximal es saber su causa, qué es lo que lo origina. Parece que el orgullo surge cuando el individuo evalúa un suceso positivo como relevante para su identidad y como causado internamente, es decir, debido al yo. El orgullo auténtico resulta de la atribución del mérito a factores internos pero inestables, específicos y a causas controlables, como el esfuerzo (“he vencido porque he practicado mucho”), mientras que el orgullo hubrístico resulta de atribuir el éxito a factores internos pero estables y globales, como la habilidad (“he ganado porque soy grande”).

La expresión no verbal del Orgullo

Aunque, como ya hemos comentado, Darwin especuló con que el orgullo tiene una forma reconocible de ser expresado físicamente, no ha sido hasta esta última década que los estudios se han ocupado de este asunto. Estos estudios sugieren que la expresión del orgullo es universal e innata porque se observa en todas las culturas, la expresan ya niños de tres años e incluso se observa en atletas ciegos de nacimiento que no han podido aprenderlo. Su reconocimiento es del 80-90%. La expresión prototípica sería una postura expandida con la cabeza algo inclinada hacia atrás, los brazos por encima de la cabeza o apoyados en la cadera y una leve sonrisa (ver figuras 1 y 2). Lo que no se ha podido demostrar es que cada tipo de orgullo tenga una expresión corporal diferente. Parece que la expresión es la misma y que necesitamos el contexto, información adicional, para saber si se trata de un orgullo auténtico o hubrístico.

2- Ontogenia del Orgullo

El orgullo aparece en niños hacia los tres años de edad. Este hallazgo se basa en estudios en los que se da a los niños una tarea difícil a realizar y se observa sus reacciones. Muestra corporales y verbales de orgullo se observan hacia los 2,5-3 años de edad. La capacidad de identificar o reconocer el orgullo en los demás surge hacia los 4 años de edad. Sin embargo, la habilidad para entender las situaciones y contextos que dan lugar al orgullo aparece más tarde; niños de 7 años tienen problemas para entender que el orgullo debe atribuirse a individuos que han conseguido algo por mérito propio y no por razones externas, como la suerte. Niños de 9-10 años ya realizan estas atribuciones correctamente. Todo este desarrollo del orgullo es coherente con la idea que ya apuntábamos antes de que ciertas capacidades cognitivas son requisitos previos para una emoción autoconsciente (por ejemplo, a los 3 años es  cuando los niños empiezan a identificarse en el espejo y a ser autoconscientes).

3- Causa última del Orgullo

El orgullo parece que ha evolucionado para servir a una función relacionada con lo que lo provoca: el éxito. Varios autores han propuesto que el orgullo evolucionó para ayudar los individuos a transformar logros valiosos culturalmente en un estatus social más alto, es decir, el orgullo sirve para promover un alto estatus. El orgullo podría promover un estatus más elevado por tres mecanismos. Primero, el orgullo podría funcionar como un  refuerzo positivo; los sentimientos de orgullo son placenteros, el sujeto se siente a gusto consigo mismo, contento de sí mismo y como encima se suele alabar socialmente los logros pues el sujeto intentaría repetir las acciones que llevan a conseguir esa emoción placentera. El orgullo actuaría como motivación para buscar más éxitos y logros en el futuro. Se ha demostrado que los individuos a los que se les manipula en el laboratorio para sentir orgullo en respuesta a un éxito en una tarea es más probable que perseveren y se esfuercen en tareas similares. Hay también estudios en los que se encuentra que si se les dice a los sujetos que mantengan una determinada postura (más expandida) es más probable que sigan luchando y esforzándose que si la postura es más sumisa. Estos experimentos van en la linea de que se puede provocar un estado emocional  practicando su expresión no verbal (hipótesis feedback facial de Tomkins)
Figura 2

La segunda manera en que el orgullo promovería un mayor estatus es por sus propiedades informativas: el orgullo informa a los individuos de que merecen un mayor estatus y la aceptación del grupo. El orgullo aumenta la autoestima lo que informa a los individuos de su alto valor social (teoría del sociómetro de la autoestima de Leary). La tercera manera en que el orgullo promovería un mayor estatus sería por la información que la expresión no verbal transmite a los observadores. Esta expresión dice a los otros miembros del grupo que el individuo merece un mayor estatus. En este sentido, existen estudios donde se ve que la gente asume que los individuos que expresan orgullo son de mayor estatus social. La expresión de orgullo es percibida rápida y automáticamente como una señal de alto estatus. Así que la expresión de orgullo podría ser una adaptación evolucionada para la comunicación de cambios en el estatus social tanto al propio individuo como a los miembros del grupo. Merece la pena comentar que no se han observado diferencia entre los sexos en la expresión ni en el reconocimiento del orgullo

¿Tienen los dos orgullos funciones diferentes?

¿Por qué hay dos orgullos? ¿Por qué evolucionó el orgullo hubrístico? Una posible respuesta es que en humanos (a diferencia de los animales, aunque esto hay que matizarlo) existen dos formas diferentes de alto estatus: el prestigio y la dominancia. El orgullo auténtico habría evolucionado para motivar el logro de prestigio, un estatus elevado que se merece por haber demostrado alto conocimiento, habilidades y altruismo, es decir, un estatus basado en el respeto. Por contra, el orgullo hubrístico habría evolucionado para conseguir la dominancia, es decir, un alto estatus que se consigue por la fuerza, el miedo, la intimidación, la amenaza y la violencia. Los dos tipos de orgullo responderían a presiones evolucionistas diferentes. Es la agresión, o la amenaza de agresión, lo que permite a los individuos dominantes mantener el poder. Sin embargo, los individuos de prestigio, para mantener el respeto de los subordinados deben evitar recurrir a la la superioridad y la fuerza.

4- Filogenia. Evolución del orgullo en las especies.

Parece que el estatus basado en el prestigio no existe en otros animales, lo que vemos en otras especies es fundamentalmente una jerarquía basada en la dominancia. Esto tendría que ver con la necesidad, que ya hemos comentado previamente, de un auto-conocimiento para poder experimentar esta emoción de segundo nivel. Sin embargo, si nos fijamos en los libros de de Waal, vemos que en primates como los chimpancés sí aparece ya una cierta jerarquía basada en el respeto y no simplemente en la dominancia, aunque en un grado muy incipiente.

Lo que sí parece claro es que la expresión corporal del orgullo tiene continuidad con expresiones no verbales en mamíferos y primates como cuando un chimpancé derrota a otro o cuando se exhibe antes de una pelea hinchándose e intentando aumentar su tamaño. Esto mismo se ve en muchos otros animales en lo que se llama el “bluff display”, ese “agrandamiento" para atemorizar al contrario, por lo que parece que la expresión del orgullo tiene su origen en posturas de intimidación a los rivales.

5-Neurobiología

Hasta la fecha sólo existen dos estudios de neuroimagen del orgullo. Una predicción sería que deberíamos encontrar actividad en la corteza prefrontal ventromedial porque esta región tiene que ver con la culpa , la vergüenza y otros fenómenos autoreferenciales. Uno de los dos estudios sí encuentra actividad en esta región pero el otro no la encuentra en esta zona sino en el surco temporal postero-superior y en el lóbulo temporal izquierdo, regiones que tienen que ver con la Teoría de la Mente.

De lo que sí tenemos más estudios es de las hormonas y su relación con el orgullo. Específicamente, tanto en monos como en humanos los sucesos que aumentan el estatus dan lugar a elevación de testosterona. Pero, a pesar de esa relación bien establecida entre mayor estatus y elevación de testosterona, lo que también se observa es que hay una relación inversa entre niveles basales de testosterona y estatus, es decir, los hombres con testosterona elevada suelen tener menos educación, ganan menos dinero, tienen trabajos de menos nivel y es más probable que estén en el paro. Una forma de conciliar estos hallazgos contradictorios es volver al distinción entre orgullo auténtico y orgullo hubrístico. La testosterona elevada estaría relacionada con la dominancia, pero no con el prestigio. Los hombres con testosterona muy elevado son agresivos, asertivos y  violentos. Estos rasgos son valiosos para conseguir estatus en ciertos ambientes (cárceles, deportes competitivos…) pero son contraproductivos en ambientes donde el estatus se basa en el prestigio.

El prestigio, además de con niveles bajos de testosterona, se asocia con niveles elevados de serotonina. Tanto en monos como en humanos, los machos dominantes tienen niveles elevados crónicos de serotonina y la serotonina se asocia negativamente con la agresión (a menos serotonina más agresividad). Así que la serotonina elevada con baja testosterona se asocia a orgullo auténtico y la testosterona elevada con baja serotonina se asocia a orgullo hubrístico.

En resumen, el orgullo es una facultad evolucionada de la mente que surgió por selección natural y que ha jugado un papel adaptativo en el logro , mantenimiento y comunicación del estatus social a lo largo de nuestra historia evolucionista.

@pitiklinov

Referencias:


Clark, J. A. (2010). Hubristic and authentic pride as serial homologues: The same but different. Emotion Review, 2, 397–398.










martes, 14 de junio de 2016

Réplica a Gøtzsche

La revista ConsumoClaro de eldiario.es publicó el día 8 una entrevista a Peter Gøtzsche con motivo de la publicación de su nuevo libro. Como habían visto críticas previas a este autor en mi blog se pusieron en contacto conmigo para ofrecerme la publicación de una réplica que ha sido publicada hoy. La cuelgo aquí en mi blog para que pueda ser comentada.



Peter Gøtzsche es un médico internista que publicó un primer libro contra la industria farmacéutica, Medicamentos que matan, y acaba de publicar ahora otro contra la psiquiatría y los psiquiatras, Psicofármacos que matan y denegación organizada. Gøtzsche no tiene formación ni experiencia psiquiátrica asistencial y cuando un psiquiatra con experiencia oye lo que dice o escribe este autor tiene una sensación que yo supongo que tiene que ser parecida a la que tiene un padre o una madre cuando un sacerdote les dice cómo educar a los hijos o cómo vivir la sexualidad; la sensación de que no sabe de lo que habla, vamos.

Gøtzsche tiene una ideología y busca los datos que le convienen para servir a esa ideología, en un claro ejemplo de lo que se llama “sesgo de confirmación”, es decir, de coger los estudios o datos que coinciden con su planteamiento ideológico mientras se rechazan o ignoran los que no concuerdan. He criticado anteriormente su falta de rigor que se demuestra claramente en la diferente forma en que trata a los psicofármacos y a la psicoterapia. Los datos que tenemos indican actualmente que la psicoterapia no es más eficaz que los antidepresivos, que existe un sesgo de afiliación, es decir, que los terapeutas favorecen en los estudios a la terapia que ellos practican, y que el sesgo de publicación (es decir que cuando en los estudios no sale lo que queremos los guardamos en un cajón) es similar en estudios de psicoterapias al que existe en estudios de antidepresivos. El mismo Gøtzsche reconoce en este nuevo libro que todas las psicoterapias funcionan igual, incluidas las que realizan estudiantes sin ninguna formación en Psicología. A pesar de eso, como es partidario de la psicoterapias, rechaza los antidepresivos y perdona a las psicoterapias todas sus carencias. Para una crítica más extensa ver esta entrada.

Aquí voy a argumentar que, además de poco riguroso, Gøtzsche es incoherente. En la entrevista que ha publicado ComsumoClaro defiende el tratamiento de las psicosis con benzodiacepinas: “Todos los pacientes, hasta el momento, me han dicho que preferirían una benzodiazepina. Y les comprendo, ya que las benzodiazepinas no son tan tóxicas y peligrosas como antipsicóticos". Sin embargo, voy a transcribir a continuación lo que el propio Gøtzsche dice de las benzodiacepinas en su libro Medicamentos que matan (pag.315):

“En la década de los sesenta los médicos creían que las benzodiacepinas eran inofensivas, por eso las recetaban para prácticamente cualquier dolencia. En el punto álgido de su uso, las ventas eran equivalentes a que el 10% de la población danesa las tomara, algo extraordinario debido a que sus efectos desaparecen al cabo de unas semanas porque se genera dependencia al fármaco y porque son altamente adictivas y provocan un gran número de daños. Los ensayos son sesgados, pero lo que nos permiten observar es que si se toman como somníferos -cuando aún tienen efecto, es decir, antes de que generen tolerancia- se produce un aumento del tiempo del sueño de quince minutos en los ancianos que padecen insomnio pero a la vez se multiplican por cinco los pacientes que presentan accidentes cerebrales, por tres los problemas psicomotrices y por cuatro los casos de fatiga durante el día. Los pacientes que toman estos fármacos tienen también un riesgo elevado de sufrir caídas y accidentes de tráfico; un estudio descubrió, además, que las benzodiacepinas hacen aumentar asimismo el riesgo de demencia en cerca de un 50%.”

Bueno, celebro que ahora esté dispuesto a  que los pacientes con psicosis tomen un veneno como las benzodiacepinas, que parece que no lo era tanto; tal vez en el próximo libro nos diga que los antipsicóticos no son tan malos… Pero lo que ya es una afirmación esperpéntica es esto: “Sé de psiquiatras eminentes en varios países que nunca han usado un antipsicótico para tratar una psicosis. Solo han aplicado la psicoterapia, la empatía y el amor.” Por supuesto, hay psicosis que pueden remitir espontáneamente o que responden a psicoterapia, benzodiacepinas o simplemente a placebo, pero también hay psicosis que se cronifican y no responde a ningún tratamiento de los conocidos hasta la fecha. Y en medio de estos dos extremos hay una mayoría en los que es imposible evitar el uso de antipsicóticos, especialmente en las fases agudas de descompensación. Es un tema abierto y discutible cuánto tiempo usarlos, pero nadie que trate psicosis graves puede dejar de reconocer que no hay alternativa a los antipsicóticos en muchas fases de la enfermedad.

Decir que las psicosis graves se curan con empatía y amor es un insulto no ya a los psiquiatras -que según el estereotipo somos todos idiotas o malvados, o ambas cosas- sino a la ciencia, a la inteligencia, a la historia, a los pacientes y a sus familias. Puedo dar fe de que a la mayoría de los pacientes que he tratado a lo largo de mi carrera no es precisamente amor lo que les ha faltado y sigo siendo testigo del sufrimiento de sus familias. Pero el problema de Gøtzsche es que no cree en el fondo que exista la enfermedad mental grave, un trastorno de la mente que el paciente no puede controlar, que genera un gran sufrimiento y que justifica el empleo de medicamentos que tienen efectos secundarios, sin duda, y que ojalá fueran mejores de lo que son, pero que son la mejor alternativa disponible.


Personalmente no entiendo que Gøtzsche sea un gurú para mucha gente y reciba el bombo y platillo que se le está dando. Escribir libros es muy fácil y es fácil llenarlos de palabras, pero otra cosa muy distinta es atender a los pacientes y sus familias. Cuando Gøtzsche publique en alguna revista científica un estudio en el que demuestre cómo cura las psicosis graves con amor y empatía deberemos hacerle caso. No antes.

domingo, 5 de junio de 2016

Apego, Apoptosis y Conducta suicida

Colaboración de Gregorio Montero 
A una madre se la quiere
siempre con igual cariño
y a cualquier edad se es niño
cuando una madre se muere.
- José María Pemán-

En entradas previas se ha hablado sobre el suicidio celular programado o apoptosis, sobre el suicidio en humanos e incluso se han establecido posibles nexos entre ambos procesos. En esta ocasión abordaremos la relación entre el suicidio celular programado y las conductas suicidas humanas a través del proceso de apego.
Cuando hablamos de apego, es inevitable nombrar a John Bowlby y a Harry Harlow (ver entradasobre Harry Harlow y la naturaleza del amor). Recordemos someramente uno de los experimentos más famosos de Harlow en la década de los 70: la madre “sustituta”. A crías de monos rhesus se les ofrecían dos muñecos que simulaban una madre, uno de alambre y uno de felpa. Solo la de alambre ofrecía alimento y, frente a todo pronóstico, las crías preferían la madre de felpa incluso aunque esta no pudiera suministrarles comida. Tras acudir a por alimento, pasaban la mayor parte del tiempo con la madre de felpa, mucho más suave y cuyo contacto físico les permitía vincularse y desarrollarse. Ante un estresor externo, las crías acudían en busca de protección a la madre de felpa. Bajo diferentes condiciones experimentales, Harlow llegó a la conclusión no solo de que el apego era crucial, sino que en ciertos escenarios podía serlo por encima de una necesidad fisiológica vital como es la nutrición.
¿Hasta qué punto es importante el apego a la luz de estudios más recientes? ¿Qué relación tiene con el proceso de suicidio celular y, más allá, con el suicidio humano? Como sabemos por estudios en modelos animales, la separación materna en el primer periodo de la vida ha demostrado tener un efecto negativo y duradero en el desarrollo de la auto regulación emocional y conductual. En el artículo de Anand y Scalzo1 se describen dos de las vías propuestas por las que experiencias adversas al inicio de la vida pueden alterar ciertos procesos del neurodesarrollo. En roedores y otras especies, la separación materna conduce a la apoptosis celular en múltiples áreas del cerebro inmaduro, mientras que la exposición repetida al dolor causa una activación excesiva de neurotransmisores excitatorios, particularmente del N-metil-D-aspartato (NMDA). El mecanismo propuesto para la inducción de apoptosis en el caso de la separación materna o el aislamiento sensorial es la falta de activación del receptor del NMDA. Por otra parte, como se ha estudiado en otras patologías entre las que destaca la Esclerosis Lateral Amiotrófica (ELA), el exceso de actividad del sistema glutamatérgico y del NMDA puede tener efectos neurotóxicos. Esta es la hipótesis por la que se cree que es inducida la apoptosis en las neuronas en desarrollo tras sufrir una exposición reiterada al dolor o un estrés intenso.
Octogon degu, el roedor utilizado
El grupo de K. Braun y G. Poeggel ha llevado a cabo diversos estudios que analizan las consecuencias que tiene para las crías la separación prematura de la madre. En roedores separados de sus madres de forma repetida durante las primeras tres semanas de desarrollo y aislados a posteriori se han evidenciado:
1) Cambios en áreas prefrontales prelímbicas y en el núcleo accumbens, a través de una importante pérdida de neuronas con actividad inhibitoria GABAérgica, causando un incremento de la excitación e hiper reactividad2.
2) Cambios en el desarrollo del sistema monoaminérgico a nivel del córtex prefrontal medial, a través de alteraciones en el balance entre la inervación cortical serotoninérgica y dopaminérgica3. Esto podría reflejar un intento de adaptación a las fases de separación materna y aislamiento social.
3) Cambios en el desarrollo del sistema monoaminérgico a nivel del hipocampo y la amígdala4. Es interesante señalar que en este experimento se estudió si la presencia de la voz materna tras la separación, por tratarse de una potente señal emocional, tendría efectos en el sistema nervioso de las crías. Efectivamente, escuchar las señales acústicas emitidas por la madre incluso estando separados, podía modular los cambios neuronales producidos por el aislamiento a nivel del sistema límbico.
4) Desbalance del sistema inhibitorio neuronal en algunas regiones del córtex prefrontal medial5
5) Descenso de la densidad sináptica en las dendritas de las células piramidales del córtex cingulado anterior6. Es interesante la demostración de que no solo es el factor estresor externo sino el momento del desarrollo en el que se produce, lo que ocasiona diferentes alteraciones. Así, únicamente el estrés producido durante la conocida como fase de hiporrespuesta al estrés (SHRP por sus siglas en inglés) del eje hipotálamo-hipófisis-adrenal, ocasionaba esta pérdida sináptica, mientras que fuera de dicho periodo del desarrollo del sistema endocrino no se producía.
A modo de resumen, los estudios mencionados arrojan luz sobre un área desconocida previamente, relacionando el apego con la apoptosis neuronal a través del efecto deletéreo sobre el neurodesarrollo que tiene la separación prematura de la madre y el posterior aislamiento social. ¿En qué medida podemos vincular esta apoptosis neuronal con la posibilidad de suicidio del individuo? Las estructuras cerebrales implicadas en estos cambios son esenciales, entre otras funciones, para la auto regulación afectiva y conductual, la inhibición de conductas y la interacción social. Así, se ha evidenciado que estas alteraciones prematuras del neurodesarrollo tienen como correlato diferentes fenotipos conductuales, caracterizados por alteraciones en la reactividad y la sensibilidad al dolor, incremento de la ansiedad y estrés y dificultades para fijar la atención; con alteraciones profundas en la interacción social e incluso a conductas auto destructivas o auto lesivas. Por lo tanto, la hipótesis de Harlow de que el apego temprano es crítico para la supervivencia del individuo se explica con evidencias neurobiológicas concretas. De forma instintiva, las crías de mono hacen bien en elegir el apego a la madre de felpa frente a la de alambre, incluso aunque solo esta última pueda ofrecerles alimento.


En interés en el estudio de estos mecanismos radica en la prevención de los estresores tempranos, particularmente evitar la separación repetida y prematura de la madre, el tratamiento efectivo del estrés y dolor neonatal y la investigación de nuevas estrategias terapéuticas que limiten la excitotoxicidad y apoptosis neuronal.
En próximas entradas se abordará la neurobiología del apego, tratando de describir algunos de los mecanismos por los que el vínculo social, particularmente el vínculo precoz con la madre, permite y favorece el desarrollo del sistema nervioso de la cría y puede tener un efecto protector crítico y duradero sobre las conductas auto lesivas o suicidas.
Referencias:
[1] Anand KJ, Scalzo FM. Can adverse neonatal experiences alter brain development and subsequent behavior? Biol Neonate. 2000;77(2):69-82.
[2] Poeggel G, Lange E, Hase C, Metzger M, Gulyaeva N, Braun K. Maternal separation and early social deprivation in Octodon degus: quantitative changes of nicotinamide adenine dinucleotide phosphate-diaphorase-reactive neurons in the prefrontal cortex and nucleus accumbens. Neuroscience. 1999;94(2):497-504.
[3] Braun K, Lange E, Metzger M, Poeggel G. Maternal separation followed by early social deprivation affects the development of monoaminergic fiber systems in the medial prefrontal cortex of Octodon degus. Neuroscience. 2000;95(1):309-18.
[4] Ziabreva I, Poeggel G, Schnabel R, Braun K. Separation-induced receptor changes in the hippocampus and amygdala of Octodon degus: influence of maternal vocalizations. J Neurosci. 2003 Jun 15;23(12):5329-36.
[5] Helmeke C, Ovtscharoff W Jr, Poeggel G, Braun K. Imbalance of immunohistochemically characterized interneuron populations in the adolescent and adult rodent medial prefrontal cortex after repeated exposure to neonatal separation stress. Neuroscience. 2008;152(1):18-28.

[6] Gos T, Bock J, Poeggel G, Braun K. Stress-induced synaptic changes in the rat anterior cingulate cortex are dependent on endocrine developmental time windows. Synapse. 2008;62(3):229-32.

Colaboración de Gregorio Montero