Mala ciencia (35 page)

Read Mala ciencia Online

Authors: Ben Goldacre

Tags: #Ciencia, Ensayo

BOOK: Mala ciencia
5.45Mb size Format: txt, pdf, ePub

Hasta cierto punto, éstas son cuestiones políticas y ligadas a la ayuda al desarrollo: cuestiones que deberemos dejar para otra ocasión. Además, tengo una promesa que cumplir: ustedes querrán aprovechar lo que han aprendido sobre los niveles de evidencia y las distorsiones en las investigaciones para, así, comprender mejor cómo consigue la industria farmacéutica distorsionar los datos y encandilarnos con ellos. ¿Cómo podemos demostrar que ésta hace algo así? En conjunto, es cierto: los ensayos de las farmacéuticas tienen muchas más probabilidades de producir resultados positivos para su propio medicamento que los ensayos independientes. Pero dejar la cosa ahí sería de pusilánimes.

Lo que estoy a punto de contarles es lo que enseño a estudiantes de medicina y a médicos (en lugares diversos) cuando pronuncio una conferencia que, informalmente, titulo «Las pamplinas de las farmacéuticas». Es fruto, a su vez, de lo que me enseñaron en la Facultad de Medicina,
[*]
y creo que la manera más fácil de entender la cuestión es poniéndonos en el lugar de un investigador de una gran empresa farmacéutica.

Tenemos, pues, una píldora. Está bien, bueno, quizá no sea deslumbrante, pero mucho dinero depende de ella. Necesitamos obtener un resultado positivo, pero nuestro público destinatario no son los homeópatas, los periodistas ni la población general: son los médicos y los académicos, a quienes se les ha enseñado a detectar los trucos evidentes, como el de no «cegar» un estudio o el de realizar una «aleatorización inadecuada». Nuestros juegos de manos tendrán que ser mucho más elegantes, mucho más sutiles, pero igual de impactantes.

¿Qué podemos hacer?

Bueno, para empezar, podríamos estudiarla en «ganadores». Las personas respondemos de forma diferente a los fármacos. Las personas mayores que toman muchas medicaciones suelen ser casos perdidos, pero es más probable que las personas jóvenes afectadas solamente por un problema muestren alguna mejoría. Así que estudiemos únicamente nuestro medicamento en este último grupo. Esto hará que nuestra investigación sea mucho menos aplicable entre las personas reales a las que los doctores extienden sus recetas, pero, con un poco de suerte, no se darán cuenta. Ésta es una práctica tan difundida que casi no vale la pena citar ejemplos.

A continuación, podríamos comparar nuestro fármaco con un factor de control inútil. Muchas personas argumentan, por ejemplo, que
nunca
deberíamos comparar nuestro medicamento con un placebo, porque eso no demuestra nada de valor clínico. En el mundo real, a nadie le importa si nuestro fármaco es mejor que una pastilla de azúcar; lo único que interesa saber es si es mejor que el mejor tratamiento actualmente disponible. Pero ya hemos gastado cientos de millones de dólares en sacar nuestra nueva medicina al mercado, así que, ¡qué demonios!: realicemos múltiples ensayos con control de placebo y démosles el máximo bombo posible, porque prácticamente nos garantizarán algún resultado positivo. Esto también es un procedimiento universal, ya que casi todas las medicinas se comparan con un placebo en alguna fase de sus vidas, y los «visitadores médicos» (las personas empleadas por las grandes farmacéuticas para engatusar a los facultativos —muchos de los cuales simplemente se niegan a verlas—) adoran la positividad inequívoca de los gráficos que esos estudios pueden generar.

A partir de ahí, las cosas se ponen más interesantes. Si tenemos que comparar nuestro medicamento con otro producido por un competidor —para guardar las apariencias o porque un regulador así lo exige—, siempre podemos probar un truco artero y turbio: utilicemos una dosis inadecuada del fármaco de la competencia para que los pacientes a quienes se les administre no muestren muy buena reacción al mismo; o administremos una dosis muy elevada de esa medicina competidora para que los pacientes sufran numerosos efectos secundarios; o administremos ese fármaco de manera incorrecta (tal vez, por vía oral cuando debería ser intravenosa, y esperando que la mayoría de los lectores no se den cuenta); o incrementemos muy rápidamente la dosis del medicamento de la competencia para que los pacientes que lo tomen experimenten peores efectos secundarios. Nuestro fármaco saldrá reluciente de la prueba por comparación.

Tal vez piensen que algo así no podría suceder jamás. Si siguen las referencias incluidas al final del libro,
[5]
verán que les dirigen hacia estudios en que a los pacientes se les administraron realmente dosis bastante elevadas de medicación antipsicótica anticuada (lo que hizo que los fármacos de nueva generación parecieran mejores en cuanto a sus efectos secundarios) y hacia estudios con dosis de antidepresivos ISRS que se podrían considerar inusuales, por citar sólo un par de ejemplos. Sí, lo sé. Resulta un tanto increíble.

Por supuesto, otro truco que podemos sacarnos de la chistera con los efectos secundarios consiste, simplemente, en no preguntarnos por ellos, o mejor dicho, y puesto que siempre conviene ser taimados en este campo, en cuidar mucho la manera en que nos preguntamos por ellos. He aquí un ejemplo. Los fármacos antidepresivos ISRS provocan muy frecuentemente efectos secundarios de tipo sexual, como la anorgasmia. Quede claro (y voy a tratar de expresar esto del modo más neutro que se me ocurra) que a mí me gusta
y mucho
la sensación del orgasmo. Para mí es importante, y por mi experiencia del mundo, deduzco que esta sensación también es importante para otras personas. Se ha llegado a librar guerras, simplemente, por la sensación del orgasmo. Hay psicólogos evolutivos que pretenden convencernos de que la totalidad de la cultura y el lenguaje humanos están impulsados, en gran parte, por la búsqueda del orgasmo. Diría yo que su pérdida es un importante efecto secundario sobre el que deberíamos inquirir.

Y, sin embargo, la anorgasmia entre pacientes tratados con fármacos ISRS ha sido cifrada entre un 2 y un 73 % según los estudios, dependiendo, fundamentalmente, de cómo hayan preguntado sus autores por ella: mediante una pregunta informal y abierta sobre efectos secundarios en general, por ejemplo, o mediante una encuesta cuidada y detallada.
[6]
Una revisión en concreto sobre los ISRS (con tres mil sujetos en total) llegó incluso a no incluir reacción sexual adversa alguna en su tabla de 23 efectos secundarios de todo tipo. Aquellos investigadores consideraron otras 23 cosas más importantes que la pérdida de la sensación del orgasmo. Yo las he leído y no lo son.

Pero volvamos a los resultados principales. El siguiente es un muy buen truco: en vez de un resultado del mundo real —como la muerte o el dolor—, siempre podemos usar un «resultado intermedio», más fácil de conseguir. Si nuestro fármaco reduce supuestamente el nivel de colesterol en sangre y, por lo tanto, previene muertes por ataques cardiacos, por ejemplo, no midamos las muertes por tales ataques, sino solamente la reducción observada de los niveles de colesterol. Esto último es mucho más sencillo de conseguir que una reducción de la mortalidad por cardiopatía y, además, el ensayo será más barato y más rápido, por lo que nuestro resultado será igualmente más barato… y más positivo. ¡Funciona!

Imaginemos ahora que ya hemos realizado nuestro ensayo y, pese a nuestros denodados esfuerzos, ha salido negativo. ¿Qué podemos hacer? Veamos. Si nuestro ensayo ha sido bueno en general, pero ha arrojado algunos resultados negativos, siempre podemos probar un viejo truco: desviemos la atención de los datos decepcionantes poniéndolos todos (buenos o malos) en un gráfico. Mencionemos los menos esperanzadores sólo de pasada en el cuerpo del texto e ignorémoslos a la hora de redactar nuestras conclusiones finales. (Se me da tan bien esto que me doy miedo a mí mismo. Es lo que sucede cuando se leen demasiados ensayos pésimos.)

Ahora bien, si nuestros resultados son completamente negativos, no los publiquemos, o publiquémoslos con mucha demora. Eso es justamente lo que hicieron las compañías farmacéuticas con los datos referidos a los antidepresivos ISRS: ocultaron aquellos que sugerían que podían ser fármacos peligrosos y enterraron los que mostraban que no funcionaban mejor que el placebo. Si somos muy listos y tenemos mucho dinero para gastar, entonces, tras obtener datos decepcionantes, podremos llevar a cabo más ensayos con el mismo protocolo esperando que, en algún momento, den resultados positivos. Cuando eso ocurra, tratemos de juntarlos todos, positivos y negativos, con la esperanza de que los segundos queden engullidos por unos mediocres resultados positivos.

También podríamos ponernos serios de verdad y empezar a manipular las estadísticas. Durante las próximas dos páginas (nada más), este libro se va a volver bastante técnico. Si desean saltárselas, lo entenderé, pero sepan que las he incluido para los médicos que compraron el libro con la intención de reírse de los homeópatas. He aquí los trucos clásicos que se pueden hacer con los análisis estadísticos para asegurarse de que un ensayo arroje un resultado positivo.

Ignorar el protocolo por completo

Supongamos siempre que toda correlación
demuestra
una causación. Incluyamos todos nuestros datos en un programa de hojas de cálculo y destaquemos (como significativa) cualquier relación entre algo y todo si ésta apoya nuestro argumento. Si medimos lo suficiente, siempre hallaremos algo positivo aunque sólo sea por mera casualidad.

Jugar con los criterios de base

A veces, en el momento de comenzar un ensayo, por azar, el grupo de tratamiento ya está funcionando mejor que el de placebo. Cuando eso suceda, dejémoslo como está. Si, por el contrario, es el grupo del placebo el que, de inicio, ya está funcionando mejor que el del tratamiento, ajustemos los criterios de base (el punto de partida) de nuestro análisis.

Ignorar los abandonos

Las personas que abandonan un ensayo son estadísticamente mucho más propensas a haber tenido una mala experiencia y a haber desarrollado efectos secundarios. No harán más que empeorar la impresión general producida por nuestro fármaco. Así que ignorémoslas, no intentemos hacerles seguimiento alguno, no las incluyamos en nuestro análisis final.

Limpiar los datos

Fijémonos en nuestros gráficos. Siempre habrá en ellos
outliers
o casos extremos anómalos, puntos situados a gran distancia de los demás. Si estropean la impresión general de nuestro fármaco, borrémoslos sin más. Pero si ayudan a que nuestro fármaco produzca una buena impresión (y aun cuando puedan parecer resultados espurios), mantengámoslos.

«¡Al mejor de cinco… no, de siete… no, de nueve!»

Si la diferencia entre nuestro fármaco y el placebo resulta significativa a los cuatro meses y medio de un ensayo previsto en principio para medio año, pongamos fin a la prueba de inmediato y empecemos a redactar los resultados. La diferencia podría no ser tan impresionante si dejamos que la cosa llegue hasta el final planeado. Por el contrario, si a los seis meses los resultados son «casi significativos», pero no del todo, ampliemos el ensayo otros tres meses más.
[7]

Torturar los datos

Si nuestros resultados son malos, pidamos al ordenador que vuelva sobre ellos y compruebe si algún subgrupo particular se comportó de manera diferente a los demás. Podríamos descubrir así, por ejemplo, que nuestro medicamento funciona muy bien entre las mujeres de origen chino de 52 a 61 años de edad. «Torturemos los datos y nos confesarán lo que queramos», como dicen en Guantánamo.

Probar con todas las teclas del ordenador

Si estamos muy desesperados, y analizando los datos como teníamos previsto no obtenemos el resultado que queríamos, sometamos las cifras a una nutrida selección de otros test estadísticos, así, al azar, aunque sean totalmente inapropiados para ese caso en concreto.

Y cuando hayamos acabado, lo más importante, por supuesto, es saber publicar con cabeza. Si tenemos un buen ensayo, publiquémoslo en la revista de mayor impacto que se nos ocurra. Si tenemos un ensayo positivo, pero completamente parcial (o no controlado), como tal cosa resultaría obvia para todo el mundo, convendrá publicarlo en una revista poco conocida (de aquéllas editadas, escritas y controladas enteramente por las empresas del sector). Recordemos que los trucos que acabamos de describir no ocultan nada en realidad y serán evidentes para cualquiera que lea nuestro artículo… pero sólo si lo leen con suma atención, así que nos interesa mucho que nadie lo lea más allá del resumen inicial. Por último, si nuestros resultados son realmente embarazosos, ocultémoslos en algún lado y citemos en el cuerpo del texto del artículo unos crípticos «datos en archivo». Nadie conocerá los métodos y sólo nos descubrirán si alguien viene a molestarnos pidiéndonos los datos para realizar una revisión sistemática. Con un poco de suerte, eso no sucederá en años.

¿Cómo es posible algo así?

Cuando explico este abuso de las investigaciones a amigos míos ajenos al mundo médico y académico en general, éstos se muestran asombrados y con razón. «¿Cómo es posible algo así?», dicen. Bueno, en primer lugar, muchas de las investigaciones malas son debidas puramente a la incompetencia. Muchos de los errores metodológicos descritos anteriormente pueden producirse tanto por una confusión de los deseos con la realidad, como por una malintencionada mendacidad. Pero ¿es posible demostrar el juego sucio?

A veces es muy complicado demostrar que un ensayo en particular ha sido amañado de forma deliberada para que arroje la respuesta deseada por sus patrocinadores. Pero cuando se contempla un conjunto general de ensayos, se obtiene una imagen mucho más nítida de lo sucedido. La cuestión ha sido objeto tan frecuente de estudio que, en 2003, una revisión sistemática recopiló hasta treinta estudios diferentes dedicados a analizar si la fuente de financiación afectaba a los resultados de diversos grupos de ensayos. En general, se descubrió que los estudios financiados por la industria farmacéutica tenían el cuádruple de probabilidades de arrojar resultados favorables a la empresa patrocinadora que los estudios independientes.
[8]

Una revisión en concreto del sesgo de esos estudios nos reveló una situación digna de
Alicia en el país de las maravillas
.
[9]
Para dicha revisión se localizaron 56 ensayos diferentes en los que se comparaban analgésicos como el ibuprofeno, el diclofenaco y otros por el estilo. Es habitual que se inventen nuevas versiones de estos fármacos con la esperanza de que tengan menos efectos secundarios o de que sean más potentes (o de que se conserve la patente durante unos años y se gane más dinero con ellos). Pues bien, en todos y cada uno de esos ensayos, el fármaco de la empresa patrocinadora resultó ser mejor que (o igual a) los demás con los que se comparaba. No hubo ni una sola ocasión en la que el medicamento del fabricante impulsor del estudio se revelase peor. Los filósofos y los matemáticos hablan de una propiedad conocida como «transitividad»: si A es mejor que B, y B es mejor que C, entonces C no puede ser mejor que A. Dicho sin rodeos, esa revisión de 56 ensayos puso de manifiesto una imposibilidad: todos esos fármacos eran mejores que todos esos fármacos.

Other books

Deerskin by Robin McKinley
Robyn and the Hoodettes by Ebony McKenna
Under a Wild Sky by William Souder
A Hard Ride Home by Emory Vargas
The Trouble With Seduction by Victoria Hanlen
Chill by Colin Frizzell