La esencia de la teoría de probabilidades se puede deducir de los hechos simples siguientes.
[162]
Nadie puede predecir con certeza qué cara de una moneda no manipulada quedará hacia arriba cuando caiga al suelo. Aunque la moneda acabe de caer diez veces seguidas en cara, eso no mejora ni un ápice nuestra capacidad para predecir con certeza la siguiente tirada. Sin embargo, sí podemos predecir con certeza que, si se tira la moneda diez millones de veces, prácticamente la mitad de las tiradas serán caras y la otra mitad serán cruces. De hecho, a finales del siglo XIX, el estadístico Karl Pearson tuvo la paciencia de tirar una moneda 24.000 veces. Obtuvo cara en 12.012 de las tiradas. En cierto modo, esto es, en esencia, la teoría de la probabilidad. Esta disciplina nos proporciona información precisa acerca de los resultados recogidos en
un gran número
de experimentos;
[163]
no es capaz de predecir el resultado de un experimento específico. Si un experimento puede tener
n
resultados posibles, cada uno de ellos con la
misma
posibilidad de ocurrir, entonces la probabilidad de cada resultado es
1/n.
Si se tira un dado no cargado, la probabilidad de obtener el número 4 es 1/6, porque el dado tiene seis caras, y cada una de ellas es un resultado igualmente posible. Supongamos que se tira el dado siete veces seguidas y se saca un 4 cada vez; ¿cuál es la probabilidad de sacar un 4 en la siguiente tirada? La respuesta de la teoría de probabilidades es de una claridad meridiana: la probabilidad seguirá siendo de 1/6; el dado no tiene memoria; las nociones de «buena racha» o de que la tirada siguiente compensará el desequilibrio de las anteriores no son más que mitos. Lo único que es cierto es que, si lanzásemos el dado un millón de veces, los resultados se compensarían y, en promedio, el 4 aparecería 1/6 parte de las veces.
Vamos a examinar una situación un poco más complicada. Supongamos que lanzamos tres monedas al mismo tiempo. ¿Cuál es la probabilidad de sacar dos cruces y una cara? Podemos hallar la respuesta con sólo enumerar todos los resultados posibles. Si indicamos las caras con «C» y las cruces con «X», tenemos ocho resultados posibles: XXX, XXC, XCX, XCC, CXX, CXC, CCX, CCC. De éstos, como se puede comprobar, tres son favorables al suceso «dos cruces y una cara». Así, la probabilidad de este evento es de 3/8. O, para generalizar, si de
n
resultados con la
misma probabilidad,
ra son favorables al suceso que nos interesa, la probabilidad de que ese suceso ocurra es de
m/n.
Observe que eso se traduce en que el valor de la probabilidad está siempre entre cero y uno. Si el suceso que nos interesa es, en realidad, imposible, entonces
m
= 0 (ningún resultado es favorable) y la probabilidad sería cero. Si, por el contrario, el suceso es totalmente seguro, eso significa que los
n
casos son favorables (
m
=
n)
y que la probabilidad es simplemente
n/n =
1. Los resultados de los tres lanzamientos de moneda demuestran además otro importante resultado de la teoría de probabilidades: si tenemos varios sucesos completamente
independientes
entre sí,
la probabilidad de que todos ellos sucedan es el producto de las probabilidades individuales.
Por ejemplo, la probabilidad de sacar tres caras es de 1/8, es decir, el producto de las tres probabilidades de sacar cara en cada una de las tres monedas: 1/2 x 1/2 x 1/2 = 1/8.
Uno puede pensar ahora: de acuerdo pero, aparte de en los casinos y en otros juegos de azar, ¿qué otros usos podemos dar a estos conceptos básicos de probabilidades? Aunque cueste de creer, estas leyes de la probabilidad de aspecto inocuo se hallan en la base de la genética moderna, la ciencia de la herencia de caracteres biológicos.
La persona que unió la probabilidad con la genética fue un monje de Moravia.
[164]
Gregor Mendel (1822-1884) nació en un pueblo cercano a la frontera entre Moravia y Silesia (actualmente Hyncice, en la República Checa). Tras entrar en la abadía agustiniana de Santo Tomás, en Brno, estudió zoología, botánica y física y química en la Universidad de Viena. A su regreso a Brno, Mendel inició un activo período de experimentación con plantas de guisantes, con el entusiasta apoyo del abad de su monasterio. Mendel centró sus investigaciones en los guisantes porque eran de cultivo fácil, y también porque poseían órganos reproductivos masculinos y femeninos. De este modo, las plantas de guisantes podían autopolinizarse o cruzarse con otras plantas. Mediante la polinización cruzada de plantas que sólo producían semillas verdes con otras que sólo las producían amarillas, Mendel obtuvo resultados muy desconcertantes a primera vista (figura 34).
La primera generación de descendientes
sólo
tenía semillas amarillas. ¡Sin embargo, de forma constante la generación siguiente tenía una proporción de 3 a 1 entre semillas amarillas y verdes! A partir de estos asombrosos resultados, Mendel pudo extraer tres conclusiones que se convirtieron en importantes hitos de la genética:
(i) La herencia de una característica implica la transmisión de determinados «factores» (actualmente los llamamos genes) de padres a hijos.
(ii) Cada hijo hereda uno de estos «factores» de cada padre (para un rasgo determinado).
(iii) Aunque una característica específica no se manifieste en un descendiente, se puede transmitir a la siguiente generación.
Pero ¿cómo se pueden explicar los resultados
cuantitativos
del experimento de Mendel? Mendel propuso que cada una de las plantas padre tenía dos alelos (variedades de un gen) idénticos, ya fuesen dos amarillos (A) o dos verdes (V) (como en la figura 35).
Al aparearse entre sí, cada descendiente heredaba dos alelos distintos, uno de cada padre [según la regla (ii) mencionada]. Es decir, la semilla de cada descendiente contenía un alelo amarillo y uno verde. Entonces, ¿por qué los guisantes de esta generación eran todos amarillos? Según la explicación de Mendel, el amarillo era el color dominante y enmascaraba la presencia del alelo verde en esta generación [según la regla (iii)]. Sin embargo [siguiendo con la regla (iii)], el amarillo dominante no impedía que el verde recesivo pasase a la siguiente generación. En la siguiente ronda de apareamiento, cada planta con un alelo amarillo y uno verde era polinizada con otra planta que contenía la misma combinación de alelos. Puesto que el descendiente contenía un alelo de cada padre, las semillas de la generación siguiente podían contener una de las combinaciones siguientes (figura 35): verde-verde, verde-amarillo, amarillo-verde o amarillo-amarillo. Todas las semillas con un alelo amarillo se convertían en guisantes amarillos, porque el amarillo es dominante. Así, como todas las combinaciones de alelos tienen la misma probabilidad, la proporción entre guisantes amarillos y verdes debe ser 3:1.
No es difícil darse cuenta de que todo el ejercicio de Mendel es, en esencia, idéntico a lanzar dos monedas. Asignar cara a verde y cruz a amarillo y preguntar qué fracción de los guisantes serán amarillos (sabiendo que el amarillo es dominante para determinar el color) es exactamente lo mismo que preguntar cuál es la probabilidad de obtener
al menos
una cruz al tirar dos monedas. Obviamente, es 3/4, ya que tres de los cuatro posibles resultados (cruz-cruz, cruz-cara, cara-cruz, cara-cara) contienen una cruz. Eso significa que la proporción entre el número de tiradas que contienen al menos una cruz y el número de tiradas que no la contienen debería ser (a la larga) 3:1, como en los experimentos de Mendel.
A pesar de que Mendel publicó su artículo «Experimentos sobre hibridación de plantas» en 1865
[165]
(también presentó los resultados en dos congresos científicos), su obra pasó en general inadvertida hasta su redescubrimiento, a principios del siglo XX. Aunque han surgido algunas dudas acerca de la exactitud de sus resultados,
[166]
se le sigue considerando la primera persona que estableció las bases matemáticas de la genética moderna. Tras los pasos de Mendel, el influyente estadístico británico Ronald Aylmer Fisher
[167]
(1890-1962) estableció el campo de la genética de poblaciones (la rama matemática que se centra en la modelización de las distribuciones de genes dentro de una población y el cálculo de la variación temporal de las frecuencias de genes). Los actuales genetistas pueden utilizar muestreos estadísticos combinados con estudios de ADN en el pronóstico de las características más probables de un descendiente no nacido. Pero ¿cuál es realmente la relación entre probabilidad y estadística?
Los científicos que intentan desentrañar la evolución del universo suelen atacar el problema desde ambos extremos. Están los que empiezan por las minúsculas fluctuaciones en el tejido cósmico del universo primordial, y los que estudian hasta el más nimio detalle en el estado actual del universo. Los primeros utilizan enormes simulaciones informáticas con el fin de hacer evolucionar el universo hacia adelante. Los segundos se embarcan en el detectivesco trabajo de tratar de deducir el pasado del universo a partir de una multitud de datos sobre su estado actual. La relación entre la teoría de probabilidades y la estadística es similar. En teoría de probabilidades, las variables y el estado inicial son conocidos, y el objetivo consiste en predecir el resultado final más probable. En estadística, el resultado es conocido, pero las causas pasadas no lo son.
Vamos a examinar un ejemplo sencillo para ver de qué modo ambos campos se complementan y, por así decirlo, se encuentran a medio camino. Podemos empezar por el hecho de que los estudios estadísticos muestran que las mediciones de una amplia variedad de magnitudes físicas, e incluso muchas características humanas, se distribuyen siguiendo la
curva de frecuencias normal.
Para ser más exactos, la normal no es una curva, sino una familia de curvas que se pueden describir mediante una misma función general y que quedan caracterizadas mediante dos únicas cantidades matemáticas. La primera de ellas —la
media
— es el valor central y eje de simetría de la distribución. El valor real de la media depende, claro está, del tipo de variable medida (por ejemplo, peso, altura o CI). Incluso para una misma variable, la media puede ser distinta en diferentes poblaciones. Por ejemplo, la media de la altura de los hombres en Suecia es probablemente distinta que la de Perú. La segunda cantidad que define la curva normal se denomina
desviación estándar,
y mide cómo están agrupados los datos alrededor de la media.
En la figura 36, la curva normal (a) es la que tiene la mayor desviación estándar, ya que los valores en ella están más dispersos.
Pero aquí viene lo interesante: si utilizamos el cálculo integral para calcular las áreas bajo la curva, se puede demostrar matemáticamente que,
independientemente
de los valores de la media o de la desviación estándar, el 68,2 por 100 de los datos se hallan entre los valores que abarca una desviación estándar a cada lado de la media (como se muestra en la figura 37).