El «problema del coleccionista de cupones» consiste en determinar el número esperado o medio de cupones que hay que comprar para conseguir una colección de N cupones diferentes.
En cada compra se puede adquirir un único sobre que contiene un único cupón. Todas estas compras se realizan en el tiempo de forma independiente y cada cupón tiene la misma probabilidad de ser conseguido -en estadística diríamos que se trata de una muestra con reemplazamiento.
Ejemplos de este problema puede ser hacer una colección de N muñecos que vienen de uno en uno en cajas de galletas -no sabemos que muñeco viene en cada caja pero sí que todos ellos tienen la misma probabilidad de venir-, hacer una colección de N cromos sabiendo que en cada sobre viene un único cromo, etc.
La pregunta por tanto es, ¿cuántos sobres -cajas de galletas, etc- hay que comprar para obtener toda la colección?.
Se sabe que el valor esperado de sobres a comprar para grandes N es
$N \cdot \ln N$
Para conseguir una colección de 400 cromos el valor esperado de sobres a comprar es $400 \cdot \ln 400=2396$.
Veamos de dónde sale esto -es muy interesante.
Primero, refresquemos algunos conceptos:
¿Qué entendemos por el valor esperado? -más formalmente diríamos: esperanza matemática o valor esperado de una variable aleatoria discreta.
Llamemos $p$ a la probabilidad de éxito.
Ahora supongamos que al lanzar una moneda:
- Si sale CARA: Obtienes 10 euros. $+10 \cdot p_1=$5
- Si sale CRUZ: Pagas 5 euros. $-5 \cdot p_2=-$2,5
En este caso $p_1$ y $p_2$ son iguales (probabilidad $\frac{1}{2}$), pero en otros ejemplos podría no ser así, por lo que lo generalizamos indicando que podrían ser valores distintos. Sumando ambos resultados tenemos +5 – 2,5=2,5
Como este resultado es positivo, ello significa que, a la larga, jugando a este juego el valor esperado de ganancia será 2,5
Llamamos $x_i$ al valor de cada suceso y $p_i$ a la probabilidad de ese $x_i$
En general, el valor esperado de un evento $x$ y lo denotamos como $E[x]$
$E[x]=x_1 \cdot p_1+x_2 \cdot p_2+…+x_n\cdot p_n=\sum_{i=1}^{n} {x_i \cdot p_i}$
Cuando la esperanza matemática es cero, $E[x] = 0$, el juego es equitativo, es decir, no existe ventaja para nadie.
Veamos un pequeño ejemplo:
Si una persona compra una papeleta en una rifa, en la que puede ganar un primer premio de 6.000 € o un segundo premio de 2000 € con probabilidades de: 0,002 y 0,003. ¿Cuál sería el precio justo a pagar por la papeleta?
$E[x] = 6000 \cdot 0,002 + 2000 \cdot 0,003 = 18 $€
Ensayos de Bernoulli.
Desde el punto de vista de la teoría de la probabilidad, llamamos experimientos o ensayos de Bernoulli a los que están modelados por una variable aleatoria que puede tomar sólo dos valores, 0 y 1. Habitualmente, se utiliza el 1 para representar el éxito.
$p$ es la probabilidad de ocurrencia del evento y $q=(1-p)$ lo contrario.
Los experimentos de Bernoulli tienen dos únicas posibles salidas/resultados así que pueden entenderse también como una respuesta del tipo Sí o No
Ejemplos de experimentos o ensayos de Bernoulli son:
¿Es la carta de arriba de la baraja un rey?
Lanzar una moneda al aire es también un ejemplo de experimento de Bernoulli. La cara suele denotar éxito y cruz fracaso.
Lanzar un dado en el que sacar un 1 es éxito y sacar otro valor es fracaso es otro ejemplo.
Un referendum en el que un votante puede votar sí o no.
En este tipo de ensayos, la esperanza es $p$.
Definimos una variable $x$ como $x = 1$ si éxito y $x= 0$ si fracaso
$E[X] = p \cdot 1 + (1 − p) \cdot 0 = p$
Distribución Geométrica.
Sus tres características principales son:
- Hay uno o más ensayos de Bernoulli en los que todos son fallos excepto el último de ellos que es un éxito, es decir, repites lo que estás haciendo hasta obtener un éxito.
- La probabilidad p de éxito y la q de fracaso es la misma siempre para cada ensayo (p+q=1).
Lo que mide la variable aleatoria geométrica es el número de pruebas que tienen que ocurrir para tener el primer éxito, o dicho de otra forma, cuantas veces tenemos que observar, para observar el primer éxito.
Veamos un ejemplo. La probabilidad de obtener un 3 al lanzar un dado es $\frac{1}{6}$ y es la misma independientemente del número de veces que se lance el dado. La probabilidad de obtener un 3 en el quinto lanzamiento es:
$\frac{5}{6}\cdot\frac{5}{6} \cdot \frac{5}{6} \cdot \frac{5}{6} \cdot \frac{1}{6}$
(cuatro fracasos y un éxito)
x = número de ensayos independientes hasta conseguir el primer éxito.
Generalizando decimos que:
Si la probabilidad de éxito en cada lanzamiento es $p$, entonces la probabilidad de que en el n-esimo lanzamiento tengamos el primer éxito es
$P(x=n)=(1-p)^{n-1} \cdot p$
En estos casos, la esperanza es $E[x]=\frac{1}{p}$ y nos dice cuantos lanzamientos esperamos lanzar hasta conseguir el primer éxito -aquí se incluye los fracasos más el ensayo final que es éxito.
Demostremos que $E[x]=\frac{1}{p}$
La variable aleatoria geométrica $x$ mide el número de pruebas en las que ocurre el primer éxito. ¿Con qué eventos podemos trabajar?
Evento 1. Ocurre el Exito E a la primera.
Evento 2: Ocurre el éxito a la segunda, es decir, tenermos un fracaso y un éxito $F \cdot E$. Hemos tenido que observar dos veces.
Evento 3. Ocurre el éxito a la tercera. $F \cdot F \cdot E$
Evento x. Sería $F_1 \cdot F_2 \cdot …\cdot F_{x-1} \cdot E$
Donde x es cuantas veces tengo que observar para obtener el primer éxito.
La probabilidad de que ocurra x es la probabilidad de la intersección de todos estos eventos, es decir
$P(x)=q^{x-1} \cdot p$ con x=1, 2, 3…
La probabilidad de los x-1 fracasos y luego el éxito.
Vamos a empezar ya con la demostración de que la experanza $E[x]=\frac{1}{p}$
$E[x]=\sum_{x=1}^{n} {x \cdot P(x) }=\sum_{x=1}^{n} {x \cdot q^{x-1} \cdot p} = p \cdot \sum_{x=1}^{n} {x \cdot q^{x-1} }$ =
Aquí un recordatorio sencillo de derivadas:
$\frac{d}{dq}[q^x] = x \cdot q^{x-1}$
Además, la derivada de la suma es igual a la suma de las derivadas.
Por lo tanto, podemos continuar
=$p \cdot \sum_{x=1}^{\infty} {\frac{d}{dq}[q^x]}=p \cdot {\frac{d}{dq} [\sum_{x=1}^{\infty} {q^x}}]$=
Aquí otro recordatorio:
$\sum_{x=1}^{\infty} {q^x}$ cuando q<1 ,como es nuestro caso, converge a $\frac{q}{1-q}$
Continuemos:
= $p \cdot \frac{d}{dq} [\frac{q}{1-q}]=p \cdot \frac{1}{(1-q)^2}=\frac{p}{p^2}=\frac{1}{p}$
Quod erat demonstrandum QED
Volvamos a suponer un experimento que consiste en el lanzamiento de un dado. ¿Cuál es el número esperado de intentos hasta obtener por ejemplo un 5?
Como $E[x]=\frac{1}{p}$ y $p=\frac{1}{6},, E[x]=6$
El número de intentos para obtener el primer 5 es 6, si tiramos el dado 6 veces, esperamos que al menos uno sea un 5.
Volviendo al problema inicial, si tenemos N cupones, ¿cuál es el valor esperado de cupones a comprar para obtener todos y cada uno de los cupones?
Si la colección constase de 5 cupones:
Primera compra: la probabilidad de obtener un cupón que no tengo es: P(cupón nuevo)=$\frac{5}{5}$
Segunda compra: P(cupón nuevo)=$\frac{4}{5}$
Tercera compra: P(cupón nuevo)=$\frac{3}{5}$
Cuarta compra: P(cupón nuevo)=$\frac{2}{5}$
Quinta compra: P(cupón nuevo)=$\frac{1}{5}$
En general, si tengo 5 cupones, la probabilidad de obtener un cupón nuevo en la iteración i es (consideramos la primera iteración i=0, la segunda i=1,…) es:
P(cupón nuevo)=$\frac{5-i}{5}$
Generalizando
$P_i=\frac{N-i}{N}$
La probabilidad de obtener el primero cupón es $P_0$, el segundo cupón $P_1$, el tercer cuón $P_2$, etc.
E[i-ésimo cupón nuevo]=$\frac{1}{p_i}$
El número esperado de intentos antes de obtener el i-ésimo cupón nuevo es $\frac{1}{p_i}$
Sustituyendo $p_i$ por su valor
E[i-ésimo cupón nuevo]=\frac{N}{N-i}
$E[n]=E[n-1]+\frac{1}{p_{n-1}}$
$E[n]=E[n-2]+\frac{1}{p_{n-1}}++\frac{1}{p_{n-2}}$
…
$E[n]=\frac{1}{p_0}+\frac{1}{p_1}+…+\frac{1}{p_{n-1}}$
$E[n]=\frac{N}{N}+\frac{N}{N-1}+…+\frac{N}{1}$
$E[n]=N \cdot (\frac{1}{N}+\frac{1}{N-1}+…+\frac{1}{1})$
$E[n]=N \cdot (1+\frac{1}{2}+\frac{1}{3}+…+\frac{1}{N})$
Lo que tenemos entre paréntesis el lo que llamamos el Número Armónico que para N grandes tiende a $\ln N$
es decir $E[n] \approx N \cdot \ln (N)$
QED