Variación estadística en dos formatos de calificación de Fórmula 1

15

Acabo de leer este artículo de la BBC sobre el formato de calificación en la Fórmula 1.

Los organizadores desean que la calificación sea menos predecible, es decir, aumentar la variación estadística en el resultado. Pasando por alto algunos detalles irrelevantes, en este momento los pilotos están clasificados por su mejor sola vuelta de (para concretar) dos intentos.

Un jefe de F1, Jean Todt, propuso que clasificar a los pilotos por el promedio de dos vueltas aumentaría la variación estadística, ya que los conductores podrían tener el doble de probabilidades de cometer un error. Otras fuentes argumentaron que cualquier promedio seguramente disminuiría la variación estadística.

¿Podemos decir quién tiene razón bajo supuestos razonables? Supongo que se reduce a la varianza relativa de la media(X,y) versus min(X,y) , donde X e y son variables aleatorias que representan los dos tiempos de vuelta de un conductor.

innisfree
fuente

Respuestas:

5

Creo que depende de la distribución de los tiempos de vuelta.

Deje ser independiente, idénticamente distribuido.X,Y

  1. Si , entoncesVar(X+YPAG(X=0 0)=PAG(X=1)=12Var(X+Y2)=18<Var(min(X,Y))=316.
  2. Sin embargo, si , entonces V a r ( X + YP(X=0)=0.9,P(X=100)=0.1Var(X+Y2)=450>Vunr(min(X,Y))=99)

Esto está en línea con el argumento mencionado en la pregunta sobre cometer un error (es decir, correr un tiempo excepcionalmente largo con una pequeña probabilidad). Por lo tanto, tendríamos que conocer la distribución de los tiempos de vuelta para decidir.

sandris
fuente
Interesante, supongo que algo como esto también funciona para rvs continuos. ¿Qué salió mal exactamente en la prueba anterior?
innisfree
1
Según tengo entendido, argumenta que dado , la distancia entre x y la media siempre es menor que la distancia entre x y min ( x , y ) , por lo tanto, la varianza de la media debe ser menor que la varianza de min ( x , y ) . Esto, sin embargo, no sigue: min ( x , y )XyXXmin(X,y)min(X,y)min(X,y)puede mantenerse constantemente lejos mientras que la media varía mucho. Si la prueba se basara en un cálculo real, sería más fácil determinar el lugar exacto donde sale mal (o verificar que es válido después de todo).
sandris
2

Sin pérdida de generalidad, suponga y que ambas variables se obtienen de la misma distribución con una media y varianza particulares.yx

mejora en { x } por,{y,x}{x}

caso 1, media: ,yx2

caso 2, min: .yx

Por lo tanto, la media tiene la mitad del efecto sobre la mejora (que es impulsado por la varianza) que la toma del mínimo (para 2 ensayos). Es decir, la media amortigua la variabilidad.

James
fuente
No estoy convencido de que esto sea correcto, ¿podría dar una explicación formal?
sandris
2

Aquí está mi prueba de Var [media]

Para 2 variables aleatorias x, y hay una relación entre su media y max y min.

2Mean(x,y)=Min(x,y)+Max(x,y)
4Var[Mean]=Var[Min]+Var[Max]+2Cov[Min,Max]
Var[Min(x,y)]=Var[Max(x,y)]
4Var[Mean]=2Var[Min]+2Cov[Min,Max]
and
Cov[Min,Max]<=sqrt(Var[Min]Var[Max])=Var[Min]
Therefore
Var[Mean]<=Var[Min]
It is also easy to see from this derivation that in order to reverse this inequality you need a distribution with very sharp truncation of the distribution on the negative side of the mean. For example for the exponential distribution the mean has a larger variance than the min.
sega_sai
fuente
1

Nice question, thank you! I agree with @sandris that distribution of lap times matters, but would like to emphasize that causal aspects of the question need to be addressed. My guess is that F1 wants to avoid a boring situation where the same team or driver dominates the sport year after year, and that they especially hope to introduce the (revenue-generating!) excitement of a real possibility that 'hot' new drivers can suddenly arise in the sport.

That is, my guess is that there is some hope to disrupt excessively stable rankings of teams/drivers. (Consider the analogy with raising the temperature in simulated annealing.) The question then becomes, what are the causal factors at work, and how are they distributed across the population of drivers/teams so as to create persistent advantage for current incumbents. (Consider the analogous question of levying high inheritance taxes to 'level the playing field' in society at large.)

Suppose incumbent teams are maintaining incumbency by a conservative strategy heavily dependent on driver experience, that emphasizes low variance in lap times at the expense of mean lap time. Suppose that by contrast the up-and-coming teams with (say) younger drivers, necessarily adopt a more aggressive (high-risk) strategy with larger variance, but that this involves some spectacular driving that sometimes 'hits it just right' and achieves a stunning lap time. Abstracting away from safety concerns, F1 would clearly like to see some such 'underdogs' in the race. In this causal scenario, it would seem that a best-of-n-laps policy (large n) would help give the upstarts a boost -- assuming that the experienced drivers are 'set in their ways', and so couldn't readily adapt their style to the new policy.

Supongamos, por otro lado, que la falla del motor es un evento incontrolable con la misma probabilidad en todos los equipos, y que las clasificaciones actuales reflejan correctamente la gradación genuina en la calidad del piloto / equipo en muchos otros factores. En este caso, la mala suerte de una falla del motor promete ser el único 'factor de nivelación' que la F1 podría explotar para lograr una mayor igualdad de oportunidades, al menos sin manipulaciones de clasificación que destruyan la apariencia de 'competencia'. En este caso, una política que penaliza en gran medida las fallas del motor (que son el único factor en este escenario que no opera relativamente a favor de los titulares) promete promover la inestabilidad en las clasificaciones. En este caso, la mejor política de n mencionada anteriormente sería exactamente la política incorrecta a seguir.

David C. Norris
fuente
0

Por lo general, estoy de acuerdo con otras respuestas en que el promedio de dos ejecuciones tendrá una variación menor, pero creo que están omitiendo aspectos importantes subyacentes al problema. Mucho tiene que ver con cómo los conductores reaccionan a las reglas y sus estrategias para la calificación.

Por ejemplo, con solo una vuelta para calificar, los pilotos serían más conservadores y, por lo tanto, más predecibles y más aburridos de ver. La idea con dos vueltas es permitir a los pilotos arriesgarse en una para tratar de obtener esa "vuelta perfecta", con otra disponible para una carrera conservadora. Más carreras consumirían mucho tiempo, lo que también podría ser aburrido. La configuración actual podría ser el "punto ideal" para obtener la mayor acción en el menor tiempo posible.

También tenga en cuenta que con un enfoque de promedio, el conductor necesita encontrar el tiempo de vuelta repetible más rápido. Con el enfoque mínimo, el conductor necesita conducir lo más rápido posible solo una vuelta, probablemente empujando más lejos de lo que lo haría bajo el enfoque promedio.

Esta discusión está más cerca de la teoría de juegos. Su pregunta podría obtener mejores respuestas cuando se enmarca en esa luz. Entonces, uno podría proponer otras técnicas, como la opción de que un conductor pierda el tiempo de la primera vuelta en favor de una segunda carrera, y posiblemente un tiempo más rápido o más lento. Etc.

También tenga en cuenta que este año se intentó un cambio en la calificación que generalmente empujó a los pilotos a una vuelta conservadora. https://en.wikipedia.org/wiki/2016_Formula_One_season#Qualifying El resultado fue visto como un desastre y se canceló rápidamente.

Maddenker
fuente