¿Cuál es la diferencia entre Big-O notación O(n)
y pequeño-O notación o(n)
?
fuente
¿Cuál es la diferencia entre Big-O notación O(n)
y pequeño-O notación o(n)
?
f ∈ O (g) dice, esencialmente
Para al menos una opción de una constante k > 0, puede encontrar una constante a tal que la desigualdad 0 <= f (x) <= kg (x) se mantenga para todo x> a.
Tenga en cuenta que O (g) es el conjunto de todas las funciones para las que se cumple esta condición.
f ∈ o (g) dice, esencialmente
Para cada elección de una constante k > 0, puede encontrar una constante a tal que la desigualdad 0 <= f (x) <kg (x) se mantenga para todas las x> a.
Una vez más, tenga en cuenta que o (g) es un conjunto.
En Big-O, solo es necesario que encuentre un multiplicador particular k para el cual la desigualdad se mantenga más allá de algún mínimo x .
En Little-o, debe ser que hay un mínimo x después del cual la desigualdad se mantiene sin importar cuán pequeño haga k , siempre que no sea negativo o cero.
Ambos describen límites superiores, aunque algo contraintuitivamente, Little-o es la declaración más fuerte. Existe una brecha mucho mayor entre las tasas de crecimiento de f y g si f ∈ o (g) que si f ∈ O (g).
Una ilustración de la disparidad es esta: f ∈ O (f) es verdadera, pero f ∈ o (f) es falsa. Por lo tanto, Big-O puede leerse como "f ∈ O (g) significa que el crecimiento asintótico de f no es más rápido que el de g", mientras que "f ∈ o (g) significa que el crecimiento asintótico de f es estrictamente más lento que el de g". Es como <=
versus <
.
Más específicamente, si el valor de g (x) es un múltiplo constante del valor de f (x), entonces f ∈ O (g) es verdadero. Es por eso que puede soltar constantes cuando trabaja con notación big-O.
Sin embargo, para que f ∈ o (g) sea cierto, entonces g debe incluir una mayor potencia de x en su fórmula, por lo que la separación relativa entre f (x) y g (x) en realidad debe aumentar a medida que x aumenta.
Para usar ejemplos puramente matemáticos (en lugar de referirse a algoritmos):
Lo siguiente es cierto para Big-O, pero no sería cierto si usaras little-o:
Lo siguiente es cierto para little-o:
Tenga en cuenta que si f ∈ o (g), esto implica f ∈ O (g). por ejemplo, x² ∈ o (x³), por lo que también es cierto que x² ∈ O (x³), (nuevamente, piense en O as <=
y o as <
)
a
que hayk
que: ...", que es "por cadak
hay unaa
que: ..."Big-O es a little-o como
≤
es<
. Big-O es un límite superior inclusivo, mientras que little-o es un límite superior estricto.Por ejemplo, la función
f(n) = 3n
es:O(n²)
,o(n²)
yO(n)
O(lg n)
,o(lg n)
oo(n)
Análogamente, el número
1
es:≤ 2
`< 2
` y≤ 1
≤ 0
,< 0
o< 1
Aquí hay una tabla que muestra la idea general:
(Nota: la tabla es una buena guía, pero su definición de límite debe ser en términos del límite superior en lugar del límite normal. Por ejemplo,
3 + (n mod 2)
oscila entre 3 y 4 para siempre. Está dentro aO(1)
pesar de no tener un límite normal, porque todavía tiene alim sup
: 4.)Recomiendo memorizar cómo la notación Big-O se convierte en comparaciones asintóticas. Las comparaciones son más fáciles de recordar, pero menos flexibles porque no se pueden decir cosas como n O (1) = P.
fuente
Encuentro que cuando no puedo comprender algo conceptualmente, pensar en por qué uno usaría X es útil para entender X. (Sin decir que no lo has intentado, solo estoy preparando el escenario).
[cosas que sabes] Una forma común de clasificar algoritmos es en tiempo de ejecución, y citando la complejidad de un algoritmo big-Oh, puedes obtener una muy buena estimación de cuál es "mejor", el que tenga la función "más pequeña" en el O! Incluso en el mundo real, O (N) es "mejor" que O (N²), salvo cosas tontas como constantes supermasivas y similares. [/ Cosas que sabes]
Digamos que hay algún algoritmo que se ejecuta en O (N). Bastante bien, ¿eh? Pero digamos que (usted, persona brillante, usted) se le ocurre un algoritmo que se ejecuta en O ( N ⁄ loglogloglogN ). ¡HURRA! ¡Es mas rapido! Pero te sentirías tonto escribiendo eso una y otra vez cuando escribes tu tesis. Entonces, lo escribe una vez y puede decir: "En este documento, he demostrado que el algoritmo X, previamente computable en el tiempo O (N), es de hecho computable en o (n)".
Por lo tanto, todos saben que su algoritmo es más rápido, por cuánto no está claro, pero saben que es más rápido. Teóricamente :)
fuente