¿Hay algún caso en el que prefiera la O(log n)
complejidad del O(1)
tiempo a la complejidad del tiempo? O O(n)
para O(log n)
?
¿Tienes algún ejemplo?
algorithm
big-o
time-complexity
V.Leymarie
fuente
fuente
O(log n)
algoritmo a unO(1)
algoritmo si entendiera el primero, pero no el último ...Respuestas:
Puede haber muchas razones para preferir un algoritmo con mayor complejidad de tiempo de O grande sobre el inferior:
10^5
mejor desde el punto de vista de big-O que1/10^5 * log(n)
(O(1)
vsO(log(n)
), pero para el más razonable,n
el primero funcionará mejor. Por ejemplo, la mejor complejidad para la multiplicación de matrices esO(n^2.373)
pero la constante es tan alta que ninguna biblioteca computacional (que yo sepa) la use.O(n*log(n))
oO(n^2)
algoritmo.O(log log N)
complejidad de tiempo para encontrar un artículo, pero también hay un árbol binario que encuentra lo mismo en élO(log n)
. Incluso para un gran número den = 10^20
la diferencia es insignificante.O(n^2)
y requiereO(n^2)
memoria. Puede ser preferible con elO(n^3)
tiempo y elO(1)
espacio cuando la n no es realmente grande. El problema es que puedes esperar mucho tiempo, pero dudo mucho que puedas encontrar una RAM lo suficientemente grande como para usarla con tu algoritmoEn algunos lugares (seguridad), la complejidad puede ser un requisito. Nadie quiere tener un algoritmo de hash que pueda hacer hash de manera increíblemente rápida (porque entonces otras personas pueden imponerle una fuerza bruta más rápido)O(n^2)
, peor que la ordenación rápida o la fusión, pero como algoritmo en línea puede ordenar eficientemente una lista de valores a medida que se reciben (como entrada del usuario) donde la mayoría de los otros algoritmos solo pueden operar eficientemente en una lista completa de valores.fuente
Siempre existe la constante oculta, que puede ser inferior en el algoritmo O (log n ). Por lo tanto, puede funcionar más rápido en la práctica para datos de la vida real.
También hay problemas de espacio (por ejemplo, correr en una tostadora).
También existe una preocupación por el tiempo del desarrollador: O (log n ) puede ser 1000 veces más fácil de implementar y verificar.
fuente
lg n
es tan, tan, tank
granden
que la mayoría de las operaciones nunca notarían la diferencia.Me sorprende que nadie haya mencionado las aplicaciones vinculadas a la memoria todavía.
Puede haber un algoritmo que tenga menos operaciones de coma flotante, ya sea debido a su complejidad (es decir, O (1) < O (log n )) o porque la constante frente a la complejidad es menor (es decir, 2 n 2 <6 n 2 ) . De todos modos, aún puede preferir el algoritmo con más FLOP si el algoritmo FLOP más bajo está más ligado a la memoria.
Lo que quiero decir con "enlazado a memoria" es que a menudo está accediendo a datos que están constantemente fuera de la memoria caché. Para obtener estos datos, debe extraer la memoria de su espacio de memoria real en su caché antes de poder realizar su operación en ella. Este paso de recuperación suele ser bastante lento, mucho más lento que su propia operación.
Por lo tanto, si su algoritmo requiere más operaciones (sin embargo, estas operaciones se realizan en datos que ya están en caché [y, por lo tanto, no se requiere recuperación]), aún superará a su algoritmo con menos operaciones (que deben realizarse fuera de -cach datos [y por lo tanto requieren una búsqueda]) en términos de tiempo de pared real.
fuente
O(logn)
másO(1)
. Podrías imaginar fácilmente una situación en la que, para todo lo que sea posiblen
, la aplicación menos vinculada a la memoria se ejecutaría en un tiempo de pared más rápido, incluso a una mayor complejidad.En contextos donde la seguridad de los datos es una preocupación, un algoritmo más complejo puede ser preferible a un algoritmo menos complejo si el algoritmo más complejo tiene mejor resistencia a los ataques de sincronización .
fuente
(n mod 5) + 1
, todavía lo esO(1)
, pero revela información sobren
. Por lo tanto, un algoritmo más complejo con un tiempo de ejecución más suave puede ser preferible, incluso si puede ser asintóticamente (y posiblemente incluso en la práctica) más lento.Alistra lo logró, pero no proporcionó ningún ejemplo, así que lo haré.
Tiene una lista de 10,000 códigos UPC para lo que vende su tienda. UPC de 10 dígitos, entero para el precio (precio en centavos) y 30 caracteres de descripción para el recibo.
Enfoque O (log N): tiene una lista ordenada. 44 bytes si es ASCII, 84 si es Unicode. Alternativamente, trate el UPC como un int64 y obtendrá 42 y 72 bytes. 10,000 registros: en el caso más alto, está viendo un poco menos de un megabyte de almacenamiento.
Enfoque O (1): no almacene el UPC, en su lugar, úselo como una entrada en la matriz. En el caso más bajo, estás viendo casi un tercio de un terabyte de almacenamiento.
El enfoque que use depende de su hardware. En la mayoría de las configuraciones modernas razonables, utilizará el enfoque log N. Puedo imaginar que el segundo enfoque es la respuesta correcta si, por alguna razón, está ejecutando en un entorno donde la RAM es críticamente corta pero tiene mucho almacenamiento masivo. Un tercio de un terabyte en un disco no es gran cosa, obtener sus datos en una sonda del disco vale algo. El enfoque binario simple toma 13 en promedio. (Tenga en cuenta, sin embargo, que al agrupar sus claves puede reducir esto a 3 lecturas garantizadas y, en la práctica, almacenará en caché la primera).
fuente
malloc(search_space_size)
y suscribirse a lo que devuelve es tan fácil como parece.Considere un árbol rojo-negro. Tiene acceso, búsqueda, inserción y eliminación de
O(log n)
. Compare con una matriz, que tiene accesoO(1)
y el resto de las operaciones sonO(n)
.Entonces, dada una aplicación en la que insertamos, eliminamos o buscamos con más frecuencia de la que accedemos y una elección entre solo estas dos estructuras, preferiríamos el árbol rojo-negro. En este caso, podría decir que preferimos el
O(log n)
tiempo de acceso más engorroso del árbol rojo-negro .¿Por qué? Porque el acceso no es nuestra principal preocupación. Estamos haciendo una compensación: el rendimiento de nuestra aplicación está más influenciado por factores distintos a este. Permitimos que este algoritmo en particular sufra rendimiento porque hacemos grandes ganancias al optimizar otros algoritmos.
Entonces, la respuesta a su pregunta es simplemente esto: cuando la tasa de crecimiento del algoritmo no es lo que queremos optimizar , cuando queremos optimizar otra cosa. Todas las otras respuestas son casos especiales de esto. A veces optimizamos el tiempo de ejecución de otras operaciones. A veces optimizamos para la memoria. A veces optimizamos para la seguridad. A veces optimizamos la mantenibilidad. A veces optimizamos para el tiempo de desarrollo. Incluso la constante primordial que es lo suficientemente baja como para importar es optimizar el tiempo de ejecución cuando se sabe que la tasa de crecimiento del algoritmo no es el mayor impacto en el tiempo de ejecución. (Si su conjunto de datos estuviera fuera de este rango, optimizaría la tasa de crecimiento del algoritmo porque eventualmente dominaría la constante). Todo tiene un costo y, en muchos casos, cambiamos el costo de una tasa de crecimiento más alta por el algoritmo para optimizar otra cosa.
fuente
O(log n)
de "árbol rojo-negro"? Inserte de5
en la posición 2 de la matriz[1, 2, 1, 4]
resultará en[1, 2, 5, 1 4]
(elemento4
conseguirá índice actualizada de 3 a 4). ¿Cómo va a obtener este comportamiento enO(log n)
el "árbol rojo-negro" al que hace referencia como "lista ordenada"?Si.
En un caso real, realizamos algunas pruebas para realizar búsquedas de tablas con teclas de cadena cortas y largas.
Utilizamos un
std::map
, unstd::unordered_map
hash que muestrea como máximo 10 veces a lo largo de la cadena (nuestras teclas tienden a ser de tipo guid, por lo que esto es decente), y un hash que muestrea cada carácter (en teoría, colisiones reducidas), un vector sin clasificar donde hacemos una==
comparación, y (si no recuerdo mal) un vector sin clasificar donde también almacenamos un hash, primero compara el hash, luego compara los caracteres.Estos algoritmos van desde
O(1)
(unordered_map) aO(n)
(búsqueda lineal).Para N de tamaño modesto, con frecuencia la O (n) supera a la O (1). Sospechamos que esto se debe a que los contenedores basados en nodos requieren que nuestra computadora salte más en la memoria, mientras que los contenedores basados en lineal no.
O(lg n)
existe entre los dos. No recuerdo cómo fue.La diferencia de rendimiento no fue tan grande, y en conjuntos de datos más grandes, el basado en hash funcionó mucho mejor. Así que nos quedamos con el mapa desordenado basado en hash.
En la práctica, para un tamaño razonable n,
O(lg n)
esO(1)
. Si su computadora solo tiene espacio para 4 mil millones de entradas en su tabla, entoncesO(lg n)
está limitada por32
. (lg (2 ^ 32) = 32) (en informática, lg es la abreviatura de log basado en 2).En la práctica, los algoritmos lg (n) son más lentos que los algoritmos O (1) no por el factor de crecimiento logarítmico, sino porque la porción lg (n) generalmente significa que hay un cierto nivel de complejidad en el algoritmo, y esa complejidad agrega un factor constante mayor que cualquiera de los "crecimiento" del término lg (n).
Sin embargo, los algoritmos complejos de O (1) (como el mapeo hash) pueden tener fácilmente un factor constante similar o mayor.
fuente
La posibilidad de ejecutar un algoritmo en paralelo.
No sé si hay un ejemplo para las clases
O(log n)
yO(1)
, pero para algunos problemas, eliges un algoritmo con una clase de mayor complejidad cuando el algoritmo es más fácil de ejecutar en paralelo.Algunos algoritmos no pueden ser paralelizados pero tienen una clase de complejidad tan baja. Considere otro algoritmo que logre el mismo resultado y se pueda paralelizar fácilmente, pero que tenga una clase de mayor complejidad. Cuando se ejecuta en una máquina, el segundo algoritmo es más lento, pero cuando se ejecuta en varias máquinas, el tiempo de ejecución real disminuye y el primer algoritmo no puede acelerarse.
fuente
Digamos que está implementando una lista negra en un sistema integrado, donde los números entre 0 y 1,000,000 pueden estar en la lista negra. Eso te deja dos opciones posibles:
El acceso al bitset habrá garantizado un acceso constante. En términos de complejidad temporal, es óptimo. Tanto desde un punto de vista teórico como práctico (es O (1) con una sobrecarga constante extremadamente baja).
Aún así, es posible que desee preferir la segunda solución. Especialmente si espera que el número de enteros en la lista negra sea muy pequeño, ya que será más eficiente en la memoria.
E incluso si no se desarrolla para un sistema incrustado donde la memoria es escasa, solo puedo aumentar el límite arbitrario de 1,000,000 a 1,000,000,000,000 y hacer el mismo argumento. Entonces el bitset requeriría alrededor de 125G de memoria. Tener una complejidad garantizada en el peor de los casos de O (1) podría no convencer a su jefe de proporcionarle un servidor tan poderoso.
Aquí, preferiría una búsqueda binaria (O (log n)) o un árbol binario (O (log n)) sobre el conjunto de bits O (1). Y probablemente, una tabla hash con su peor complejidad de O (n) los superará a todos en la práctica.
fuente
Mi respuesta aquí La selección ponderada aleatoria rápida en todas las filas de una matriz estocástica es un ejemplo en el que un algoritmo con complejidad O (m) es más rápido que uno con complejidad O (log (m)), cuando
m
no es demasiado grande.fuente
La gente ya ha respondido su pregunta exacta, por lo que abordaré una pregunta ligeramente diferente en la que la gente podría estar pensando cuando venga aquí.
Muchos de los algoritmos de "O (1) tiempo" y las estructuras de datos en realidad solo toman el tiempo esperado de O (1), lo que significa que su tiempo de ejecución promedio es O (1), posiblemente solo bajo ciertos supuestos.
Ejemplos comunes: tablas hash, expansión de "listas de matrices" (también conocidas como matrices / vectores de tamaño dinámico).
En tales escenarios, es posible que prefiera utilizar estructuras de datos o algoritmos cuyo tiempo se garantice absolutamente limitado logarítmicamente, a pesar de que su rendimiento promedio sea peor.
Por lo tanto, un ejemplo podría ser un árbol de búsqueda binario equilibrado, cuyo tiempo de ejecución es peor en promedio pero mejor en el peor de los casos.
fuente
Una pregunta más general es si hay situaciones en las que uno preferiría un
O(f(n))
algoritmo a unO(g(n))
algoritmo a pesar deg(n) << f(n)
quen
tiende al infinito. Como otros ya han mencionado, la respuesta es claramente "sí" en el caso dondef(n) = log(n)
yg(n) = 1
. A veces es sí, incluso en el caso de quef(n)
sea polinomial perog(n)
exponencial. Un ejemplo famoso e importante es el del Algoritmo Simplex para resolver problemas de programación lineal. En la década de 1970 se demostró que eraO(2^n)
. Por lo tanto, su peor comportamiento es inviable. Pero su comportamiento promedio es extremadamente bueno, incluso para problemas prácticos con decenas de miles de variables y restricciones. En la década de 1980, los algoritmos de tiempo polinomiales (comoSe descubrió el algoritmo de punto interior de Karmarkar ) para la programación lineal, pero 30 años después, el algoritmo simplex todavía parece ser el algoritmo de elección (a excepción de ciertos problemas muy grandes). Esto es por la razón obvia de que el comportamiento de caso promedio es a menudo más importante que el comportamiento de caso peor, pero también por una razón más sutil de que el algoritmo simplex es en cierto sentido más informativo (por ejemplo, la información de sensibilidad es más fácil de extraer).fuente
Para poner mis 2 centavos en:
A veces, se selecciona un algoritmo de peor complejidad en lugar de uno mejor, cuando el algoritmo se ejecuta en un determinado entorno de hardware. Supongamos que nuestro algoritmo O (1) accede de manera no secuencial a cada elemento de una matriz muy grande de tamaño fijo para resolver nuestro problema. Luego coloque esa matriz en un disco duro mecánico o una cinta magnética.
En ese caso, el algoritmo O (logn) (supongamos que accede al disco secuencialmente), se vuelve más favorable.
fuente
Hay un buen caso de uso para usar un algoritmo O (log (n)) en lugar de un algoritmo O (1) que las otras numerosas respuestas han ignorado: la inmutabilidad. Los mapas hash tienen O (1) put y gets, suponiendo una buena distribución de los valores hash, pero requieren un estado mutable. Los mapas de árboles inmutables tienen O (log (n)) put y gets, que es asintóticamente más lento. Sin embargo, la inmutabilidad puede ser lo suficientemente valiosa como para compensar el peor rendimiento y, en el caso de que se deban retener varias versiones del mapa, la inmutabilidad le permite evitar tener que copiar el mapa, que es O (n), y por lo tanto puede mejorar actuación.
fuente
Simplemente: porque el coeficiente, los costos asociados con la configuración, el almacenamiento y el tiempo de ejecución de ese paso, puede ser mucho, mucho mayor con un problema de Big-O más pequeño que con uno más grande. Big-O es solo una medida de la escalabilidad de los algoritmos .
Considere el siguiente ejemplo del Hacker's Dictionary, que propone un algoritmo de clasificación basado en la Interpretación de la mecánica cuántica de mundos múltiples :
(Fuente: http://catb.org/~esr/jargon/html/B/bogo-sort.html )
Observe que el big-O de este algoritmo es
O(n)
, que supera a cualquier algoritmo de clasificación conocido hasta la fecha en elementos genéricos. El coeficiente del paso lineal también es muy bajo (ya que es solo una comparación, no un intercambio, que se hace linealmente). De hecho, se podría usar un algoritmo similar para resolver cualquier problema en NP y co-NP en tiempo polinómico, ya que cada posible solución (o posible prueba de que no hay solución) se puede generar utilizando el proceso cuántico, y luego se verifica en tiempo polinomial.Sin embargo, en la mayoría de los casos, probablemente no queremos correr el riesgo de que Múltiples mundos no sean correctos, sin mencionar que el acto de implementar el paso 2 todavía "se deja como un ejercicio para el lector".
fuente
En cualquier punto cuando n está acotado y el multiplicador constante del algoritmo O (1) es mayor que el límite en log (n). Por ejemplo, almacenar valores en un hashset es O (1), pero puede requerir un cálculo costoso de una función hash. Si los elementos de datos se pueden comparar trivialmente (con respecto a algún orden) y el límite en n es tal que log n es significativamente menor que el cálculo de hash en cualquier elemento, entonces el almacenamiento en un árbol binario equilibrado puede ser más rápido que el almacenamiento en un hashset
fuente
En una situación en tiempo real en la que necesita un límite superior firme, seleccionaría, por ejemplo, un montón en lugar de un Quicksort, porque el comportamiento promedio del montón también es el peor de los casos.
fuente
Además de las respuestas ya buenas, un ejemplo práctico sería los índices Hash frente a los índices del árbol B en la base de datos de Postgres.
Los índices hash forman un índice de tabla hash para acceder a los datos en el disco, mientras que btree, como su nombre indica, utiliza una estructura de datos Btree.
En Big-O, estos son O (1) vs O (logN).
Los índices de hash actualmente se desaconsejan en postgres ya que en una situación de la vida real, particularmente en sistemas de bases de datos, lograr el hash sin colisión es muy difícil (puede conducir a una complejidad O (N) en el peor de los casos) y debido a esto, es aún más difícil de hacer ellos se bloquean a salvo (llamado registro de escritura anticipada - WAL en postgres).
Esta compensación se realiza en esta situación ya que O (logN) es lo suficientemente bueno para los índices y la implementación de O (1) es bastante difícil y la diferencia horaria realmente no importaría.
fuente
Cuando
n
es pequeño, yO(1)
es constantemente lento.fuente
o
fuente
fuente
Este suele ser el caso de las aplicaciones de seguridad que queremos diseñar problemas cuyos algoritmos son lentos a propósito para evitar que alguien obtenga una respuesta a un problema demasiado rápido.
Aquí hay un par de ejemplos fuera de mi cabeza.
O(2^n)
momento con suerte, donden
está la longitud de la clave (esto es fuerza bruta).En otras partes de CS, Quick Sort está
O(n^2)
en el peor de los casos, pero en el caso general esO(n*log(n))
. Por esta razón, el análisis "Big O" a veces no es lo único que le importa al analizar la eficiencia del algoritmo.fuente