Tengo un CSV que contiene 200 millones de observaciones con el siguiente
Tengo un CSV que contiene 200 millones de observaciones con el siguiente
¿Existen bases de datos gratuitas o con precios razonables para los EE. UU. Que puedan buscarse y devolver información de latitud y
Tengo un gran conjunto de puntos de datos que esencialmente representan la costa del mundo. No sé la resolución exacta, pero diría que está cerca de 5-10 m. Imagine un conjunto de puntos que representan una costa irregular. Con una resolución de 1 m, vemos todos los detalles y necesitamos 50...
A menudo me encuentro en una situación en la que no me importa si mi herramienta produce o no una nueva clase de entidad, pero me importa cuánto tiempo lleva combinar todos mis grandes conjuntos de datos. ¿Se tarda más en producir una nueva clase de entidad utilizando la herramienta Fusionar en...
Para "fines de alquiler", tengo que especificar los recursos informáticos que necesito del centro informático de mi universidad. Tengo muy poca idea de qué pedir. Teniendo en cuenta la siguiente información, ¿puede sugerir algo? Este es el clúster computacional: "Un servidor de diez blades con...
Tengo una consulta PostGIS que devolverá varios millones de filas: SELECT t1.id AS id1, t2.id AS id2, ABS(t1.mean_h - t2.mean_h) AS h_diff, ST_Distance(t1.the_geom, t2.the_geom) AS dist FROM tas_ponds as t1, tas_ponds as t2 WHERE (t1.gid > t2.gid) AND ST_DWithin(t1.the_geom,...
Tengo un conjunto de sitios en los miles. No todos los usuarios ven los mismos Sitios en el mapa, por lo tanto, ACL. Los datos se almacenan en una base de datos no GIS (mssql, ora, etc.) y ahora se recuperan con una consulta SQL estándar y se devuelven al cliente (OpenLayers) con un JSP. El código...
El problema que enfrento tiene los siguientes antecedentes: Estamos geocodificando un inmenso directorio de registros. Es algo que supera los 100 millones de direcciones. He dividido las direcciones en una razón geográfica tan pequeña como creo que es factible, afirma. Aun así, un solo estado...
¿Cómo se puede calcular un ráster de manera eficiente (en Python), dado un conjunto que consiste en miles de millones de cuadros delimitadores (leídos secuencialmente de un archivo), y dado que los valores de ráster para cada celda deben dar el número de cuadros delimitadores superpuestos? Para...
Tengo una gran nube de puntos (archivo LAS) y estoy tratando de diluir esto usando una técnica compleja. Sé que es posible diluir una nube de puntos utilizando técnicas simples, como extraer cada enésimo punto. Sin embargo, la nube de puntos con la que estoy trabajando es más densa en algunas áreas...