Recientemente compré un Dell XPS-8300 (i7-2600 | 16 GB DDR3 RAM | Windows7 de 64 bits) que tengo la intención de usar principalmente para programas SIG. Compré un modelo restaurado porque era mucho más barato y porque puedo elegir una tarjeta gráfica propia.
Actualmente estoy en el proceso de comprar dicha tarjeta, pero realmente no he visto mucha información sobre qué tipos de tarjetas son óptimas para la representación de ArcMap o QGIS en comparación con Battlefield 3 o Skyrim.
Actualmente estoy viendo una XFX AMD Radeon HD6870 PCIE 2GB Dual Mini o una XFX AMD Radeon HD 6870 900M 1 GB DDR5 DUAL MINIDP HDMI DUAL DVI PCI-E Tarjeta de video
El modelo de 2 GB cuesta aproximadamente $ 40 más que el de 1 GB.
Tengo una fuente de alimentación de 460 vatios y no sé si el ram adicional afecta el consumo de energía. El modelo de 1 GB, de todas las revisiones, debería funcionar bien con mi sistema, por lo que espero que los 2 GB también funcionen bien.
Sin embargo, dado que ya tengo 16 GB de memoria RAM incorporada y he leído que la RAM de la GPU no es realmente importante a menos que vaya por debajo de la cantidad necesaria para un programa y configuraciones determinados, me pregunto si este GB adicional valdría la pena para mis propósitos. :
Por ejemplo, si tengo un conjunto de datos de parcela con cientos de miles de polígonos, ¿ese GB extra de RAM GDDR5 mejoraría significativamente el tiempo que lleva renderizar los polígonos cuando me desplazo / acerco a ARCmap / QGIS; ¿O en su mayoría no tiene valor debido al hecho de que ya tengo 16 GB que se pueden usar?
¿También existen ventajas / desventajas específicas al usar una tarjeta ATI vs NVIDIA para programas de visualización GIS en general?
Respuestas:
Cualquier tarjeta de video antigua funcionará para las funciones de visualización 2D. Las capacidades 3D de la tarjeta de video solo entran en juego cuando se utilizan características específicas de GIS 3D como ArcScene o ArcGlobe en ArcGIS Desktop. Si no está planeando hacer una visualización en 3D, no importa un poco.
En cambio, gastaría el dinero extra en un SSD .
fuente
Solía comparar las tarjetas con el rendimiento de ArcView hace 10-15 años. Una tarjeta 2D decente funcionaría al menos tan bien como las tarjetas 3D de gama alta , exactamente como se esperaba: la panorámica y el zoom en un mapa no utilizan la capacidad 3D. No creo que esto haya cambiado nada. (Hace dos años, cuando ajusté una nueva estación de trabajo, comparé el Nvidia NVS 295 de gama baja con el Quadro FX 3700 de gama media a alta, costando diez veces más, y descubrí que el 295 era igual de bueno para el Cosas 2D)
Más interesante aún, ha habido movimientos para explotar los procesadores de GPU en las tarjetas para acelerar el análisis SIG. Colector fue la primera: se han incorporado en la capacidad de utilizar la tecnología Nvidia CUDA. Incluso las tarjetas de gama baja, como la NVS 295 orientada a gráficos de negocios, ofrecen un puñado de coprocesadores de coma flotante. Las tarjetas de gama alta te darán hasta 512 FPU. Puede instalar varios de ellos si lo desea y realizar su procesamiento ráster con un par de miles de procesadores a la vez :-).
Conozco las propuestas de investigación y las propuestas de inicio de pequeñas empresas para desarrollar tecnología similar para otras plataformas SIG, pero todavía no he visto ninguna de ellas financiada.
fuente
Además del rendimiento, algo a tener en cuenta para una estación de trabajo SIG es la compatibilidad con monitores múltiples. Si desea ejecutar tres monitores, esta tarjeta lo admite a través de la tecnología "Eyefinity". Solo tenga en cuenta que uno de sus monitores debe ser compatible con Display Port o necesita un adaptador DP a DVI.
fuente
Todo depende de dónde se almacenan sus datos. Servimos? Archivo de forma local? ArcSDE local / remoto? Administrador de licencias o licencia única? Conexión directa o conexión SDE? Ejecuto ArcSDE 10.0 con ArcMap 10.1: todos los datos locales. Tengo 2 tarjetas Nvidia HD 6570 con 512mb cada una. Intel I7, 24GB ddr3 RAM, 4.0 GHZ, monitores HDMI. Suena suficiente, pero no lo es. Obviamente, los datos locales se procesan más rápido que mi instancia SDE de 11g (sí, extraño) II aumentó el rendimiento 10 veces por lo siguiente: compré un SATA III 10k RPM 256GB para el sistema operativo, ArcGIS y las instalaciones de Oracle. Compró una unidad de estado sólido Samsung 500MB V-NAND SATA III para datos ArcGIS y datos de tablas de Oracle. ¡Auge! Estoy volando ahora. El disco duro del sistema operativo estaba reteniendo todo mi sistema. Un disco duro demasiado grande con 7200 RPM es el punto de falla. 1 tarjeta de video con 2 salidas HDMI y 1 GB de RAM es suficiente.
fuente
La última vez que leí el rendimiento de ARCMap Desktop fue menos sobre la tarjeta de video. Todo lo que he leído en las preguntas frecuentes ha apuntado a centrarse en la potencia de la CPU, no en la GPU. De hecho, la aceleración de hardware de GPU solo beneficia a las imágenes ráster y a los mapas de fondo.
fuente