¿Por qué borrar archivos con patrones aleatorios en lugar de todos los 0 o 1?

28

Los archivos de la computadora en realidad no se eliminan cuando se eliminan en Windows. El puntero de dirección simplemente se libera y ese espacio se libera para sobrescribir más tarde.

Para obtener información confidencial, se recomienda que la borre con un depurador que oscurezca primero el archivo.

Resulta que estos depuradores escriben una secuencia específica de 1 y 0 en el disco duro durante varias iteraciones.

¿Por qué no puede simplemente escribir todos los ceros o todos en el archivo y luego eliminarlo normalmente?

¿Cómo podría alguien recuperar datos de un borrado directo como ese más o menos que usando múltiples iteraciones y patrones?

CSharperWithJava
fuente
44
Gran pregunta
JNK

Respuestas:

15

La versión corta: en teoría , el patrón original aún puede ser leído por cierto hardware y software sofisticado. Para garantizar la seguridad de sus datos "borrados", deben borrarse.

La respuesta larga: http://en.wikipedia.org/wiki/Data_remanence


Editar: Para ser justos con los que ya votaron, les dejo mi respuesta como estaba escrita originalmente; sin embargo, lea los comentarios para una divulgación completa.

Muchas personas, incluido yo mismo, sentimos que cualquier cosa más que una pasada con datos pseudoaleatorios criptográficamente sólidos es una pérdida de tiempo y ciclos de CPU.

Adrien
fuente
Entonces, para los medios magnéticos, ¿hay un bit heredado que podría leerse?
JNK
66
No es un bit heredado, pero eso, en un nivel separado del sistema de archivos, los niveles anteriores y diferentes de energía magnética no se neutralizan completamente sin varias sobrescrituras con patrones variables. Definitivamente es una operación forense de mucho dinero. (Megacorp y / o presupuesto tipo agencia de tres letras) ...
Adrien el
2
Este ha sido un rumor desde hace mucho tiempo, pero no creo que haya ninguna evidencia que respalde la idea de que esto sea posible. He leído los viajes de varias personas para tratar de encontrar a alguien que pueda hacer esto y todos han venido con las manos vacías. Todos llegaron a la conclusión de que es un mito. Dicho esto, realmente no se sabe lo que sucede o no dentro de los muros de las agencias de tres letras.
Jarvin
3
@Dan: Primero, estoy firmemente del lado de "Gutmann estaba en el crack" del debate. El "algunas personas no están de acuerdo con esta teoría" fue, pensé, implícito en mi "teóricamente", y se menciona explícitamente en el artículo vinculado. Con el espíritu de "no duplicar el esfuerzo", esperaba que la gente leyera lo que ya es un artículo bastante bueno en lugar de simplemente regurgitarlo aquí. Quizás debería haber sido más directo, así que aquí va: muchas personas, incluido yo mismo, sentimos que cualquier cosa más que una pasada con datos pseudoaleatorios criptográficamente sólidos es una pérdida de tiempo y ciclos de CPU. YMWV
Adrien
1
En los viejos tiempos de la codificación MFM, la baja densidad de datos y los motores paso a paso, los variadores tenían problemas en los que el espaciado entre pistas podía retener la magnetización residual debido al posicionamiento laxo del cabezal y los cambios de temperatura. El artículo de Gutmann fue escrito en 1996. Su sobrescritura de 35 pases y múltiples patrones fijos fue un intento de borrar una unidad con certeza sin saber nada al respecto. En las décadas transcurridas desde entonces, ha declarado que la limpieza con datos aleatorios es suficiente para las unidades modernas de alta densidad de datos.
Fiasco Labs
3

Creo que recuerdo haber leído algo acerca de las propiedades magnéticas de los platos, de tal manera que cualquier conjunto aleatorio dado de sobrescritura de un bloque no necesariamente desmagnetizaría completamente o volvería a ejecutar un área del disco en un estado completamente neutral, por lo tanto, alguna información sobre los datos anteriores era Dejado atrás. De acuerdo, no creo que haya sido mucho, pero sonaba lo suficiente como para que un análisis forense determinado pudiera recuperar al menos la naturaleza de los datos borrados.

La idea de los patrones específicos de 1 y 0 es que son tales que funcionan con la codificación 8 / 10B del disco duro (o lo que sea) que se utiliza para devolver el bloque de almacenamiento magnético general a un estado neutral.

Eche un vistazo a Spinrite , aparentemente puede mostrarle los diversos "niveles" magnéticos en los que se almacenan los datos para recuperar y "actualizar" los datos en una unidad, al menos eso es lo que dice.

Mokubai
fuente
3

Los métodos normales de recuperación de solo software no pueden recuperar datos que se sobrescriben una vez por cualquier patrón, se necesita un gran presupuesto y técnicas sofisticadas para recuperar datos que se han sobrescrito solo una vez. Una sobrescritura es lo suficientemente buena a menos que tenga la NSA del FBI, etc. de la NASA, que desee sus datos. Pero si su paranoico lo sobrescribe 35 veces, luego desmonte el disco duro y muela los platos en polvo fino, luego esparza ese polvo en el océano abierto durante un viaje de 100 millas, con suerte no se quedará varado en una isla en el proceso; )

Por supuesto, los sistemas operativos modernos pueden dejar copias de archivos "eliminados" dispersos en sectores no asignados, directorios temporales, archivos de intercambio, bloques defectuosos reasignados, etc., pero Gutmann cree que un sector sobrescrito puede recuperarse bajo un examen por un microscopio sofisticado y esta afirmación. ha sido aceptado acríticamente por numerosos observadores. Sin embargo, no creo que estos observadores hayan seguido las referencias en el artículo de Gutmann. Por lo tanto, puedo decir que Gutmann no cita a nadie que afirme estar leyendo datos insuficientes en sectores sobrescritos, ni cita ningún artículo que sugiera que los programas ordinarios de borrado de disco no serían completamente efectivos.

http://www.nber.org/sys-admin/overwritten-data-guttman.html

.

Moab
fuente
¿Por qué molestarse en fregar el disco cuando simplemente calienta los platos por encima del punto Curie los borrará por completo? Muele al polvo si es necesario, pero un buen fuego de carbón es barato.
Fiasco Labs
0

Imagina que escribiste detalles corporativos confidenciales en una pizarra. Una vez que salga de la habitación, simplemente borre los detalles del tablero. Todavía puedo leer la mayor parte mirando la pizarra debajo de un ángulo, o usando técnicas avanzadas para levantar rastros diminutos de residuos de marcadores del tablero. Por otro lado, si escribiste galimatías al azar en el pizarrón después de borrarlo, sería mucho más difícil para mí leer cualquiera de los detalles corporativos.

Esta analogía para sobrescribir un disco duro con ceros frente a datos aleatorios es la razón por la cual muchas personas creen que es mejor sobrescribir su disco duro con 0 y 1 aleatorios, y más de una vez mientras lo hace.

Simplemente sobrescribir todos los datos con ceros ciertamente detendrá que el 99.9% de la población lea sus datos sensibles. Sobrescribirlo con un patrón predecible (ya que las computadoras son heredadamente no aleatorias) de 0 y 1 hará que sea un poco más difícil aún. Usar un patrón criptográficamente seguro lo hará aún más difícil. Y repetir este proceso elevará aún más el listón.

Pero debido a los rendimientos decrecientes, creo que una pasada de 0 y 1 pseudoaleatorios es más que suficiente. Y si no es así, será mejor que lleve su disco duro a una empresa segura de destrucción de datos en lugar de aumentar el desgaste de la unidad y perder el tiempo y los ciclos de la CPU. Los discos duros son baratos.

Daniel AA Pelsmaeker
fuente