Un cliente de mucho tiempo nos ha pedido que ayudemos a filtrar sus máquinas de trabajo en busca de pornografía. Les preocupa la responsabilidad si se encuentran materiales sensibles. Sus principales preocupaciones (por razones obvias) son los archivos de video, audio e imagen. Si es posible, también les gustaría escanear documentos basados en texto en busca de contenido inapropiado. Tienen una jerarquía de contenido que no es para el trabajo que comienza con descaradamente ilegal (no tengo que enumerar los detalles), pasa a ser obviamente ofensivo y también incluye cosas que pueden ser ofensivas para algunos: piense en anuncios de lencería, tarjetas de broma con grietas en el trasero y todo lo relacionado con Howie Mandel.
Mis preguntas son:
- ¿Es esto ético? Creo que es así porque cada empleado acepta legalmente que su máquina de trabajo pertenece a la empresa y está sujeta a búsqueda. Las pruebas de detección no deben realizarse en máquinas personales puestas a trabajar.
- ¿Es factible? He hecho mucho procesamiento / indexación de imágenes, pero esto parece un mundo completamente nuevo de complejidad.
- ¿Alguna referencia a técnicas exitosas para descubrir el porno?
- ¿Es apropiado para mí archivar los resultados cuando se descubre algo?
fuente
Respuestas:
Puede hacer esto con 90% de Headology , 10% de software.
En primer lugar, escanee silenciosamente las computadoras de los empleados, cree una base de datos de archivos y tamaños para cada empleado.
Luego filtre una nota de que todas las PC serán escaneadas en busca de contenido cuestionable, es decir, los jefes tienen un programa similar a Shazam que puede identificar pornografía, etc.
Luego, un par de días después, escanee las computadoras en busca de archivos y tamaños nuevamente. Mire cualquier archivo eliminado, ¿son archivos de película o imagen? Entonces esos son los empleados que necesita vigilar.
Escanee rutinariamente las PC de esos empleados en busca de imágenes y películas, y verifique manualmente si hay contenido cuestionable.
fuente
+1
de mí para la referencia a la abuela!Esta es una tarea obvia de la red neuronal. Primero necesita un gran conjunto de imágenes de capacitación seleccionadas por expertos en su empresa .....
Una solución más efectiva es anunciar que verificará la máquina de todos para ver pornografía SIGUIENTE semana / mes / lo que sea, luego escriba una aplicación simple que simplemente ejercite el disco. Le garantizo que las máquinas se habrán limpiado para entonces.
PD: un par de puntos 'serios': en realidad no quieres encontrar nada.
Si encuentra un par de imágenes en la memoria caché del navegador, entonces tal vez encontraron un enlace incorrecto o una ventana emergente dudosa: ¿recuerda que el profesor disparó sobre whitehouse.com? Si los despide / disciplina por esto, habrá una reacción violenta de los trabajadores / sindicato. ¿Cómo funcionaría su empresa si cada clic tuviera que someterse a aprobación legal antes de que sus trabajadores investigaran una pregunta o verificaran un precio en línea?
Si encuentras una pila de pornografía en una máquina, ¿cómo vas a demostrar que ese empleado la puso allí? ¿Tiene el tipo de sistemas de seguridad y auditoría que resistirían en los tribunales? ¿Usas (o incluso conoces) un sistema operativo en el que un administrador del sistema no puede ponerlos allí y hacer que se vean como los archivos del usuario?
Además, en mi experiencia, las ubicaciones más comunes para los escondites porno están en las computadoras portátiles de CxO y vicepresidentes senior.
Es mucho mejor organizar los archivos para que desaparezcan antes de tiempo.
fuente
+1
de mi parte por la observación de que realmente no quieres encontrar algo.Este enfoque de control es ciertamente doloroso tanto para los empleados como para las personas de TI. Una vez que algo ingresa dentro de la máquina del empleado, no hay forma segura de detectarlo. En primer lugar, debe evitar que ingrese a la máquina.
La práctica más conocida para esto es obviamente el control sobre los sitios / dominios que se pueden visitar. Dicha lista debe estar disponible en algún lugar de la red. Aparte de esto, también puede realizar un seguimiento de la cantidad de imágenes, videos que el empleado ha descargado y de dónde proviene.
Hay posibilidades de que el material pueda provenir de otro sitio que no sea web, como un disco duro externo. Podría haber un escaneo aleatorio del sistema una vez al mes en el que puede elegir aleatoriamente algunos de los videos e imágenes y verificarlos manualmente. No estoy seguro de cómo se puede hacer. Pero la automatización de la verificación de las imágenes y videos está ciertamente fuera de alcance y ciertamente será errónea.
En realidad, no estoy de acuerdo con la idea de restringir a los empleados de hacer cosas personales. Debe confiar en sus empleados para esto. Sus empleados deben estar lo suficientemente ocupados en la oficina para que no tengan tiempo para esto. Las mayores preocupaciones son si el empleado no está haciendo su trabajo ¿verdad? ¿O ha instalado algún software agrietado o pirateado?
fuente
Hay una serie de productos en el mercado que realizan "filtrado de contenido" de varias formas. (Una búsqueda en Google en algunos términos obvios arroja algunos candidatos obvios). Probablemente sea una mejor idea usar uno de estos productos que crear un montón de software de escaneo / filtrado desde cero. Otra opción es simplemente mirar en las fronteras; por ejemplo, monitoreando correos electrónicos externos y tráfico web. Una vez más, hay productos que hacen este tipo de cosas.
Si bien no hay duda de que es ético que una empresa escanee sus computadoras en busca de "cosas malas", esto no significa que no haya problemas.
Primer problema:
Entonces ... esto significa que alguien en la organización de su cliente necesita revisar los "hits". Eso cuesta dinero.
Segundo problema: puede haber una explicación inocente. El archivo podría haber sido descargado por accidente, o podría haber sido plantado por un vengativo compañero de trabajo. Si hay una explicación inocente, la organización del cliente debe tener cuidado con lo que hace / dice. (OK, este no es realmente tu problema, pero podrías copiar algo de la retrolavado).
Tercer problema: a pesar de que la compañía tiene el derecho de monitorear el material objetable, muchos empleados lo considerarán desagradable. Y si están demasiado lejos, esto afectará la moral de los empleados. Algunos empleados "caminarán". Otros pueden tomar medidas de protesta ... por ejemplo, tratando de crear muchos falsos positivos. (De nuevo, no es realmente tu problema, pero ...)
Cuarto problema: las personas pueden ocultar material cuestionable cifrándolo, colocándolo en medios portátiles o extraíbles, etc. Las personas pueden falsificar los metadatos para que parezca que alguien más es responsable.
fuente
Sobre aspectos legales, en Francia:
El jefe posee las computadoras y la conexión a Internet: puede hacer lo que le plazca.
PERO, la privacidad de los empleados no puede ser violada. Si un directorio en la computadora tiene la etiqueta PERSONAL, el jefe no puede escanearlo.
La única forma de evitar eso es obtener elementos de evidencia de que el empleado almacena material ilegal y hacer que un tribunal solicite un escaneo de la computadora (tenga en cuenta que la pornografía no es ilegal en Francia).
fuente
Si los empleados acordaron que su máquina de trabajo pertenece a la empresa y está sujeta a búsqueda, entonces sí, esto es legal. Como prueba, probablemente sea necesario archivar los archivos.
En cuanto a cómo encontrar realmente el material. Tú podrías:
Si escanea los archivos a medida que ingresan a la computadora (por ejemplo, tiene el programa cargado en cada máquina de trabajo y registra los casos marcados en una base de datos central), entonces no creo que sea demasiado molesto (aparte de la evidente desconfianza el empleador claramente tiene para sus empleados).
Con los archivos de video, no estoy 100% seguro. Posiblemente un enfoque similar al del escaneo de imágenes (elija cuadros aleatorios y escanee para un cierto nivel de color de "carne")
Escanear archivos de audio parece que entraría en el reconocimiento de voz, que es una gran cantidad de gusanos. Sin embargo, escanear el nombre del archivo sería fácil y podría hacerse como con los documentos, imágenes y video.
fuente
Como dijo @Ryan, el análisis de imágenes puede centrarse en el análisis de color.
¿Factibilidad? Mi hermana trabaja en un área del gobierno donde obtienen algún tipo de auditoría cada año, y una vez que fue por pornografía. Ella (geofísica) tenía varios falsos positivos (rocas rosadas).
fuente
Existe una investigación reciente y significativa sobre la detección de pornografía utilizando métodos de clasificación convencionales. Los ejemplos están disponibles aquí y aquí .
fuente
Depende de la implementación y las expectativas razonables de los empleados. Por ejemplo, si su software escanea cualquier máquina conectada a la red, entonces hay un requisito adicional que infra necesita para evitar que se conecten máquinas no autorizadas. (Tal vez eso debería ser obvio, pero con frecuencia se pasa por alto en las redes que he visto).
¿Es factible hacer pruebas de drogas a todos los empleados? Tal vez sí, pero cuestiono su valor. Lo aleatorizaría. Informe a los empleados que sus máquinas pueden ser escaneadas en busca de contenido inapropiado en cualquier momento.
No estoy tocando este. No creo que pueda controlar mi sentido del humor. Pero ten cuidado con el problema de Scunthorpe cuando busques texto.
Este me preocupa más, y le pediría a un abogado. Sospecho que si encuentra contenido ilegal, técnicamente puede estar legalmente obligado a revelarlo. Eso es malo, especialmente si el usuario fue expuesto por una falta propia. Usted (cliente) necesitará asesoramiento legal real sobre cómo manejar esto. Haga que RRHH y los abogados participen.
fuente
Desde un punto de vista puramente técnico: esto suena como un problema de reconocimiento de categoría de objeto. Nunca he hecho algo así, pero por lo que he leído, los sistemas de reconocimiento de categoría más modernos funcionan así:
fuente
El sistema operativo de la computadora de todos probablemente se instaló desde una imagen de disco.
Se necesitará uno o dos empleados para que los atrapen antes de que alguien ponga algo en su computadora de trabajo.
Cobra una cantidad obscena de dinero por este servicio. Seré Zappos nunca haría esto a sus empleados.
fuente
Asumiendo que es un administrador de dominio en la red.
fuente
Solo quería comentar, pero solo tengo 1 representante, así que no puedo.
En el caso de Gravatar, puede agregar una función para filtrar de una lista de sitios limpios en ubicaciones de caché de Internet. IE Gravatar y otros sitios de los que no desea falsos positivos. También puede filtrar cosas como el fondo de escritorio. Si están mostrando pornografía en el escritorio, pensarías que las personas se darían cuenta fuera de tu auditoría.
fuente
Tales cosas nunca funcionan de manera confiable. Puede usar una lista de bloqueo para bloquear dominios ya sea por nombre o al ser incluido en alguna lista (una práctica común). Pero esas listas nunca están completas, y el bloqueo de nombre basado en criterios puede conducir a muchos falsos positivos.
Puede bloquear las palabras que aparecen en el texto de los sitios, pero nuevamente esto puede conducir a falsos positivos (y se vuelve muy lento ya que necesita analizar cada bit de datos que pasa a través de su red para detectar "bits traviesos").
puede bloquear imágenes (y quizás sitios que las contengan) que muestren más de un cierto porcentaje de tonos de piel. Pero, nuevamente, lleva a muchos falsos positivos. Un departamento médico de la universidad que bloquea una enciclopedia médica con imágenes de extremidades y torsos que muestran heridas y afecciones de la piel es un ejemplo bien conocido de eso. Y, por supuesto, sería racista ya que solo bloquearía ciertos tonos de piel. Si bloquea colores que coinciden con la piel caucásica, siempre hay pornografía con actores negros, por ejemplo.
Lo mejor es confiar en sus empleados y tener políticas vigentes para cuando se rompa esa confianza.
fuente
No sé, tiene que haber una respuesta intermedia, que no sea tan invasiva, pero resuelva el problema real, la RESPONSABILIDAD.
Pídales que firmen una exención, que libere a la compañía de cualquier responsabilidad por las cosas ilegales encontradas en las computadoras de trabajo, que no estén relacionadas con el trabajo.
fuente
fuente
Análisis de imagen y contenido para determinar las diferencias entre una fotografía de buen gusto de una persona, una fotografía de traje de baño, una fotografía de desnudos, representaciones de pornografía ... por lo que sé, no es lo suficientemente sofisticado como para hacerlo solo con software.
Afortunadamente, el crowdsourcing debería ser útil aquí, como @ammoQ sugirió en un comentario. Sin embargo, no creo que los miembros de 4chan o de cualquier otro foro apreciarían la gran cantidad de imágenes no pornográficas, como gráficos web genéricos para botones, marcos, anuncios, etc. que se publican.
Mi recomendación sería buscar soluciones de crowdsourcing existentes, como Amazon Mechanical Turk . (Sin embargo, los términos del servicio pueden prohibir explícitamente la participación de contenido pornográfico, por lo tanto, tenga en cuenta que es posible que tenga que encontrar otra solución o elegir la suya propia).
Para que el crowdsourcing sea factible, su software debe estar preparado para hacer algo o todo lo siguiente:
Finalmente, los usuarios (o un equipo designado si tiene los recursos) verifican la base de datos de imágenes reducidas que representan la imagen original y el contenido de video de acuerdo con el código de conducta de su empresa. El programa o la interfaz pueden mostrar una sola imagen a la vez, o una pantalla de miniaturas, lo que considere mejor para obtener información precisa.
La identidad de la computadora de la que provienen las imágenes debe ser absolutamente secreta y desconocida para las personas que evalúan los datos. Además, debe ser aleatorizado y cada imagen probablemente verificada más de una vez para eliminar el sesgo.
Se podría usar la misma técnica para el texto, pero primero se podría calificar el contenido mediante clasificaciones de palabras clave que eliminen la mayor parte del texto de la revisión de crowdsource. Por supuesto, clasificar un documento largo requerirá más tiempo que clasificar una imagen.
fuente