Necesito un poco de ayuda para recuperar los datos de un cuestionario.
Uno de mis colegas aplicó un cuestionario, pero sin darse cuenta, en lugar de utilizar la escala Likert original de 5 puntos (totalmente en desacuerdo para estar totalmente de acuerdo), insertó una sexta respuesta en la escala. Y, para empeorar las cosas, la sexta opción de respuesta es ... "No sé".
El problema es la gran proporción de encuestados que, en un momento u otro, eligieron "No sé". Si fueran un porcentaje razonablemente pequeño, los habría excluido de la base de datos. Sin embargo, el núcleo de la investigación se basa en un modelo conceptual, y la exclusión de tantos registros crearía un problema para el modelo.
¿Podría alguien señalarme en la dirección correcta aquí? ¿Hay alguna 'buena práctica' o puedo hacer algo para usar (transformar, convertir, etc.) esas respuestas de "No sé"?
Además, si hago alguna manipulación de los datos en cuestión (es decir, si convierto las respuestas "No sé", por sustitución, imputación, etc.), ¿qué tipo de "descargo de responsabilidad", "advertencia", anotación, debo usar?
Sé que es una posibilidad remota, pero confieso que, además de rescatar las respuestas, también tengo curiosidad por saber cuál es la práctica acordada (si la hay), en este tipo de casos.
PD: Sé que suena infantil, pero no, el 'colega' no soy yo :)
fuente
Respuestas:
¿Por qué tratar de forzar una calibración en algo que no es cierto? Como dijo Maarten, esto no es una pérdida de datos sino una ganancia de información. Si la píldora mágica que está buscando existe, significaría que hay algunas suposiciones sobre su población que se hacen, por ejemplo, un sesgo a favor de una etiqueta en particular a pesar de que los usuarios dicen "No sé".
Entiendo totalmente su frustración, pero la forma correcta de abordar el problema es modificar el modelo para adaptarlo a sus necesidades en función de los datos reales existentes, y no al revés (modificar los datos).
fuente
Si se trata de un cuestionario estandarizado que se ha validado de forma independiente, no puede afirmar que el nuevo cuestionario es equivalente y que los datos ya no son comparables. Podría intentar validar y examinar el cuestionario en experimentos separados (requiere mucho tiempo y esfuerzo, especialmente si también desea mostrar la comparabilidad con la versión anterior) o simplemente aceptar que está tratando con una menor calidad de evidencia (ya que sus datos provienen de un cuestionario no validado).
Cuando utilice sus datos, deberá tener en cuenta el cambio. Cuando se enfrentan a una pregunta de actitud, las personas no le dan una respuesta "objetivamente cierta" de alguna manera, le dan la respuesta que consideran verdadera, y esto ciertamente está influenciado tanto por las opciones de respuesta disponibles ("normalizan" sus respuestas a la escala) y al conocimiento que tienen sobre el tema (existen sesgos conocidos que funcionan de manera diferente, a veces en diferentes direcciones (!) dependiendo de si el participante tiene mucho o poco conocimiento sobre el tema).
Por lo tanto, si estamos tratando con un cuestionario establecido, tiene la buena opción de comparar su versión del cuestionario y la original. Si el original suponía que las personas saben lo que están seleccionando, y resulta que no lo saben, puede discutir cómo el viejo modelo se basa en suposiciones erróneas y cuáles son las consecuencias de eso. Tenga en cuenta que este es un descubrimiento "secundario", que hace una nueva pregunta de investigación agradable, pero lo aleja de la original y, de hecho, muestra que responder la original es mucho más difícil de lo que se pensaba, por lo que sin duda multiplica su trabajo.
Si no está tratando con un cuestionario establecido, puede continuar con el flujo y pretender que su cuestionario ad-hoc fue planeado de esa manera, y evaluar los resultados en consecuencia. De nuevo, podría significar que los resultados que esperaba no se pueden obtener con este método, pero esto también es algo importante que debe saber.
Para una buena comprensión de cómo las palabras y las opciones influyen en la forma en que se responden los cuestionarios, sugiero leer la "Psicología de la respuesta a la encuesta" de Tourangeau et al. Es una gran lectura para todos los que crean un cuestionario.
fuente
Si pregunta a cuántos niños ha dado a luz la encuestada, las respuestas "cero" y "no aplicable" no significarían estrictamente lo mismo, ya que los hombres no pueden dar a luz.
Para algunos contextos, equiparar "No sé" con la respuesta neutral podría ser, asimismo, un error conceptual.
En realidad, tienes dos preguntas: una dicotómica "¿Tienes una opinión?" y un ordinal "¿Qué es?", así como, arriba, tienes un implícito "¿Eres una mujer?" más allá de tu pregunta explícita.
Por supuesto, puede introducir algunos supuestos (a veces correctamente, a veces solo por conveniencia, a veces de forma forzada) para permitirle modelar, pero no puedo ver una estrategia universalmente aplicable sin entrar en el ámbito de los detalles de su fenómeno.
Como último punto a considerar, no tendría sentido tratar de inferir a la población masculina nada de las respuestas de fecundidad femenina.
fuente
El dilema de si se debe incluir o no la opción de respuesta No sabe en un cuestionario que consiste en escalas de calificación de tipo Likert es eterno. A menudo, cuando los ítems preguntan sobre la opinión, el DK se incluye porque no tener opinión es un estado importante por sí solo y los encuestados esperan la opción como tal. En los inventarios de rasgos personales en los que las personas atribuyen cualidades a una opción DK objetivo generalmente se descartan porque normalmente se espera que el encuestado pueda evaluar el grado de afinidad de una característica (es decir, el encuestado siempre se considera calificado); y cuando ocasionalmente encuentra dificultades, se le permite (por instrucción) omitir ese elemento. En inventarios de rasgos personales donde las personas describen un objetivo (elementos de comportamiento) DK (o don '
@Hatim en su respuesta, @Maarten y algunos otros comentaristas de la pregunta OP han expresado con sensatez que una gran cantidad de respuestas DK observadas en el estudio actual indican problemas (validez de contenido o validez nominal) en los elementos o que los sujetos no ' No encaja con el cuestionario que se les ordenó.
Pero nunca puede contar la historia, en última instancia, la interpretación del impedimento recae sobre usted (a menos que lo aborde en una investigación por separado). Se podría afirmar, por ejemplo, que la inclusión de la opción DK a los likerts en ese cuestionario (por ejemplo, es un inventario de atribución de rasgos) sirve mal, no bien. No le dio información (de lo que dicen los comentaristas
it proves that the [rating] model is inadequate
), sino que más bien distrajo / sedujo a un encuestado. Si no se proporciona la decisión de calificación guiada por el esquema de rasgo cognitivo implícito, podría haberse obtenido; pero ver la opción de enfriamiento excluye el esquema y hace que uno se retire rápidamente.Si admite más, bajo su riesgo, pero ¿por qué no? - que un sujeto fácilmente distraído o perezoso es aquel cuyo potencial, la vista retenida es válida pero tiende a diferenciarse débilmente, es decir, invocaría fácilmente al das das convencional , en lugar del esquema personal de Erlebnis , entonces puede especular tentativamente que su respuesta faltante es alrededor de la media de la muestra o población para ese ítem. Si es así, ¿por qué no hacer una sustitución media (+ ruido) de las respuestas faltantes? O puede hacer una imputación EM o regresiva (+ ruido) para tener en cuenta las correlaciones.
Para repetir: la decisión de imputación es posible pero arriesgada, y es poco probable, dada la gran cantidad de datos faltantes, restaurar "verdaderamente" los datos ausentes. Como dijo @rumtscho, seguramente que el nuevo cuestionario con DK no es equivalente al original sin DK, y los datos ya no son comparables.
Estas fueron especulaciones. Pero antes que nada, debe intentar investigar los patrones observados de falta. ¿Quiénes son los sujetos que seleccionaron DK? ¿Se agrupan en subtipos? ¿En qué se diferencian en el resto de los elementos de la submuestra "bien"? Algunos programas tienen el paquete de Análisis de valor perdido. Luego, podría decidir si eliminar a las personas total o parcialmente, imputarlas o analizarlas como una submuestra separada.
PD También tenga en cuenta que los encuestados son "estúpidos". A menudo simplemente se mezclan con las calificaciones de la escala. Por ejemplo, si el punto DK se coloca cerca de un polo de la escala, a menudo se confundiría con la falta de atención con ese polo. No estoy bromeando.
fuente
Ahora tiene encuestados autoseleccionados para tener una opinión al respecto. Lo que concluyas será únicamente sobre esas personas. Esto podría estar bien, ya que sondear esos "no sabe" es, por definición, menos útil.
fuente