Sooo .. He estado pensando en estas cosas. Todos sabemos que sonamos diferentes de lo que escuchamos de nuestra propia voz. Es fácil descubrir cómo nos escuchan los demás grabándose y escuchándolo.
¿Pero qué pasa al revés?
¿Hay alguna manera de transformar nuestra voz de manera que otros puedan escucharnos cuando percibimos nuestra propia voz? Me parece una pregunta bastante interesante. Lamentablemente, no pude encontrar nada en la web después de un par de búsquedas en Google. ¿Nadie ha pensado en esto o es imposible por alguna razón que no estoy viendo?
Cualquier ventaja sobre esto sería apreciada :).
signal-analysis
audio
transform
Dunkingdev
fuente
fuente
Respuestas:
No es imposible, pero tampoco será un paseo por el parque.
Lo que intentaría hacer es agregar a la señal de voz, esas vibraciones que se envían al oído a través de los huesos y que nadie más puede acceder.
Pero esto es más fácil decirlo que hacerlo de manera precisa.
La propagación del sonido a través de un medio depende mucho de su densidad . El sonido viaja a ~ 1500 m / s en agua y con menos disipación que en el aire (~ 340 m / s). El hueso es más denso que el aire, por lo tanto, el sonido debe viajar más rápido a través del hueso. Esto significa que "su" sonido comienza a excitar sus oídos primero, seguido del sonido que percibe a través del canal de aire "normal". En realidad, el hueso tiene una estructura interna que podría estar afectando la forma en que las diferentes frecuencias pasan a través de él, pero en el rango de frecuencias del que estamos hablando, tal vez podamos considerarlo como un sólido equivalente. Esto solo se puede aproximar porque cualquier intento de medición tendría que ser invasivo, pero también porque la audición es subjetiva.
La audición, o la percepción del sonido, es un GRAN contribuidor de dificultad aquí. El oído en sí, el oído externo (el bit visible), el canal y el mecanismo interno trabajan juntos de maneras muy complicadas. Este es el tema de la psicoacústica . Un ejemplo de este complejo procesamiento son los tonos fantasmas en los que el cerebro llena cosas que se supone que están allí. Es posible que el cerebro ya haya desarrollado formas de aislar la señal autogenerada que aún no podemos acceder.
Pero, una forma simplista ( ¡simplista! ) De presenciar las diferencias entre ser el oyente de su propio sonido y no es esto:
Grabe una palabra corta y simple (por ejemplo, "Fishbone", una palabra que tiene frecuencias bajas (b, o, n) y frecuencias altas (F, sh, i, e)) con un poco de silencio y repítala en un ecualizador a través de tus auriculares. Inicie la reproducción y sincronice su auto pronunciando la palabra con la grabación (entonces, algo así como "Fishbone ... Fishbone ... Fishbone ..."). Ahora intenta tocar el ecualizador hasta que lo que escuches y lo que pronuncies sean razonablemente similares.
En ese punto, la configuración del ecualizador representaría las diferencias entre el sonido y lo que se percibe a través de usted y, en teoría, cualquier otro discurso que se transmita a través de ese ecualizador simularía cómo llega a sus oídos, como si lo hubiera generado con Una fuente dentro de su cuerpo.
Espero que esto ayude.
fuente
El intento más práctico que conozco es de Won y Berger (2005) . Grabaron simultáneamente vocalizaciones en la boca con un micrófono y en el cráneo con un vibrómetro casero. Luego estimaron las funciones de transferencia relevantes con codificación predictiva lineal y suavizado cepstral.
fuente
Antes de decepcionarte, permíteme sugerirte que pruebes otro enfoque.
A mi entender, tiene dos partes muy diferentes: conocer la ecualización que se debe hacer (personalizada para cada persona) y aplicarla a una señal particular (su voz).
Primera parte: modelo del sistema auditivo interno humano
Hay profesionales que están trabajando para recopilar datos sobre eso, estandarizar ese proceso, etc. Afaik, hay esfuerzos para desarrollar medidas y gráficos más allá del audiograma clásico (que mide las señales de aire y hueso). Algunos de ellos son "pruebas de audición" (más subjetivas, pero también interesantes).
Alinearse con estos profesionales. Si sigues su trabajo, solo necesitas sus resultados. Déjalos hacer el trabajo pesado. Conocen su parte, lo que les llevó decenas de años de investigación. Están avanzando en el conocimiento que necesita. Que es: una especie de audiograma para medir cómo alguien escucha "dentro". Apuesto a que están graficando eso. Y solo necesitas ese gráfico.
2da parte: simulación
He hecho algo similar a lo que intentas hacer. Desde el audiograma de cualquier persona, puede escuchar por su cuenta como él / ella. Esto se hace con ffmpeg. Puedes verlo aquí: comomeoyes.com
Básicamente, graba su voz, y un algoritmo la iguala con su audiograma personalizado. De esta manera, puede ingresar el audiograma de una persona con pérdida auditiva y escuchar por sí mismo cómo lo escucha.
Entiendo que le gustaría hacer lo mismo, pero con un audiograma diferente, uno que modele cómo el sistema auditivo interno iguala el sonido.
Apuesto a que tal tipo de audiograma ya podría existir, y los audiólogos, médicos, médicos en otorrinolaringología, investigadores y demás pueden estar discutiendo sobre el tipo de pruebas acústicas que deben realizarse para obtener los datos que necesitan para modelar un gráfico útil a partir de las mediciones.
Buena suerte. Tu intento podría ayudar a otros.
fuente