Jump to content
Oscar

Y tú ya sabes cómo funciona tu DAC? Qué le está haciendo a tu música?

Recommended Posts

Presentación
Hay muchos conceptos del diseño de DACs de audio que desconozco, pero los fundamentales son similares en todos los DACs que he escuchado o he estudiado y las particularidades de los conversores digitales de audio son cada vez más reconocidos y re-estudiados.

El foco de este post es el núcleo de los DACs, propiamente el circuito conversor D-A (Digital-Analógico)

Quisiera compartir lo que he aprendido y que me ha servido de herramientas para evaluar los sistemas de audio, en particular en este caso, los DACs que son de uso tan común por la gran difusión que tiene la música en archivos o incluso porque pueden representar un upgrade sobre los tradicionales CDplayers.

No tengo intereses involucrados ni tampoco me interesa tener la razón, expongo lo que conozco y estoy abierto a aprender de los demás, de hecho lo que aquí escribo no lo inventé yo, lo comparto para que así algunos otros aprendan y algunos otros me enseñen más de este hobby y corrijan mis apreciaciones.

Introducción

En el caso ideal, la conversión A-D crea muestras digitales únicas, inequívocamente representativas de las señales analógicas que recibe. En este mismo mundo, la conversión D-A permite recuperar con total exactitud la información contenida en el archivo codificado digitalmente.

Aun cuando el caso ideal es improbable, el teorema del muestreo nos proporciona una forma matemática cierta de representar digitalmente una señal analógica y además nos asegura recuperarla íntegramente, es decir, la conversión A-D tiene un respaldo matemático certero, por lo que si el tratamiento de una señal es ideal, el resultado de la conversión será perfecto y totalmente decodificable, es decir, hasta aquí vamos bien, en teoría.

Sin embargo, en el mundo real, el modelo se ve enfrentado a “desviaciones” sobre la representación de los fenómenos físicos que pretende describir, pero si suponemos que las desviaciones son tales (es decir desviaciones, es fácil entender el concepto cuando lo aplicamos a personas que es justamente donde no debiera aplicarse porque se vuelve discriminatorio), podremos describir estas desviaciones sobre el caso ideal y manejarlas como un error, el cual queda bajo control cuando aplicamos reglas estadísticas, donde los casos probables se tienden a agrupar en torno al caso ideal y los improbables se alejan del caso ideal sólo dentro de un margen estadísticamente medible.
Entonces cuando disponemos de un dato digital que representa efectivamente una señal analógica, entendemos que esta señal digitalizada está sujeta a error dentro de un margen estadísticamente conocido, por lo que no será posible discriminarla de otra igual con el mismo margen de error, tal como sucede en el mundo analógico con dos señales que parecen idénticas y donde no hay forma de discriminarlas empíricamente. Por lo tanto, una señal se puede codificar digitalmente cuando se sabe el contexto en el cual se mueve en el mundo real. Eureka, hemos descubierto que el audio se puede codificar digitalmente, pero tenemos que estar dispuestos a tolerar el error que eso conlleva.  Estamos dispuestos?

Sucede que una grabación que nace codificada digitalmente dispone de conversión puntual en los transductores que capturan la señal analógica en el lugar mismo donde aparece y por lo tanto el error de conversión está bien acotado, por lo tanto en la conversión A-D si no hacemos algo extraordinariamente mal, podemos obtener señales digitales con un error que matemáticamente es manejable. Aquí los riesgos no parecen diferir mucho de lo que ocurre con las grabaciones analógicas donde igual se usan transductores, que si bien no digitalizan, igualmente “codifican” el audio mediante pulsos eléctricos, con un error matemáticamente manejable.

En el lado de la recuperación de la señal analógica convertida digitalmente debemos usar un conversor Digital-Analógico ideal de modo que recuperemos las señales sin errores.  Como ya sabemos, eso no es posible, por lo que no nos queda otra que sujetarnos a tener errores estadísticamente controlados.  Pero como ya vimos, esos errores no son iguales a los que ocurren en la decodificación analógica-analógica y esos errores dependen, como ya vimos, del contexto en el que se den las señales. 

Por lo tanto las particularidades de los DACs están determinadas por el tipo de información que manejan, en el caso que nos interesa, el Audio.

No incluyo en este post nada sobre interfaces (USB, AES, SPDIF, I2s, etc) ni circuitos de pre-amplificación de señales analógicas, los que por sí solos son universos aparte y de los cual sé menos incluso que de conversores digitales (quizás don ayuda pudiera escribirnos específicamente sobre interfaces ya que las conoce de sobra y ha visto múltiples implementaciones).

El tema de los DACs de audio, propiamente tal
El esquema en bloques de un DAC de Audio, al que me refiero es como se muestra en la siguiente figura (lo simplifiqué a la medida de como yo lo entiendo y si yo lo entiendo, ustedes con mayor razón):

EsqDac.jpg

Los DACs de audio también incluyen algunas otras funciones que son ajenas a la funcionalidad de DAC de audio propiamente tal y que no viene a cuento tratar aquí porque no es común a todos los DACs.

La conversión de señal digital a analógica en el núcleo conversor, no es directa ni de un paso, y en el proceso agrega ruido de alta frecuencia (este es uno de los errores de señal que hay que controlar), el que tiene que ser filtrado para mantenerlo bajo un nivel de error tolerable (lo que se conoce como filtro brickwall o muro), pero este brickwall es una construcción matemática imposible de realizar directamente porque el modelo matemático usado en la reconstrucción analógica de las muestras digitales corresponde a una serie de Fourier con infinitos elementos (algo que es muy usual en métodos numéricos de ingeniería y se traduce en aproximaciones mediante iteración del cálculo hasta llegar a un nivel de error tolerable; no se busca llegar a error cero porque demandaría infinitas iteraciones, o sea, nunca se llegaría a un resultado; como ya sabíamos, el error cero es imposible y además innecesario).

Una de las formas que se considera más limpia y efectiva para aplicar un filtro que corte con alta precisión las altas frecuencias consiste en remuestrear a muy alta frecuencia, de modo que el filtro que aparece como una recta oblicua en torno a los 20 kHz, se va volviendo cada vez más vertical a medida que se aumenta la frecuencia del remuestreo (u Over Sampling, OS), así, mientras más alta la frecuencia de OS, más ideal se vuelve el filtro y el límite está en la capacidad del procesador para manejar señales de alta frecuencia (o sea de muy alta "velocidad"), pero como nada es perfecto, a medida que se fue aumentando la frecuencia de muestreo para el filtrado se descubrió que la distancia entre pulsos se volvió más difícil de controlar y al traer de vuelta las muestras al mundo de señales audibles (bajo 20 kHz) la señal filtrada incorporaba "efectos" o "artefactos" que no venían con la señal original.

Entonces podemos definir algunas categorías de DACs dependiendo de la estrategia con que convierten la información digital y qué tipo de filtro digital usan.

Categorías de DACs según su estrategia de conversión
Los desarrolladores de chips conversores de audio off-the shelf (TI-Burr Brown, Wolfson, AKM, ESS, etc.) crean sus propios filtros digitales y los incorporan al mismo chip conversor para que el fabricante de DAC lo utilice. Estos filtros no recuperan la señal original (esquema sigma-delta que convierte la señal digital en analógica y a partir de esta crea una nueva codificación digital distinta de la del archivo fuente) y usan una matriz de conversión con el resultado esperado, de modo que las muestras no se desvíen de lo que se espera que resulte de la conversión, según el propio modelo de estos mismos desarrolladores. Es decir, la señal analógica resultante es, en parte, una reconstrucción de las muestras digitales basada en un modelo de cómo debería ser el sonido resultante y que se hace cargo de las "no-linealidades" de la interpolación entre muestras (que ha resultado ser un problema mayor para el audio digital y aún en desarrollo) y del re-muestreo de alta frecuencia.
Este tipo de DACs (designémoslos como tipo A) con filtro OS, sobre chips off-the-shelf, tiende a entregar mucho detalle en las frecuencias altas (su foco es la reconstrucción de datos muestreados en frecuencia), acompañado de "artefactos" imposibles de filtrar (como vimos antes) y cuyos efectos dependen más o menos del circuito analógico por el que pase la señal antes de quedar disponible como line-out (al efecto más notorio de estos "artefactos" es la pérdida de precisión en la imagen stéreo y lo que se conoce como "ringing"). Las herramientas que tienen los fabricantes de DACs de Audio que usan estos chips son las que les da el fabricante del chip digital por lo tanto muy poco nivel de control, y el circuito analógico de salida, que es donde pueden incorporar sus mejores herramientas para atenuar el ringing afectando lo menos posible la resolución (que es el foco en este tipo de DACs). 
Opinión: Este tipo de DACs se caracterizan por un sonido resolutivo o a veces super-resolutivo (imposible de lograr en el mundo analógico), más o menos agresivos en las frecuencias medias y altas, con más o menos ringing y con una imagen acústica difusa y de poca profundidad.

Algunos fabricantes de DACs optan simplemente por no re-muestrear y así evitar la aparición de "artefactos" debido el uso de un filtro digital de alta frecuencia, estos DACs (designémoslos como tipo B) se conocen como NOS, es decir Non Over Sampling, la ventaja de esta estrategia es que no hay filtro digital que agregue "artefactos", pero la desventaja es que como igual es necesario filtrar las frecuencias altas (sobre 20 kHz) producidas por la propia conversión, terminan recortando las frecuencias altas bajo 20 kHz, porque los filtros analógicos tienen pendientes demasiado oblicuas como para ser usados en DACs. De estos DACs se dice que suenan más "analógicos" aunque "oscuros" o "apagados" que los del tipo A, sin embargo la conversión no destruye la imagen acústica contenida en la grabación.  Eso no quita que el circuito analógico sí tenga la capacidad de destruirla.

Otros fabricantes han optado por desarrollar sus propios esquemas de "audio equivalente" para reconstruir las señales a la salida de un conversor sigma-delta de diseño propio y sus propios filtros digitales, lo que les permite mayor control sobre la reconstrucción de la señal digital a partir de las muestras digitales. Estos fabricantes crean sus propios "chips conversores de audio" mediante FPGAs (circuitos lógicos de hardware programable), circuitos lógicos fijos y desarrollan sus propios firmware y software. En estos DACs el diseñador tiene control del esquema de conversión y de los filtros, con lo que el sonido que logran es único y propio. En estos DACs se usa oversampling ya que es factible filtrar en alta frecuencia (es decir manteniendo la resolución en las frecuencias altas), a la vez que pueden reducir el efecto de los artefactos digitales (ringing y pérdida de imagen estéreo). Este tipo de DACs (tipo C) son usualmente caros debido a que deben desarrollar su propio software/firmware y hardware y dependen bastante de la calidad de los relojes de sincronización. El desafío que enfrentan estos fabricantes para su negocio es el de reducir los costos y/o convencer al cliente que su producto merece ser más caro. Además, el esquema de conversión que usan los obliga a crear referencias de cómo debe sonar la conversión.
Estos DACs suenan distinto de los tipo A y tipo B y tampoco suenan parecidos entre sí.

Independientemente del tipo de DAC que se trate, existen algunas otras condiciones de la manipulación digital de los datos de entrada, es decir, de qué forma se le entregan al conversor, como ser R2R (o multibit o por matriz de resistencias con conversión directa) con o sin sigma-delta, o 1-bit (sólo sigma-delta) y existen variantes en el proceso de conversión y filtrado digital como la conexión paralela del núcleo de conversores, filtros digitales sin oversampling (el peor de los mundos) o filtro digital cerrado (equivalente a iteración infinita o caso teórico ideal), todo esto en cualquiera de los tres tipos anteriores (A, B o C).
Estas variantes buscan hacerse cargo del manejo de los errores de conversión y del manejo de los datos, lo que podríamos discutir más adelante con los aportes de los foreros.

Espero que hayan disfrutado la lectura y nos ayude a entender mejor cómo funciona nuestro sistema y qué es lo que podemos (y no podemos) hacer para mejorarlo.
 

Edited by Oscar
  • Upvote 5

Share this post


Link to post
Share on other sites

Muchas gracias Óscar. 

Lo voy a leer unas cuantas veces para poder entender algo de lo que me cuentas en las juntas. 

un saludo

Share this post


Link to post
Share on other sites

Alguna vez pensé la conversión digital-analógico era un mero trámite, tan fácil como leer datos de una tabla y dibujar un gráfico.

Pero es tremendo lío que la tecnología no ha resuelto en 30 años.

Share this post


Link to post
Share on other sites

2v2fuq9.jpg

Oscar te adjunto un diagrama más completo de como funciona el equipo, no tengo acceso a computador ya que estoy en la costa norte. 

Share this post


Link to post
Share on other sites

Master Oscar, dando cátedra (en el buen sentido de la palabra)... Más encima, un dealer jaifai paleta al 1000%. Si hubiera nacido mina, le hubiese hecho un queque o cargado la BIP

Enviado desde mi XT1068 mediante Tapatalk

  • Upvote 1

Share this post


Link to post
Share on other sites
Ya leído 1 vez... Interesantísimo

Enviado desde mi XT1068 mediante Tapatalk

Lo mejor es que, pese a lo complejo del tema, se entiende bastante... como dijo Bruckner, habrá que leerlo varias veces

Enviado desde mi XT1068 mediante Tapatalk

Share this post


Link to post
Share on other sites
2v2fuq9.jpg

Oscar te adjunto un diagrama más completo de como funciona el equipo, no tengo acceso a computador ya que estoy en la costa norte. 

Gracias por el detalle de las interfaces, ya tendrá tiempo de explicarnos un poco más

Enviado desde mi SM-G920I mediante Tapatalk

Share this post


Link to post
Share on other sites

Excelente!!...Tu relato es lo mejor que he leído para introducirse a entender el funcionamiento de los DACs. Gracias.

Share this post


Link to post
Share on other sites

Oiga don paci, realmente crees que para poder sacarle más provecho a un archivo de música codificado en 24 bit / 96 kHz sería bueno tener un parlante que ande por los 96 kHz de respuesta de frecuencia, como dice el personaje del link que pusiste? No te parece un tanto delirante?

Enviado desde mi SM-G920I mediante Tapatalk

Share this post


Link to post
Share on other sites

Super interesante y edicativo. Yo estoy recién en la etapa de aprendizaje del fenómeno del audio digital.

Un dac como los chord Hugo serían del tipo C ¿correcto? Ya que fabrican sus propios chip según entiendo.

Muchas gracias por el aporte

Enviado desde mi iPhone utilizando Tapatalk

Share this post


Link to post
Share on other sites

Muy interesante. Ojalá los duchos puedan desasnarnos un poco y adentrarnos en la descripción y preferencia de Sigma Delta 1 bit (tipo los de PS Audio), Multibit (tipo los de Schiit) etc y qué los diferencia en el proceso.

Share this post


Link to post
Share on other sites
7 hours ago, topclassier said:

Muy interesante. Ojalá los duchos puedan desasnarnos un poco y adentrarnos en la descripción y preferencia de Sigma Delta 1 bit (tipo los de PS Audio), Multibit (tipo los de Schiit) etc y qué los diferencia en el proceso.

Hay otro post (el de las curiosidades de los DACs) donde se muestra un diagrama resumido de cómo funciona el delta-sigma

El multibit se refiere a la conversión D-A clásica mediante un arreglo de resistencias, que en resumido recibe como dato de entrada un código binario (típicamente de 16 bits) que hace de multiplicador de un voltaje de entrada para entregar en la salida una corriente o un voltaje.

El multibit también se conoce como R2R porque se compone de resistencias en serie (R) y en paralelo (2R). El mayor problema de los R2R es que la precisión de la conversión depende demasiado de la precisión de las resistencias.

El sigma-delta nace para aplicaciones de audio donde la precisión en el tiempo no es considerada crítica y donde el propósito es lograr la máxima resolución posible en frecuencia (cuya codificación creó Denon y fue después desarrollado por Philips y Sony para el formato de CD, en lo que se conoce como Red Book).

El esquema es sumamente útil para deshacerse de los problemas de precisión en frecuencia (ruido)

http://www.ti.com/lit/an/slyt423a/slyt423a.pdf

http://www.ti.com/lit/an/slyt438/slyt438.pdf

sin tener que usar los costosos arreglos R2R, además de prestarse naturalmente para el uso de filtros digitales de alta frecuencia, lo que es propio de la conversión D-A.

En el caso ideal esto funciona a la perfección con señales de audio debido a que el formato de audio digital se enfoca en codificar y decodificar con precisión la amplitud de la señal (los bits) y la frecuencia (los kHz). Este esquema de procesamiento a alta frecuencia (se puede llegar a los MHz sin problema y por eso se usa mucho en video) permitió el desarrollo del SACD, aumentando la resolución (es decir la frecuencia) del muestreo.

Pero, por qué se pensó en aumentar la frecuencia de muestreo en su momento, si en teoría con 40 kH de muestreo es posible codificar hasta señales de hasta 20 kHz (el teorema del muestreo dice que para digitalizar y luego reconstruir perfectamente una señal basta con tomar 2 muestras en cada ciclo, por lo tanto a 40 kHz se pueden manejar señales de hasta 20 kHz que es donde está el audio)?

Porque en esa época ya se empezó a notar que era posible codificar y decodificar con mejor calidad de audio si se subía la frecuencia de muestreo.

Pero cómo podía ser esto posible si el teorema del muestreo es matemáticamente correcto y la digitalización no es otra cosa que una modelación matemática?

Esto ocurre porque cuando se definió el formato, el foco era precisamente mantener la precisión en frecuencia, y no se sabía lo relevante que es mantener la precisión en el tiempo de las señales. El aumento de la frecuencia de muestreo no fue porque el teorema del muestreo estuviera malo (sigue siendo válido) sino que lo que hizo fue forzar a reducir los errores de tiempo en la decodificación, cosa que el formato no había definido.

En el caso de Chord, dCS o PSAudio, mantienen el uso del esquema sigma delta por las ventajas que tiene en la precisión en frecuencia y han debido aumentar la frecuencia de oversampling y de procesamiento para reducir los errores entre muestras y así reducir los errores de precisión en el tiempo.

En el caso de Schiit, los muy pillos desarrollaron un algoritmo de filtrado que resuelve la ecuación de conversión infinitesimalmente, es decir, sin errores de tiempo, por esto mismo no pueden usar el esquema sigma-delta, así que están más expuestos a errores en frecuencia.

Tanto Chord como Schiit han postulado que en audio es más relevante mantener bajo control los errores de tiempo que los errores de frecuencia. La AES así lo ha reconocido también. Esto explica por fin por qué el audio digital decodificado no suena igual que el audio en formato analógico

Estamos pues en un momento en que se han encontrado explicaciones, pero no se ha propuesto una teoría que sustente este desarrollo y aún no se dispone de modelos matemáticos que lo permitan.

 

  • Upvote 2

Share this post


Link to post
Share on other sites

Muy interesante y explicativo @Oscar.  Se agradece el tiempo y la dedicación que has dado a este post y al paralelo.

Yo en este momento estoy evaluando ir por un dac y esta info me es muy útil, pero te hago una consulta, según tu oreja, que configuración es mejor, multibit o sigma-delta??

yo solo he escuchado schiit modi 2 uber, hegel hd2, emotiva stealth dc-1, xiang sheng dac-02, de los cuales me gusta el sonido del hegel con la limitante que solo tiene entrada coaxial. Ahora de los dacs que tu conoces con tecnología multibit cual recomendarías??

 

Saludos.

Share this post


Link to post
Share on other sites
1 hour ago, Trush20101 said:

Muy interesante y explicativo @Oscar.  Se agradece el tiempo y la dedicación que has dado a este post y al paralelo.

Yo en este momento estoy evaluando ir por un dac y esta info me es muy útil, pero te hago una consulta, según tu oreja, que configuración es mejor, multibit o sigma-delta??

yo solo he escuchado schiit modi 2 uber, hegel hd2, emotiva stealth dc-1, xiang sheng dac-02, de los cuales me gusta el sonido del hegel con la limitante que solo tiene entrada coaxial. Ahora de los dacs que tu conoces con tecnología multibit cual recomendarías??

 

Saludos.

No hay una configuración implícitamente mejor que otra, R2R o S-D, depende de lo que han hecho con ella

Fíjate cómo filtran, en el caso R2R con filtro NOS o con el filtro de Schiit resuelven muy bien la precisión en frecuencia, pero requieren una implementación precisa en frecuencia, es decir un conversor R2R estable y preciso, por esa razón los Schiit decidieron darse la lata de programar conversores que no son de audio para usarlos en audio, por su mayor precisión R2R. Un desarrollo de este tipo, a bajo costo, es un buen logro, como en el caso de los Schiit multibit más baratos.

Por otra parte, el S-D tiene el potencial de resolver bien en frecuencia con chips más simples o FPGAs menos complejos, por lo tanto a menor costo, sin embargo, para resolver bien en el dominio del tiempo requieren un procesamiento muy costoso en HW y SW con muy alta frecuencia (o taps). Resultan más caros, pero si logran resolver bien en el dominio del tiempo (como en Chord que incopora un procesamiento de muy alta frecuencia, dejando cada vez menos espacio de tiempo entre taps), resultarán efectivos (26 mil taps en el caso del Hugo-2Qute-Mojo) o muy efectivos (160 mil taps en el caso del Dave).

Los DACs que usan chips customizados con esquema S-D (ESS Sabre, AKM Verita, TI, etc.) sin un circuito de filtrado hecho aparte, por fuerza deben ser más baratos. Un DAC con una implementación así tendrá mala resolución en tiempo (sin profundidad y difuso en localización) y agregará ringing a la señal y no debería ser caro.  Algunos le agregan tubos o circuitos para “suavizar” la salida y así mitigar el ringing, pero esto puede resultar caro y es más bien un parche. Todos los DACs que mencionaste son de este tipo, incluso el Schiit Uber (que es un desarrollo previo a los multibit).
 

Edited by Oscar

Share this post


Link to post
Share on other sites
1 hour ago, Oscar dijo:

No hay una configuración implícitamente mejor que otra, R2R o S-D, depende de lo que han hecho con ella

Fíjate cómo filtran, en el caso R2R con filtro NOS o con el filtro de Schiit resuelven muy bien la precisión en frecuencia, pero requieren una implementación precisa en frecuencia, es decir un conversor R2R estable y preciso, por esa razón los Schiit decidieron darse la lata de programar conversores que no son de audio para usarlos en audio, por su mayor precisión R2R. Un desarrollo de este tipo, a bajo costo, es un buen logro, como en el caso de los Schiit multibit más baratos.

Por otra parte, el S-D tiene el potencial de resolver bien en frecuencia con chips más simples o FPGAs menos complejos, por lo tanto a menor costo, sin embargo, para resolver bien en el dominio del tiempo requieren un procesamiento muy costoso en HW y SW con muy alta frecuencia (o taps). Resultan más caros, pero si logran resolver bien en el dominio del tiempo (como en Chord que incopora un procesamiento de muy alta frecuencia, dejando cada vez menos espacio de tiempo entre taps), resultarán efectivos (26 mil taps en el caso del Hugo-2Qute-Mojo) o muy efectivos (160 mil taps en el caso del Dave).

Los DACs que usan chips customizados con esquema S-D (ESS Sabre, AKM Verita, TI, etc.) sin un circuito de filtrado hecho aparte, por fuerza deben ser más baratos. Un DAC caro con una implementación así tendrá mala resolución en tiempo (sin profundidad y difuso en localización) y agregará ringing a la señal.  Algunos le agregan tubos o circuitos para “suavizar” la salida y así mitigar el ringing, pero esto también puede resultar caro y es más bien un parche. Todos los DACs que mencionaste son de este tipo, incluso el Schiit Uber (que es un desarrollo previo a los multibit).
 

Ok, muy claro y gracias por responder este off-topic.

Share this post


Link to post
Share on other sites
hace 11 horas, Oscar dijo:

Hay otro post (el de las curiosidades de los DACs) donde se muestra un diagrama resumido de cómo funciona el delta-sigma

El multibit se refiere a la conversión D-A clásica mediante un arreglo de resistencias, que en resumido recibe como dato de entrada un código binario (típicamente de 16 bits) que hace de multiplicador de un voltaje de entrada para entregar en la salida una corriente o un voltaje.

El multibit también se conoce como R2R porque se compone de resistencias en serie (R) y en paralelo (2R). El mayor problema de los R2R es que la precisión de la conversión depende demasiado de la precisión de las resistencias.

El sigma-delta nace para aplicaciones de audio donde la precisión en el tiempo no es considerada crítica y donde el propósito es lograr la máxima resolución posible en frecuencia (cuya codificación creó Denon y fue después desarrollado por Philips y Sony para el formato de CD, en lo que se conoce como Red Book).

El esquema es sumamente útil para deshacerse de los problemas de precisión en frecuencia (ruido)

http://www.ti.com/lit/an/slyt423a/slyt423a.pdf

http://www.ti.com/lit/an/slyt438/slyt438.pdf

sin tener que usar los costosos arreglos R2R, además de prestarse naturalmente para el uso de filtros digitales de alta frecuencia, lo que es propio de la conversión D-A.

En el caso ideal esto funciona a la perfección con señales de audio debido a que el formato de audio digital se enfoca en codificar y decodificar con precisión la amplitud de la señal (los bits) y la frecuencia (los kHz). Este esquema de procesamiento a alta frecuencia (se puede llegar a los MHz sin problema y por eso se usa mucho en video) permitió el desarrollo del SACD, aumentando la resolución (es decir la frecuencia) del muestreo.

Pero, por qué se pensó en aumentar la frecuencia de muestreo en su momento, si en teoría con 40 kH de muestreo es posible codificar hasta señales de hasta 20 kHz (el teorema del muestreo dice que para digitalizar y luego reconstruir perfectamente una señal basta con tomar 2 muestras en cada ciclo, por lo tanto a 40 kHz se pueden manejar señales de hasta 20 kHz que es donde está el audio)?

Porque en esa época ya se empezó a notar que era posible codificar y decodificar con mejor calidad de audio si se subía la frecuencia de muestreo.

Pero cómo podía ser esto posible si el teorema del muestreo es matemáticamente correcto y la digitalización no es otra cosa que una modelación matemática?

Esto ocurre porque cuando se definió el formato, el foco era precisamente mantener la precisión en frecuencia, y no se sabía lo relevante que es mantener la precisión en el tiempo de las señales. El aumento de la frecuencia de muestreo no fue porque el teorema del muestreo estuviera malo (sigue siendo válido) sino que lo que hizo fue forzar a reducir los errores de tiempo en la decodificación, cosa que el formato no había definido.

En el caso de Chord, dCS o PSAudio, mantienen el uso del esquema sigma delta por las ventajas que tiene en la precisión en frecuencia y han debido aumentar la frecuencia de oversampling y de procesamiento para reducir los errores entre muestras y así reducir los errores de precisión en el tiempo.

En el caso de Schiit, los muy pillos desarrollaron un algoritmo de filtrado que resuelve la ecuación de conversión infinitesimalmente, es decir, sin errores de tiempo, por esto mismo no pueden usar el esquema sigma-delta, así que están más expuestos a errores en frecuencia.

Tanto Chord como Schiit han postulado que en audio es más relevante mantener bajo control los errores de tiempo que los errores de frecuencia. La AES así lo ha reconocido también. Esto explica por fin por qué el audio digital decodificado no suena igual que el audio en formato analógico

Estamos pues en un momento en que se han encontrado explicaciones, pero no se ha propuesto una teoría que sustente este desarrollo y aún no se dispone de modelos matemáticos que lo permitan.

 

Espectacular Oscar!

Share this post


Link to post
Share on other sites

pa que no se pierda en el olvido, ya que la tecnología de conversión de los DACs de audio sigue funcionando como indica este post.

Es valioso rescatar que el formato aún da para mucho y que se puede conseguir muy buen sonido sin tener que modificar digitalmente la grabación original.

Recuerden que el propósito de las grabaciones de alta resolución es ayudar al DAC a resolver la conversión (matemáticamente) en el dominio del tiempo (es decir los ecos de la grabación y la localización de los sonidos en el espacio debido al retardo de los ecos) y no son una mejora del formato que inventó Denon e implementaron Philips y Sony.

O sea, si tienes que conseguirte un DAC muy caro para poder reproducir archivos de alta resolución es porque algo nos está llevando a confundir las capacidades de los DACs y del formato digital.

Edited by Oscar
  • Upvote 1

Share this post


Link to post
Share on other sites

Hola Oscar...una consulta..yo uso como transporte la playstation 1 scph-1000 version japonesa,..tengo entendido que posee como dac de conversion AKM AK4309AVM de 16 bits delta sigma. Para mi es un excelente reproductor y es lo mas análogo que he podido escuchar e inclusive lo consideran audiophile.

Mi pregunta..es si ese chip se uso en otros equipos?....ahh y sobre la informacion de los dac un 7 para ud...he aprendido mas de este mundo digital del audio...sldos...:buen_aporte:

Share this post


Link to post
Share on other sites

No sé de algún cd player que usara el AKM AK4309AVM, aparte de la play1.

Para que verifiques su "analogicidad", fíjate si en las grabaciones te es posible discriminar el tamaño de la sala por el nivel de ecos que aparecen en la grabación y si los sonidos lejanod, en vez de sonar más despacio, se sienten como que vienen detrás de los parlantes (de la pared o incluso más atrás) y te da la sensación de presencia física de lo que origina cada sonido, más que de reproducción en un plano. En una reproducción "analógica" es posible identificar, sin dificultad, el punto de donde viene cada sonido, de lado a lado, de arriba hacia abajo y hacia el fondo de la sala (de la grabación). Sonido analógico no es sólo que suene suave, si no que cuando al escuchar música, el concepto de suave pierda sentido y te parece que el sonido es natural, carente de agresividad sobrepuesta

Enviado desde mi SM-G920I mediante Tapatalk

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.