Saltar al contenido
Pegar imágenes en el foro, mediante equipos móviles ×

pbanados

Miembros
  • Contenido

    3.388
  • Registrado

  • Última Visita

  • Días ganados

    67

Todo lo que pbanados posteó

  1. No, no es así. Dado el silencio lo tendremos que auto responder... Las rejillas adicionales del pentodo son las 1 (supresor) y 4(pantalla); lo cual era bastante lógico porque en el esquemático se ve que la señal de control del pre llega a la rejilla 5 (control) del EL34 (los capacitores C107 y C108 supongo que están para enviar la solo mitad superior e inferior de la señal al lado pull y el lado push respectivamente). Leí en otro lado que la rejilla supresor de un pentodo se conecta normalmente al cátodo (conexión 8 ) lo cual efectivamente se puede ver en el esquema. De allí hay un ramal donde se juntan los de la etapa pull y la push con los diodos VD120 y VD121 supongo para evitar los flujos cruzados entre ellos, y de allí a un STOP que supongo debe ser el switch que habilita o no esta rejilla. La rejilla 4 está claramente controlada por el switch KJ101L, y conectada a la placa colectora (3, ánodo). O sea, parece que en efecto sería un circuito verdaderamente clase A, y obviamente push-pull. Gracias... de nada. Conclusión: hacer un clase A no es ni tan complicado, este diagrama es en el fondo recontra simple. ¿De donde se explican las decenas de miles de us$ de los amplis caros entonces? ¿que parte de este circuito (al menos en su etapa de potencia) podría ser tan sustancialmente mejor para que un ampli cueste 10 o 20 veces más caro (y suene correspondientemente tanto mejor), cuando al final de cuentas son más o menos los mismos tubos, resistencias, diodos y capacitores? Otra pregunta al vacío supongo.
  2. Estimadísimos Gurús: ¿mirando el esquemático de un amplificador, se puede determinar si es un verdadero clase A? Me hice de un integrado a tubos baratito (un Yaqin MS-30L), que dice ser clase A, push-pull (encuentro que suena la raja en todo caso). Tiene dos EL34B por canal en etapa de potencia (¿por eso es push-pull, si no sería uno solo?), y 4 tubitos 6J1 en etapa de pre. Abajo el esquemático (solo un canal), solo de etapas de amplificación, claramente el lado izquierdo es el pre con sus 4 tubitos y a la derecha la de potencia con los 2 EL34B. ¿Sería esto realmente clase A? Además puede funcionar en modo triodo o UL (ultralineal pentodo; tiene una botonera en el frente para ello). ¿Donde se vé eso en este esquema? Salen 5 conexiones de los tubos de potencia, pero ¿donde se switchea el modo? ¿El KJ101L? pd: me tinca que lo del switch de triodo a pentodo son las conexiones abiertas VG1L, VG2L y G1L STOP, que vienen de las rejillas 1 y 5 de los tubos, además del divisor B1L del trafo. (las L son porque este es el canal izquierdo, al otro lado terminan en R) ¿Es eso?
  3. Qué recuerdos... hasta el Commodore venía con buenos manuales. Me acuerdo que tenía un libraco anillado "programmers' reference guide" que partía con Basic y terminaba con lenguaje de máquina, para programar a punta de peeks y pokes... hasta con diagramas de los pines de los procesadores. Después tuve otro en italiano "Il segretti del linguaggio macchina"... me acuerdo no porque tenga buena memoria, sino porque guardo todas esas leseras de recuerdo. Después cuando empecé con los Macintosh junté todos los volúmenes del "Inside Macintosh", manuales de Pascal, y no se cuántos libros más .... para que vean que esto de ser pegao no es cosa de ahora no más Parece que este hilo motivó a todos los vejetes del foro, JAJA!!
  4. Para quienes tenemos grandes problemas tratando de entender toda esta jerga y tecnicismos de los amplificadores, puede que este completísimo tutorial les ayude. Es muy didáctico, y todos los temas relevantes que se discuten habitualmente están tocados: Desde como funciona un diodo, luego un transistor, su necesidad de bias para llevarlo al rango operacional y distintas formas de hacerlo, y como se usan en sus distintas configuraciones para amplificadores clase A, B, AB, etc., en modos push-pull, single ended, formas de acople de etapas de amplificación, las topologías típicas de circuitos para cada caso, etc. Super didáctico, pero igual quedé marcando ocupado, todavía me queda muy grande . Tengo la esperanza que leyéndolo varias veces algo me quede... https://www.tutorialspoint.com/amplifiers/index.htm También puede ayudar a entender lo que pasa en un transistor en sus distintas configuraciones el usar un simulador, como por ejemplo: http://www.csgnetwork.com/transistorcalc.html ... Si alguien logra entender a cabalidad todo lo del tutorial: me podría dar unas clasecitas ...
  5. Jaja, yo ni tuve que buscarlo...tengo un mac classic de adorno en un estante del living... . El que me dejé de los no se cuantos que tuvimos... no se pega la weá de foto... Ahi la arregle..
  6. jaja... tuve: el Sinclair ZX81 (mis primeros jugoseos de compraventa de fierros cuando pendejo y mis primeras líneas de código), el Commodore vic 20 y 64 (y el 128 tb; con el 64 hasta publiqué un programa de reconstrucción 3D topográfica en una revista de la época, la Microbyte), el Atari 800, el IBM PC (pero la versión portátil, bastante parecido al Osborne 1, con ese hice mis primeros planos CAD), el primer Macintosh (el inicio de mi perdición con los Mac), usé mucho el Tandy, y creo que un huevito iMac. Cerca de la mitad de la lista
  7. Tremendos músicos ambos, Reich y Riley, personajes claves del arte contemporáneo. Cada vez que estoy escuchando algo en que la misma nota empieza a repetirse insistentemente mi señora me alega: "Ya estai con ese wn del Reich!" Y sí, Biosphere es como hermano del Double Muffled Dolphin. Creo que es el que más me gusta de Biosphere ( Gert Jenssen; a estos gallos, especialmente los nórdicos, les da por hacerse pasar por grupos...) es 'Substrata', de 1997. Este hilo parece diálogo de dos... nadie más postea... ni siquiera @Thingol, que creó el hilo
  8. No se compadre... para salir un poco de tanto jazz, me puse a escuchar unos de los últimos de Paul Simon, músico de algunos de los hitos de la música popular de las últimas décadas: si fuera por comercio, podría haber master truchos de Graceland, o After All These Years, o de... Pero no, el único disco en master es Stranger to Stranger, de 2016.. (seguro porque a diferencia de los otros su masterizado original fue en alta densidad) y es absolutamente holográfico (y detalladísimo sonido, a esto le falta medios y agudos!?). En verdad debemos pretender que un CD suene aún más definido y preciso espacialmente que esto??!! Y eso que estoy escuchando en un ampli a tubos, que por definición debiera ser menos detallado en agudos y menos preciso en imaging (depende del matching de los tubos, mucho más imperfectos que transistores en consistencia) que mi SS... Extraordinario disco, dicho sea de paso.
  9. Está profusamente explicado en la documentación del MQA. No es un asunto del MQA: toda grabación que sea digitalizada debe ser filtrada del contenido que exista por sobre la frecuencia máxima a registrar, de lo contrario (en una muy simplificada explicación), se producen ambigüedades en la conversión que el algoritmo no tiene como interpretar, y el resultado sería aleatorio: sería como un sistema de ecuaciones con más variables que cantidad de ecuaciones, por poner una analogía. Dicho sea de paso, entiendo que esta es otra causal de la aplicación del teorema de Nyquist-Shannon que citaba antes. Por eso, como dices, todo CD los necesita usar. Y por eso hacer un MQA a partir de un CD es un absurdo: lo que se pretende mejorar ya está incrustado en la grabación y no se puede cambiar. Y por eso es simplemente no creíble que Meridian avale hacer eso, que es exactamente lo opuesto a lo que su tecnología propone. Estos filtros pasabajos deben por lo tanto aplicarse a la señal análoga, antes de que sea digitalizada. En cualquier archivo que se digitalice, sea cual sea su sampling y bitrate. Y el problema de cualquier filtro análogo, que funcionan en base a capacitancias y reactancias, es que introducen desfases en los armónicos de la señal compleja que están procesando. Esto es lo fundamental (no lo único) que el MQA está abordando. Al llevar el corte mucho más arriba (según Nyquist: a 192/2=96 Khz de audio, que ni el perro con más grandes orejas lo escucha, obviamente no es por escuchar eso que lo hacen), el efecto de los filtros no alcanza a bajar hasta la señal audible. Además de la mayor precisión en el timbre de lo digitalizado, el principal beneficio de la coherencia temporal (armónicos no desfasados) es la precisión espacial de la señal captada. Por eso el MQA, en teoría, debiera tener mejor precisión y estabilidad en el imaging y soundstage en el archivo resultante (justo lo opuesto de lo que dice el artículo que ponías). Si alguien quiere chequear cual es el problema de desfasar armónicos, es muy fácil: busquen un simulador de ondas (los hay en linea), modelen una onda con una fundamental y 3 o 4 armónicos (en música los armónicos son múltiplos de la fundamental, si no, sería ruido) y luego prueben de ir corriendo la fase de algunos armónicos: la forma de onda resultante no tendrá nada que ver con el original: ese piano es apenas una vaga aproximación al timbre original del piano. Según Meridian y gente que ellos citan en sus documentos, estaría científicamente comprobado que el oído humano es mucho más sensible a las alteraciones de fase que a la propia respuesta de frecuencia. --- No me recuerdo ahora de los detalles de la eterna y un poco absurda disputa de los 13 y 16 bits del MQA (si mal no recuerdo, los 3 bits es lo que queda bajo el umbral de ruido; donde se graba la data sobre 20 Khz la cual ya viene a su vez plegada en los umbrales de ruido supra aurales; por eso el nombre origami). En todo caso, mi opinión: si TODO a lo que el MQA está orientado es a no alterar los armónicos de la señal, y siendo esos armónicos básicamente frecuencias altas, encuentro simplemente no creíble que el defecto del MQA sea que se peguen la paja (pardon my french) de conservar intactos esos armónicos con sus fases correctas ... para que después desaparezcan del archivo! Osea... puede que sean wnes, pero a ese nivel...
  10. No sé en realidad si no aporta nada. Probablemente no si lo comparamos con un DSD o un PCM de 192/24, aunque son los únicos - hasta donde sé- que han explicado que el beneficio de este sampling más denso es desplazar el efecto de los filtros más arriba del espectro audible, y así, respetar la coherencia temporal del master original: nadie que yo sepa lo había explicado de esta forma, sino simplemente un "más es mejor", fuerza bruta. Pero el otro asunto con esto del MQA es que por algo nadie stremea en densidades altas. El real aporte del MQA, a mi juicio, es lograr comprimir esa mayor densidad de data mediante su técnica del origami (más allá del gancho comercial del nombre, es una técnica verdaderamente creativa, creo que eso es indudable) obteniendo un archivo que es de similar tamaño que un CD normal; lo cual hace posible de transmitir en tiempo real por internet. Además, otro aspecto notable este folding es que respeta íntegramente el contenido audible CD estándar en el archivo resultante, lo que hace posible usarlo solo en calidad CD si tu sistema no cuentas con el software o hardware de desdoblado. Y, sin embargo, curiosamente es este punto el origen de muchas de las críticas (talibanas a mi juicio): al hacer este origami el archivo resultante *parece ser lossy* comparado con el CD estándar. En la práctica no lo es (ES lossless en el rango que contiene información relevante), pues lo modificado es lo que se aloja bajo el umbral de ruido, que no contiene información significante. Sobre si los MQA que circulan son realmente producidos a partir de masters? Ese no es un problema de la tecnología (tal cual los vinilos truchos no son problema de la cápsula que los reproduce), sino de quienes comercializan esos productos falsamente publicitados. Honestamente, no tengo idea de cuanta culpa hay de Meridian/Stuart en esto de que existan falsos MQA, o si se hace con su consentimiento. Tampoco cuan extendido sería ese problema. Sí creo que es bastante decidor la consistencia de los discos en formato master que hay en Tidal: o son discos antiguos (cuyos masters son análogos, por tanto beneficiados con el remasterizado digital a sampling alto), o son discos de sellos de buen pelo y bien grabados. Por ejemplo, gran parte del catálogo ECM, que sabiendo lo maniáticos por la calidad de grabación de ese sello, es seguro que sus masters digitales SI están en samplings mucho mayores a 44/16, y por lo tanto, apropiados a procesar como MQA. Dudo que Manfred Eicher se prestaría para basurear su joya de sello si no creyera que el MQA sí es un aporte auditivo relevante. El otra característica del MQA es que tiene un esquema de sello de agua, que garantiza que el archivo es el original y no una copia trucha. Otro punto criticado pues se ve como una forma de privatizar la tecnología por parte de sus inventores. Francamente, no tengo opinión positiva ni negativa al respecto, pues depende como se vea este asunto: puede ser tanto bueno como malo.
  11. Disco del año por los críticos alemanes, informa la web de ECM. The German Record Critics' Award A propósito, las noticias de la ECM son puros obituarios... Solo en el último año: Jon Christensen, Penderecki, Lee Konitz, Gary Peacock, Dave Darling, Chick Corea...
  12. Ese era un MQA trucho. Por lo dicho en otro post, un verdadero MQA debe partir del master y redigitalizarlo, es parte esencial de la definición de esta tecnología. Si parte de un CD, no hay ninguna ventaja posible en el MQA. La crítica que puede ser válida es: ¿qué pasa con con los master que están grabados en digital y no análogo y en un sampling no demasiado alto? Entiendo que muchos master digitales (probablemente la mayoría) están grabados en 88Khz. En ese caso, el beneficio del MQA sería solo parcial, a menos que remezclaran el master a partir de las pistas de la grabación original, y salvo casos muy especiales dudo que alguien esté dispuesto a hacerlo. De hecho, hay cierta tendencia a que los MQA se hagan sobre grabaciones análogas antiguas; o sobre discos recientemente grabados, que deben haber sido sampleados en alta densidad. Personalmente encuentro que muchos (no todos) los master que escucho en Tidal tienen mejor definición de transientes (ataque y claridad de platillos, por ejemplo) y mayor espacialidad (consecuencia lógica de un time-domain correcto, por lo demás). El documento del link dice en cambio que el ataque es menguado, y que la mayor espacialidad si existe, pero es una exageración poco fidedigna; que a cambio de espacialidad exagerada define mal la posición de cada instrumento. En mi experiencia, absolutamente nada que ver: es precisamente la posición de cada instrumento (y hasta los componentes de cada instrumento) en el arco espacial desplegado una de las cosas que más claramente se puede apreciar en los master. Ahora... puede ser que se necesiten parlantes con drivers uni-Q, gabinetes ultra rígidos y frentes redondeados y sin difracciones para apreciar eso Estoy *preparándome* para leer el documento de @Bozon pero tiene como 10 páginas densas... aunque debo decir que no parte bien: parece redactado por un Donald Trump del audio... pura caca a todos los que no opinen como él, no importan sus pergaminos; exceso de alabanzas a sus propias opiniones (solo yo y nadie más que yo puede salvar a los audiófilos del mundo); y toda su evidencia hasta ahora (con dos pags leídas) se basa en la escucha de UN MQA con guitarra y voz de Bob Dylan. Supongo que luego viene una explicación más científica de estas aseveraciones.... veremos.
  13. Según entiendo, un MQA decodificado sería similar a un DSD. No son generados desde el PCM estándar de los CD, pues en ese hubo que filtrar ANTES de digitalizar la señal análoga de entrada para cortar todo el contenido sobre 20 Khz. (*) De allí viene el nombre MQA: Master-Quality-Authenticated. Es condición necesaria redigitalizar el master del estudio en samplings altos, para que el efecto del filtro se palique más arriab (en 192 Khz creo) y su efecto cascada hacia abajo no alcance a agarrar el espectro audible. (*): No me acuerdo de los detalles de por qué es necesario este filtrado, que DEBE hacerse siempre al digitalizar, pero tiene que ver con que si hubiera frecuencias más altas que el máximo sampling, habría un error de ambigüedad en la digitalización, que el ADC no podría resolver. Estoy de acuerdo con tu crítica al MQA (al final un software en tu pc debiera legar al mismo resultado que un unfolding por hardware en el DAC), pero no tiene que ver con la calidad audible, sino con la estrategia comercial para hacer el formato económicamente viable. Después de todo, esto es un negocio: es como criticarle al panadero el precio de su panes, porque la harina es mucho más barata. O algo así. Si a uno no le gusta, no lo usa.
  14. Time-domain y fases son dos formas de hablar de lo mismo: que los armónicos de una señal sinusoidal compuesta (eso es cualquier sonido musical, los armónicos son los que le dan el timbre a cada instrumento), no tengan corrimientos (desfases) temporales respecto de la fundamental. Curioso: mientras Bob Stuart fundamenta el MQA en que respetaría la integridad del dominio del tiempo de las señales digitalizadas, este artículo según lo que comentas diría exactamente lo contrario. Lo voy a leer, gracias. No peca de modestia el autor en todo caso; apenas parte declara: this is probably the most influential article ever published on digital. Quien es el autor? @MartinV56 eso! Teorema de Nyquist-Shannon. (uff...mi memoria...) Una de las piedras angulares de todo el audio moderno y... a propósito de otra discusión en el foro: la razón del por qué las transformadas de fourier SI tienen TODO que ver con audio, pues, entre otras razones, son fundamentales para todo el análisis matemático derivado del teorema. Entre otras, para la descomposición de esa señal compuesta en las sinusoides que la forman.
  15. Si, tienes razón... esto de redactar a la carrera... Aunque en rigor el "no afecta" lo usé para el asunto de las fases, y eso es realmente lo más objetivo de todo el tema del MQA, porque de hecho ni siquiera depende del MQA, sino es un dato psico-acústico archi conocido. Entre profesionales del audio es sabido que al aplicar filtros (y ese es el problema de todos los ecualizadores no digitales, especialmente de los gráficos), esos filtros alteran la fase de los armónicos de una nota. Para digitalizar una señal análoga, y de acuerdo al teorema -comprobado- de no me acuerdo quien, necesitas duplicar en el sampling la frecuencia más alta que quieres registrar. Y lo notable (esto me costó creerlo, sino hasta que leí lo suficiente), si densificas más de ese doble, no obtienes ninguna mejora; el oído humano no es capaz de distinguir ese "grano más fino". El objetivo de un sampling mayor a 44.1 Khz entonces no es tener más samplings por segundo en el rango audible, sino extender la captura por sobre ese rango audible. Para qué?. Abajo mi intento de explicarlo someramente. Por este teorema el estándar del CD original era 44.1 Khz: El número en binario más cercano al doble de los 20 Khz que un humano de audición perfecta lograría escuchar. Pero para poder digitalizar eso correctamente, no pueden haber frecuencias más altas, o la conversión sería errónea (hay una larga explicación de por qué en el sitio de Meridian). Entonces, se deben aplicar filtros * a la señal análoga, antes de digitalizar*, que corten toda señal sobre los 20 Khz. El asunto es que después se descubrió que esos filtros alteraban las fases de los armónicos, y ello por ejemplo explicaría por qué los CD suenan "ásperos" comparados con la reproducción análoga de los vinilos. Lo que propone Meridian con el MQA es llevar el filtro mucho más arriba, a 192 Khz: con ello logran que la alteración de fases solo afecte sobre los 20 Khz posibles de oir. Osea, la gracia de los formatos de alta densidad no es que escuches sobre 20 Khz, sino que no afectes las fases de lo que hay bajo 20 Khz. La segunda pata del MQA es que encontraron la forma de almacenar esa mayor densidad de data en el mismo espacio de un 44/16 normal, grabándola (entre otras medidas) debajo del umbral de ruido que todo sistema tiene. Del teórico headroom de 144 db de un CD, solo una porción menor de eso es música: gran parte de la información lossless está registrando solo ruido bajo el umbral audible (también hay una explicación técnica de cuál es ese umbral audible, creo que unos -96 db). Lo que hace el MQA es, en vez de registrar ese ruido, graba allí la data capturada sobre los 20 Khz. Por eso es "lossy", porque debajo del umbral audible la información no es igual a la entrada; pero ello no importa, pues antes no escuchabas lo que había allí abajo, y con el MQA en cambio ese "abajo" modificado mejora la señal que sí escuchas. Si te tragas toda esta monserga, la conclusión sería que un streaming master no solo sonaría (nótese mi refinado uso de la conjugación verbal...jaja) igual que un CD, sino mejor (si el flujo de información por internet no te falla, obviamente), porque a diferencia del CD, este archivo master no tiene las fases alteradas. Es condición, eso si, que el archivo fuente haya sido remastereado a sampling alto. Si creen que esto es esoterismo, hay muchos que postulan que la coherencia de fases es aún más importante en la calidad auditiva que la propia respuesta de frecuencia. Yo también lo creo.
  16. mmm.. casi me hice un postgrado en MQA estudiando el tema para responder en el hilo de MQA hace unos meses , dado que encontré re interesante el asunto. Mi conclusión fue que MQA NO comprime con pérdidas en el rango audible, sino en el rango supra audible; y ellos usan ese rango supra audible para mejorar el audible. Resumiendo mucho: un formato estandar modifica fases de la señal análoga de entrada por el efecto de distorsión de fases que generan los filtros pasa bajos necesarios para poder cuantificar en 44/16 (eso incluiría incluso a los CD). Al cuantificar más alto (192/24 creo) los filtros los aplican mucho más arriba, no afectando las fases de lo audible. Lo "lossy" del formato es porque bajo el umbral de ruido ellos comprimen esa mayor información (el famosos origami de Stuart), y el archivo entonces no queda igual al de entrada; pero, nuevamente, eso no tiene efecto audible. Se dice que es "lossy" porque el archivo pre-compresión no es igual al post-compresión, pero es es precisamente lo que lo hace sonar mejor, no peor. Pero mejor no discutamos al respecto, para eso está el otro hilo.
  17. De acuerdo con esos dos puntos, si en verdad existen. Eso podría ser una explicación por la cual una tecnología de los años 80 sigue siendo mejor que una 40 años posterior. Pero honestamente, lo dudo. Sobre 2: el compresor de Tidal debe ser penca para los formatos comprimidos, pero no para los calidad master (sería re fácil para alguien techie hacerlos pedazos en pocos minutos de investigación); sobre 3-si hay errores o congestión de la red, hay más intentos hasta recibir el paquete correcto, pero no un paquete mas o menos no más (única explicación para que suene peor por ello) (*): o llegó bien, o llegó mal. Y si llegó mal (solo porque la red estaba tan congestionada que le acabó el tiempo para re-intentos de corregir el paquete fallado), entra a tallar la corrección "especulativa" de Tidal (algoritmo que rellena el error que no se pudo corregir). Creo que cuando eso se produce, todos tenemos claro que nuestra internet (no Tidal) está guateando; para el caso, es igual como cuando netflix muestra la película pixelada... (*): muchas veces me he preguntado por qué Apple no streamea Apple Music en alta resolución, siendo que, por grande que sea el archivo de música, sigue siendo minúsculo comparado con una película en 4K, que en cambio sí stremean. Creo que el asunto es que si lo hicieran, y siendo una empresa tan popular con un servicio que está pre-instalado, mucha más gente escucharía en hires de lo que ven en 4K, demandando en exceso las redes. En ese sentido, creo que Tidal o QoBuz encontraron un nicho (en nosotros); si fueran más populares, sus sistemas capotarían. Al menos por ahora; esta cosa (la velocidad de la data) avanza gigantescamente mes a mes.
  18. En realidad no sé, pero supongo que es parte básica de cualquier protocolo de comunicación, sea cual sea el medio, de incluir cheksum y otras medidas de chequeo si el paquete recibido llegó o no intacto. En todo caso, eso que mencionas es después de esta discusión, sería igualmente válido para un streamer o un transporte pues es un problema que se presenta después de haber validado el paquete de data: es entre el streamer o el transporte y el DAC; y no entre el disco físico y el transporte; o entre la internet y el streamer (o pc haciendo de streamer). El error de data que mencionaba no tiene que ver con el streamer: es propio del protocolo de comunicación *a internet* que se esté usando (wifi, ethernet, etc; y luego del router hacia afuera; en el caso del transporte su análogo sería los errores de lectura del medio físico que ese hardware está introduciendo). Creo que hay pocas cosas más investigadas y perfeccionadas que eso en el mundo actual: si no, nada funcionaría, no solo nuestros streaming
  19. Precisamente ese, pienso, es el problema de los transportes físicos vs el streamer: mientras el transporte no tiene (o se soluciona solo parcialmente mediante enormes buffers) tiempo para correcciones de errores (los cuales son además dependientes del movimiento físico de cientos de partes y piezas), el streamer puede re-enviar paquetes de información cuantas veces sea necesario (dentro de una ventana de tiempo razonable, dependiendo de tu calidad de conexión obviamente) según el streamer decida si la información recibida está o no correcta. La información capturada por el streamer tiende a ser perfecta; la información del transporte *puede* ser perfecta si todo anduvo bien, pero existe una probabilidad de errores que creo es mucho mayor. Ante un error no corregible, el transporte (o el streamer) deben "inventar" un relleno que supla con el mejor grado de aproximación posible la información errada, con algoritmos de corrección de errores, cuya calidad creo que son la principal fuente de diferencias entre transportes (o para el caso, de streamers). Tantro en la capacidad de lectura del streamer como en la corrección de errores (del streamer o del transporte) ya no evitables la capacidad de procesamiento de la CPU del aparato es clave: a mayor capacidad, mayor calidad de corrección. Y en eso la ventaja de un pc vs un streamer dedicado es gigantesca. Por eso creo que, más allá de la comodidad, por definición un pc (idealmente un mac ) es un mejor streamer que el mejor streamer.
  20. Bobo Stenson Trio - Cantando. La cagó pa bueno este disco, estoy teniendo un festín auditivo escuchándolo. No hay disco de Stenson malo, pero este es superlativo.
  21. Yo encuentro que Tidal suena realmente la raja cuando estás stremeando en altas resoluciones (para empezar, allí hay 5 o 6 veces más información que en un CD estándar). Me da paja hacer comparaciones más detalladas con mis 800+ CD, pero no espero que suenen mejor que el Tidal si ambos alimentan el mismo DAC. Incluso es altamente probable que los errores de lectura de buena parte de los transportes sean mayores a la corrección de errores del streaming. Al menos yo sí escucho significativas diferencias entre mi muy buen CD player (sony línea ES), y mi bluray (tb Snoy), cuando los ocupo solo de transporte ambos, alimentando el DAC. Realmente no entiendo mucho el asunto de que tal o cual streamer suene mejor. Para mi la mejor solución, y las más barata más encima, es sacar la música mediante la app de Tidal directo del pc o el mac al DAC. Por definición la fuente no puede ser más "transparente" que eso. Si el streamer está "mejorando" eso es porque su electrónica está poniendo de su propia cosecha; papel que prefiero dejárselo a la cadena de reproducción (DAC- pre-power-parlantes), y no a la de lectura de la información digital (ya sea que esté en un disco de plástico o en el hiper espacio). Es como decir que el contenido de un libro es más bueno según la calidad del papel en que está impreso. Puede ser mejor por el traductor que esa editorial ocupa o la imprenta con menos errores, pero si lo que estamos evaluando es Vargas Llosa y no a Alfaguara... el placer de usar un streamer es una cosa; que a partir de cierta calidad suenen mejor (el escritor sea mejor)... lo dudo. Pero..., reconozco, estoy usando acá la cabeza y no el oído. Puede que esté cagando fuera del tiesto. Pero si lo estoy, seguiré en ello hasta que alguien salga con una explicación lógica.
  22. Carla Bley - Life Goes on, como siempre con Steve Swallow en el bajo (su pareja) y Andy Sheppard en los saxos. Quizás el mejor de muchos que he escuchado de esta chascona inteligente de la Carla Bley, discos que nunca dejan de ser interesantes y exploraciones. La vi en vivo hace décadas en el Carnegie Hall en NYC. Este disco es como Jazz de cámara, y una seda auditiva. Otro que estuvo entre las selecciones de los mejores del año pasado. Una cosa curiosa: para casi todos los temas, el título de cada canción es continuación del título de la anterior; como diciendo que esta es una obra continua, una narración musical, o al menos una pieza con movimientos. 1- Life Goes on / 2-On / 3-And On / 4-And Then One Day / etc. La raja la foto del estudio, o no? PD: muy bueno el de Haffner Oscar!
  23. Cagué. He estado escuchando bastante en serio un par de integrados a tubos (clase A- dicen-, push-pull, 2xEl34 por canal ambos). Esto es como probar un buen gran reserva y después tratar de conformarse con un Carmen Margaux... Mariconazos los weones... me van a hacer gastar plata.... . Al de jockey rojo lo sindico como el principal responsable! Y su socio del Ayon no lo hace nada de mal tampoco con esa pornografía auditiva que tiene en su casa...
  24. @KISSARMY La comparación es con Tidal y con el CD alimentando el mismo DAC? Si es un "master" Tidal, tb encuentras que el CD correspondiente suena mejor?
  25. Muy buen disco! El tema Faithful es una belleza. Wasilewski, quien fue por años el pianista de Tomas Stanko (tb polaco), tiene un lote de discos buenos. El último del trío con Joe Lovano, Arctic Riff, es muy buen también, y fue una de las selecciones de discos del año 2020.
×
×
  • Crear Nuevo...