jueves, 31 de octubre de 2013

THD..

... THD (Total Harmonic Distorsion)...

La distorsión armónica es un parámetro técnico utilizado para definir la señal de audio que sale de un sistema.

La distorsión armónica se produce cuando la señal de salida de un sistema no equivale a la señal que entró en él. Esta falta de linealidad afecta a la forma de la onda, porque el equipo ha introducido armónicosque no estaban en la señal de entrada. Puesto que son armónicos, es decir múltiplos de la señal de entrada, esta distorsión no es tan disonante y es más difícil de detectar.

Al hablar de distorsión armónica, normalmente se hace referencia a la llamada distorsión armónica total, que es precisamente, la cantidad de armónicos que el equipo introduce y que no estaban en la señal original.

Para normalizar las medidas. La distorsión armónica total se mide introduciendo un tono de 1 kHz y midiendo la señal de salida. En los parámetros técnicos de los equipos, suele figurar la distorsión armónica total y se da en forma de porcentaje. Habitualmente, se indica con las siglas en inglés THD (Total Harmonic Distortion). Por ejemplo, THD 0,3 @ 1 kHz.


En general para clasificar a los equipos, hoy en dia podemos dar los siguientes datos orientativos:

*Equipos Buenos: THD inferior al 0.1%
*Equipos Muy Buenos: THD inferior al 0.05%
*Equipos Excelentes: THD inferior al 0.01%

Estos valores se deben expresar a la potencia nominal (máxima) y a 1kHz

Definición matematica:

Si en un sistema no lineal introducimos un tono de frecuencia f_0\,, en la salida tendremos ese mismo tono (con una amplitud y fase posiblemente diferentes) y, sumado a él, otros tonos de frecuencia 2f_0, 3f_0, \ldots\, llamados armónicos del tono fundamental f_0\,. Definimos THD de la siguiente manera:


\mbox{THD} = {\sum{\mbox{Potencia de los armonicos}} \over \mbox{Potencia de la frecuencia fundamental}} = {{P_1 + P_2 + P_3 + \cdots + P_N} \over P_0}


donde P_0 es la potencia del tono fundamental y P_i con i > 0 es la potencia del armónico i-ésimo que contiene la señal. Todas las medidas de potencia se realizan en la salida del sistema, mediante un filtro paso banda y un osciloscopio o bien mediante un analizador de espectro.

En realidad existen varios criterios para definir el THD, como considerar la relación entre voltajes o corrientes



sábado, 12 de octubre de 2013

Algoritmo de Cooley y Tukey


Algoritmo de Cooley y Tukey

El algoritmo de Cooley-Tukey, el nombre de J.W. Cooley y John Tukey, es el rápido algoritmo de transformada de Fourier más común. Se re-expresa la transformada discreta de Fourier de un tamaño arbitrario compuesto N = n1n2 en términos de DFT más pequeñas de tamaños N1 y N2, de forma recursiva, con el fin de reducir el tiempo de cálculo a O para altamente compuesto N. Debido a la importancia del algoritmo, variantes específicas y estilos de ejecución han dado a conocer por sus propios nombres, como se describe a continuación.
Debido a que el algoritmo de Cooley-Tukey rompe la DFT en DFT más pequeñas, se puede combinar arbitrariamente con cualquier otro algoritmo para la DFT. Por ejemplo, el algoritmo de Rader o Bluestein de se puede utilizar para manejar grandes factores primos que no pueden ser descompuestos por Cooley-Tukey, o el algoritmo de máxima audiencia factor puede ser aprovechada para una mayor eficiencia en la separación de los factores primos.
Ver también la transformada rápida de Fourier para obtener información sobre otros algoritmos FFT, especializaciones para los datos reales y/o simétrica, y la precisión en la cara de punto flotante de precisión finita.

Historia

Este algoritmo, incluyendo su aplicación recursiva, fue inventado alrededor de 1805 por Carl Friedrich Gauss, que lo utilizó para interpolar las trayectorias de los asteroides Pallas y Juno, pero su trabajo no fue ampliamente reconocido. Gauss no analizó el tiempo de cálculo asintótica, sin embargo. Diversas formas limitadas también fueron descubiertas varias veces a lo largo de los siglos 19 y 20. FFT se hizo popular después de que James Cooley de IBM y John Tukey de Princeton publicó un artículo en 1965 reinventando el algoritmo y la descripción de cómo llevar a cabo convenientemente en un ordenador.
Tukey al parecer se le ocurrió la idea durante una reunión de un comité asesor presidencial de EE.UU. discutir maneras de detectar ensayos de armas nucleares en la Unión Soviética. Otro de los participantes en esa reunión, Richard Garwin de IBM, reconoció el potencial del método Tukey y poner en contacto con Cooley, quien implementó un problema diferente: el análisis de los datos cristalográficos 3d. Cooley y Tukey posteriormente publicaron su documento conjunto, y la adopción a gran siguieron rápidamente.
El hecho de que Gauss había descrito el mismo algoritmo no se realizó sino hasta varios años después de papel Cooley y Tukey 1965. Su artículo citado como inspiración única obra de IJ buena en lo que ahora se llama el algoritmo FFT primer factor; algoritmo aunque de buen principio se pensó equivocadamente que es equivalente al algoritmo de Cooley-Tukey, se dio cuenta rápidamente de que PFA es un algoritmo muy diferente .

El caso radix-2 DIT

Un radix-2 de diezmado en tiempo FFT es la forma más simple y más común del algoritmo de Cooley-Tukey, aunque las implementaciones de Cooley-Tukey altamente optimizados suelen utilizar otras formas del algoritmo como se describe a continuación. Radix-2 DIT se divide una DFT de tamaño N en dos DFT intercalados de tamaño N/2 en cada etapa recursiva.
La transformada discreta de Fourier se define por la fórmula:
donde es un número entero de al.
Radix-2 DIT primero calcula la DFT de las entradas incluso indexados y de las entradas indexados impares, y luego combina estos dos resultados para producir la DFT de toda la secuencia. Esta idea, entonces se puede realizar de forma recursiva para reducir el tiempo de ejecución global a O. Esta forma simplificada supone que N es una potencia de dos, ya que el número de puntos de muestra N por lo general puede ser elegido libremente por la aplicación, esto a menudo no es una restricción importante .
El algoritmo Radix-2 DIT reorganiza la DFT de la función en dos partes: una suma sobre los índices de número par y una suma en los índices impares:
Uno puede factorizar un multiplicador común a partir de la segunda suma, como se muestra en la siguiente ecuación. A continuación, es claro que las dos sumas son la DFT de la parte par-indexado y la DFT de la parte impar-indexada de la función. Denotan la DFT de las entradas Aún indexados y por la DFT de las entradas Odd indexados por y obtenemos:
Sin embargo, estos DFTs más pequeños tienen una longitud de N/2, por lo que sólo necesita calcular N/2 salidas: gracias a las propiedades de la periodicidad de la DFT, las salidas para  

Pseudocódigo

En pseudocódigo, el proceso anterior se puede escribir:
 X0, ..., N-1? ditfft2: DFT de: si N = 1 entonces X0? x0 size-1 trivial DFT caso base más X0, ..., N/2-1? ditfft2 DFT de XN/2, ..., N-1? ditfft2 DFT por k = 0 a N/2-1 combinan DFT de dos mitades en plena DFT: t? Xk Xk? t + exp Xk + N/2 Xk + N/2? t - exp Xk + N/2 endfor endif
Aquí, ditfft2, calcula X = DFT fuera de lugar por un FFT radix-2 DIT, donde N es una potencia entera de 2 y s = 1 es el paso de la matriz de entrada x. x + s denota la matriz a partir de xs.
Implementaciones FFT alto rendimiento hacen muchas modificaciones a la aplicación de un algoritmo de tal comparación con este sencillo pseudocódigo. Por ejemplo, se puede utilizar un caso base mayor que N = 1 para amortizar los gastos generales de la recursión, los factores de rotación pueden calcularse previamente, y radices más grandes se utilizan a menudo por razones de caché; estas y otras optimizaciones juntos pueden mejorar el rendimiento en un orden de magnitud o más. Varias de estas ideas se describen en más detalle a continuación.

Factorizaciones Generales

Más en general, los algoritmos de Cooley-Tukey recursiva re-expresan una DFT de un tamaño compuesto N = n1n2 como:

  • Realizar DFTs N1 N2 tamaño.
  • Multiplique por las raíces complejas de la unidad llamados factores de rotación.
  • Realizar DFTs N2 de tamaño N1.

  • Por lo general, ya sea N1 o N2 es un pequeño factor, llamado el radix. Si N1 es la raíz, que se llama un algoritmo de decimación en el tiempo, mientras que si N2 es la raíz, es decimación en frecuencia. La versión anterior fue presentado un algoritmo radix-2 DIT, en la expresión final, la fase de multiplicación de la transformación extraña es el factor twiddle y el +/- combinación de las transformaciones pares e impares es una talla 2 DFT.
    Hay muchas otras variaciones en el algoritmo de Cooley-Tukey. Mezclado-radix implementaciones de identificadores tamaños compuestos con una variedad de factores, además de a dos, por lo general empleando el algoritmo de O para los casos base primos de la recursión. Dividir radix se funde radices 2 y 4, explotando el hecho de que la primera transformada de base 2 no requiere ningún factor de vuelta ligera, con el fin de lograr lo que fue durante mucho tiempo el recuento de operación aritmética conocido bajo para poder de dos tamaños, aunque las variaciones recientes lograr un recuento aún más baja . Otra manera de mirar el algoritmo de Cooley-Tukey es que se re-expresa un tamaño N DFT unidimensional como por N1 N2 DFT de dos dimensiones, donde se transpone la matriz de salida. El resultado neto de todas estas transposiciones, para un algoritmo de radix-2, corresponde a una inversión de bit de la entrada o salida de índices. Si, en lugar de utilizar una pequeña radix, uno emplea una base de más o menos vN y de entrada/salida de transposiciones matriz explícita, se llama un algoritmo de cuatro pasos, propuesto inicialmente para mejorar la localidad de memoria, por ejemplo, para la optimización de caché o fuera de servicio de núcleo, y más tarde se demostró que un algoritmo de caché-ajeno óptima.
    El Cooley-Tukey factorización en general vuelve a escribir el índices k y n como y, respectivamente, donde los índices de ka y na van desde 0 .. Na-1. Es decir, que volvió a los índices de entrada y salida como N1 N2 por matrices bidimensionales en orden de columna-principal y de las filas, respectivamente, la diferencia entre estas indexaciones es una transposición, como se mencionó anteriormente. Cuando re-indexación se sustituye en la fórmula DFT para nk, el término cruzada desaparece, y los términos restantes dan
    donde cada suma interna es una DFT de N2 tamaño, cada suma exterior es una DFT de tamaño N1, y el término entre corchetes es el factor de vuelta ligera.
    Un radix arbitraria r se puede emplear, como se ha demostrado por tanto Cooley y Tukey, así como de Gauss. Cooley y Tukey asumieron inicialmente que la raíz de la mariposa requiere O el trabajo y por lo tanto, calcula la complejidad de una raíz r que O = O, desde el cálculo de los valores de r/log2r para valores enteros de r 2-12 la óptima base se encuentra a ser 3. Este análisis era errónea, sin embargo: la radix-mariposa es también una DFT y se puede realizar a través de un algoritmo de FFT en las operaciones de O, por lo tanto, la raíz r cancela realmente en la complejidad O, y la r óptima se determina por consideraciones más complicados. En la práctica, bastante grande r son importantes con el fin de explotar eficazmente por ejemplo, el gran número de registros del procesador en los procesadores modernos, e incluso una ilimitada radix r = vN también logra complejidad O y tiene ventajas teóricas y prácticas para grandes N como se mencionó anteriormente.

    Reordenación de los datos, inversión de poco, y en el lugar algoritmos

    Aunque el resumen de Cooley-Tukey factorización de la DFT, anteriormente, se aplica en alguna forma a todas las implementaciones del algoritmo, existe una diversidad mucho mayor en las técnicas para ordenar y acceder a los datos en cada etapa de la FFT. De especial interés es el problema de la elaboración de un algoritmo en el lugar que sobrescribe la entrada con sus datos de salida utilizando sólo el almacenamiento auxiliar O.
    La técnica más conocida reordenación implica inversión de poco explícito en el lugar radix-2 algoritmos. Reversión es la permutación de bits, donde los datos en un índice n, escrito en binario con los dígitos b4b3b2b1b0, se transfieren al índice con los dígitos invertidos b0b1b2b3b4. Tenga en cuenta la última etapa de un algoritmo de radix-2 DIT como el presentado anteriormente, en donde la salida está escrito en el lugar sobre la entrada: y cuando se combinan con un tamaño de 2-DFT, esos dos valores son sobrescritos por las salidas. Sin embargo, los dos valores de salida deben ir en la primera y segunda mitades de la matriz de salida, correspondiente al bit más significativo b4, mientras que las dos entradas y se intercalan en los pares e impares elementos, correspondientes al bit menos significativo b0. Por lo tanto, con el fin de obtener la salida en el lugar correcto, estos dos bits deben ser intercambiados. Si se incluyen todas las etapas recursivas de un algoritmo radix-2 DIT, todos los bits deben ser cambiados y por lo tanto uno debe pre-procesar la entrada con una inversión de poco para la salida en orden. De la misma manera, si lleva a cabo todos los pasos en orden inverso, se obtiene un algoritmo radix-2 DIF con inversión de poco en el post-procesamiento. Alternativamente, algunas aplicaciones funcionan igual de bien en los datos de bits invertidos, por lo que uno puede realizar hacia adelante transformaciones, procesamiento y luego inversos transforma todo sin reversión bits para producir los resultados finales en el orden natural.
    Muchos usuarios de FFT, sin embargo, prefieren salidas de orden natural, y una etapa de bits reversión separada, explícita pueden tener un impacto no despreciable en el tiempo de cálculo, a pesar de reversión poco se puede hacer en tiempo O y ha sido el objeto de mucha investigación. También, mientras que la permutación es una inversión de bits en el caso radix-2, que es más general, una inversión de dígitos arbitrario para el caso mixto-radix, y los algoritmos de permutación ser más complicado de implementar. Por otra parte, es deseable en muchas arquitecturas de hardware para volver a ordenar las etapas intermedias de la algoritmo de FFT para que operen en los elementos de datos consecutivos. Con este fin, una serie de planes de ejecución alternativos se han ideado para el algoritmo de Cooley-Tukey que no requieren inversión de bits independiente y/o que involucren permutaciones adicionales en fases intermedias.
    El problema se simplifica en gran medida si está fuera de lugar: la matriz de salida es distinta de la matriz de entrada o, de manera equivalente, una matriz auxiliar de igual tamaño está disponible. El algoritmo de clasificación automática Stockham realiza todas las etapas de la FFT fuera de lugar, por lo general por escrito de ida y vuelta entre dos matrices, la transposición de un "número" de los índices con cada etapa, y ha sido especialmente popular en arquitecturas SIMD. Se han propuesto aún mayores potenciales ventajas SIMD para el algoritmo de Pease, que también reordena fuera de lugar con cada etapa, pero este método requiere poco separada/reversión dígitos y S de almacenamiento. También se puede aplicar directamente la definición de factorización Cooley-Tukey con recursión explícita y pequeñas radices, que produce-orden natural fuera de su lugar de salida sin paso permutación separado y se puede argumentar que tiene beneficios localidad-ajenos caché en sistemas con memoria jerárquica.
    Una estrategia típica para en el lugar algoritmos sin almacenamiento auxiliar y sin pases de inversión de dígitos aislados ocasiona pequeñas transposiciones de la matriz en una fase intermedia, que se pueden combinar con las mariposas radix para reducir el número de pasadas sobre los datos.

    domingo, 18 de agosto de 2013

    Algo sobre PETER NORVIG


    PETER NORVIG



    Peter Norvig es un científico informático estadounidense. Él es el director de investigación (ex Director de Calidad de búsqueda). Nació el 14 de diciembre de 1956 en Estados Unidos.


    Él es un compañero y consejero de la American Association for Artificial Intelligence y co-autor, junto a Stuart Russell, de la inteligencia artificial: un enfoque moderno, ahora el texto universidad líder en el campo. Anteriormente, fue jefe de la División de Computación Ciencias (ahora la División de Sistemas Inteligentes) de la NASA Ames Research Center, donde supervisó un equipo de 200 científicos realizando investigaciones de la NASA y el desarrollo de la autonomía y la robótica, ingeniería de software automatizado y análisis de datos, neuroingeniería de colaboración investigación de sistemas y simulación basado en la toma de decisiones. Anteriormente, fue Jefe Científico en Junglee, donde ayudó a desarrollar uno de los servicios de Internet primero de comparación de compras, diseñador en jefe de Harlequin Inc., y científico principal de Sun Microsystems Laboratories.

    Norvig recibió una Licenciatura en Ciencias en Matemáticas Aplicadas de la Universidad Brown y un doctorado en Ciencias de la Computación de la Universidad de California, Berkeley. Él ha sido profesor adjunto en la Universidad del Sur de California y miembro de la facultad de investigación en Berkeley. Cuenta con más de cincuenta publicaciones en diversas áreas de Ciencias de la Computación, concentrándose en la inteligencia artificial, procesamiento de lenguaje natural, recuperación de información y la Ingeniería del Software incluida la Inteligencia Artificial libros: Un acercamiento moderno, Paradigmas de Programación AI: Estudios de caso en Common Lisp, Verbmobil: Un sistema de Traducción de diálogo cara a cara, y sistemas inteligentes de ayuda para UNIX.




    Norvig es también conocido por su "Presentación Powerpoint Gettysburg", una sátira sobre las prácticas de mala presentación utilizando famoso discurso de Gettysburg de Abraham Lincoln.
    Norvig es uno de los creadores de JScheme. En 2006 fue admitido como miembro de la Association for Computing Machinery. Norvig aparece en "Facultad Académica y Asesores" de la Universidad de la Singularidad. En 2011, trabajó con Norvig Sebastián Thrun para desarrollar un curso en línea popular en Inteligencia Artificial , que contaba con más de 160.000 estudiantes matriculados. Él también enseña un curso en línea a través de la plataforma Udacity. Él cree que una revolución docente, impulsada por herramientas informáticas, se encuentra pendiente.


    miércoles, 24 de julio de 2013

    ...Tipos De Señales & Ejemplos...


    Definición:

    Es todo aquello que contiene información acerca de la naturaleza o el comportamiento
    de algún fenómeno físico (electromagnético, acústico, mecánico, biológico, etcétera).
    Una señal se representa matemáticamente por medio de una función
    que depende de una o más variables independientes.

    Señales continuas en el tiempo:

    Son señales definidas sobre un rango continuo de tiempo, la amplitud puede asumir un rango continuo de valores o un numero finito de distintos valores.





    Señales analógicas:

    Son señales definidas sobre un rango continuo de tiempo y un rango continuo de amplitud.



    Señales continuas en el tiempo y cuantizadas en amplitud:

    Es una señal definida sobre un rango continuo en el tiempo con un conjunto de valores finitos en amplitud.





    Señales de tiempo discreto:

    Son señales definidas sobre instantes discretos de tiempo, es decir la variable tiempo es cuantizada. Si la amplitud de la señal puede asumir un rango de valores continuos, entonces la seña es llamada señal de muestreo.


    Señales digitales:

    Son señales definidas sobre instantes discretos en tiempo y amplitud. 





    Ejemplos:   

    Transmisión de datos por ondas electromagnéticas.







    Transmisión de televisión análoga y digital:





    El proceso completo de generación y recepción de la señal de Televisión Digital Terrestre se ilustra a continuación:



    Las etapas principales del proceso completo son las     siguientes:
    •  Producción: producción y pos-producción de los contenidos audiovisuales originales.
    •  Radiodifusión: empaquetado y emisión de los programas por las cadenas de televisión.
    •  Gestión del multiplex TDT: combinación y empaquetado de los 4/5 canales de televisión digital que pueden compartir un mismo multiplex TDT que ocupara un (1) canal de radiofrecuencia UHF.
    •  Transmisión: distribución y difusión de la señal de TDT por el operador de red.
    •  Recepción: recepción de la señal de TDT a través de las antenas de viviendas individuales o colectivas.
    •  Descodificación: descodificación de la señal y presentación de los contenidos en el televisor.
    •  Interactividad: Si se desea que el usuario acceda a servicios interactivos se necesita un canal de retorno que debe ser provisto a través de redes de telecomunicación separadas y aparte de la infraestructura TDT (típicamente RTC o ADSL).



    Imágenes de ultrasonido:

    Diagnóstico por imágenes con ultrasonido: La máquina de ultrasonido crea imágenes que permiten examinar varios órganos en el cuerpo. Esta máquina envía ondas sonoras de alta frecuencia que hacen eco en las estructuras corporales y un computador recibe dichas ondas reflejadas y las utiliza para crear una imagen. A diferencia de los Rayos X, en este examen no se presenta ninguna exposición a la radiación ionizante. Al igual que cualquier onda, el ultrasonido sufre el fenómeno de atenuación dentro de las diferentes estructuras del cuerpo, como regla general a mayor frecuencia se logra menor penetración y a la inversa, a menor frecuencia podemos lograr mayor penetración.
    Las frecuencias típicas utilizadas para aplicaciones en abdomen pueden ir desde 2,0 MHz a 5,0 MHz mientras que para regiones como mama, músculo-esqueléticas, tiroides, etc., las frecuencias pueden oscilar entre 8,0 MHz a 16,0 MHz.



    Conversor Analógico-Digital (A/D):

    Un conversor analógico-digital es un dispositivo electrónico capaz de convertir una señal analógica en un valor binario, en otras palabras, éste se encarga de transformar señales analógicas a digitales (0 y 1).
    El dispositivo establece una relación entre su entrada (señal analógica) y su salida (digital) dependiendo de su resolución. La resolución determina la precisión con la que se reproduce la señal original.
    Esta resolución se pude saber, siempre y cuando conozcamos el valor máximo de la entrada a convertir y la cantidad máxima de la salida en dígitos binarios.
    Resolución = +Vref/2^n(donde n son bits)
    Por ejemplo, un conversor A/D de 8-bits puede convertir valores que van desde 0V hasta el voltaje de referencia (Vref) y su resolución será de:Resolución = Vref/256. Lo que quiere decir que mapeará los valores de voltaje de entrada, entre 0 y Vref voltios, a valores enteros comprendidos entre 0 y 255 (2^n-1).
    La tarjeta Arduino utiliza un conversor A/D de 10-bits, así que: Resolución = Vref/1024 Mapeará los valores de voltaje de entrada, entre 0 y Vref voltios, a valores enteros comprendidos entre 0 y 1023 (2^n-1). Con otras palabras, esto quiere decir que nuestros sensores analógicos están caracterizados con un valor comprendido entre 0 y 1023. 
    Si Vref es igual a 5v, la resolución es aproximadamente de 5 milivoltios. Por lo tanto el error en las medidas de voltaje será siempre de sólo 5 milivoltios.