Definición en español

En electrónica, método matemático estadístico para predecir una señal variable en el tiempo en presencia de perutrbaciones. El método explota el hecho de que ciertos parámetros característicos del proceso varían lentamente con el paso del tiempo, así que se puede obtener una mejor estimación de la señal en función del tiempo.