Nehodí se? Vůbec nevadí! U nás můžete do 30 dní vrátit
S dárkovým poukazem nešlápnete vedle. Obdarovaný si za dárkový poukaz může vybrat cokoliv z naší nabídky.
30 dní na vrácení zboží
Dans cette thčse, nous proposons un nouvel algorithme de séparation aveugle de sources, basé sur l'optimisation de l'information mutuelle sous contraintes. Le problčme d'optimisation sous contraintes est résolu par passage au problčme dual. L'estimateur proposé du gradient stochastique utilise l'estimation des densités par maximum de vraisemblance dans des modčles de lois exponentielles choisis par minimisation du critčre AIC. Ensuite, la méthode a été généralisée ŕ l'ensemble des divergences entre densités de probabilité. Nous avons montré que l'algorithme utilisant la divergence particuličre de Hellinger a de bonnes propriétés d'effcacité et robustesse en présence du bruit en comparaison avec l'information mutuelle. Dans le cadre de signaux cyclostationnaires, les méthodes précédentes de séparation ont été adaptées en utilisant des statistiques du second ordre. Nous illustrons les performances des algorithmes proposés pour des signaux simulés et pour des signaux réels issus de machines tournantes.