Différences

Cette page vous donne les différences entre la révision choisie et la version actuelle de la page.

multidimensional_scaling [2011/01/18 10:13] (Version actuelle)
suitable créée
Ligne 1: Ligne 1:
 +====== Échelonnement Multidimensionnel ======
  
 +===== Principes =====
 +
 +L'échelonnement multidimensionnel (//multidimensional scaling//) est une famille de procédures--dont certaines métriques, d'autres non métriques-- d'analyse de matrices de dissimilarité. Ceci peut être vu comme une alternative à (ou généralisation de?) l'analyse factorielle : des matrices de corrélation, similarité ou dissimilarité peuvent être analysées.
 +
 +Soit <jsm>\delta_{i,j}</jsm> la distance entre objets i et j, composant la matrice <jsm>
 + \Delta := \begin{pmatrix} \delta_{1,1} & \delta_{1,2} & \cdots & \delta_{1,I} \\ \delta_{2,1} & \delta_{2,2} & \cdots & \delta_{2,I} \\ \vdots & \vdots & & \vdots \\ \delta_{I,1} & \delta_{I,2} & \cdots & \delta_{I,I} \end{pmatrix}. 
 +</jsm>
 +
 +Le but de l'EMD est, étant donnée Δ, trouver I vecteurs <jsm>x_1,\ldots,x_I \in \mathbb{R}^N </jsm> tels que
 +<jsm>
 +    \|x_i - x_j\| \approx \delta_{i,j} \quad \forall i,j\in I,
 +</jsm>
 +où <jsm> \|\cdot\| </jsm> est une norme. Dans EMD classique, cette norme est la distance Euclidienne, mais plus généralement elle peut être une distance métrique ou arbitraire?
 +
 +Autrement dit, EMD recherche une // embedding// des I objets dans <jsm>\mathbb{R}^N </jsm> telle que les distances sont conservées. Si la dimension N choisie est 2 ou 3, l'on peut représenter graphiquement les vecteurs <jsm>x_i</jsm> afin de   visualiser les similarités des I objets. Notons que les vecteurs <jsm>x_i</jsm> ne sont pas uniques : les distances <jsm>\|x_i - x_j\| </jsm> sont conservées par des translations et rotations .
 +
 +Il y a divers approches pour trouver les vecteurs <jsm>x_i</jsm>. Souvent, EMD est formulé comme un problème d'optimisations où <jsm>\left(x_1,\ldots,x_I\right) </jsm> est une solution qui minimise une fonction de coût (ou pénalité) ; par exemple <jsm>
 +    \min_{x_1,\ldots,x_I} \sum_{i<j} ( \|x_i - x_j\| - \delta_{i,j} )^2. 
 +</jsm>
 +Une solution peut être trouvée par une technique d'optimisation numerique. Pour quelques fonctions de coût bien choisies, les minimisation peuvent être exprimées en termes de eigendécompositions de matrices.
 +
 +===== Sources =====
 +
 +  * [[http://www.statsoft.com/textbook/multidimensional-scaling/|statsoft:MDS]]
 +  * [[http://en.wikipedia.org/w/index.php?title=Multidimensional_scaling|Wikipedia:MDS]]
 
multidimensional_scaling.txt · Dernière modification: 2011/01/18 10:13 par suitable
 
Sauf mention contraire, le contenu de ce wiki est placé sous la licence suivante :CC Attribution-Noncommercial-Share Alike 3.0 Unported
Recent changes RSS feed Donate Powered by PHP Valid XHTML 1.0 Valid CSS Driven by DokuWiki