Pour moi, cela signifie essentiellement que nous juste (comparaison initiale image RVB) prendre un morceau d'information de couleur et tout en appliquant disposer du RGB -> transformation YCbCr.
Aucune information n'est éliminée par la transformation elle-même. La transformation est réversible dans un sens mathématique. Par exemple. Si vous convertissez une couleur en YCbCr et transformez le résultat en RGB, vous obtenez la même couleur. Dans un monde parfait après tout.
En pratique, il y a une perte d'information. Supposons que vous commencez avec trois octets en RVB. Si vous convertissez en YCbCr, vous obtenez trois valeurs dont deux, à savoir Cb et Cr ne tiennent plus dans 8 bits. Parlant techniquement les deux représentations RGB et YUV ont une gamme différente (http://en.wikipedia.org/wiki/Gamut)
Cette perte d'information est heureusement rarement visible. Side-node important: Cette chose de la gamme est un effet secondaire indésirable et n'a rien à voir avec le choix d'utiliser YCbCr à la première place.
Le point d'utilisation de YCbCr est que les données stockées dans Y sont les plus importantes. C'est la luminosité, ou la valeur de l'échelle de gris. Les données dans Cb et Cr sont les informations de couleur avec la luminosité soustraite pour ainsi dire.
Maintenant, nos yeux ne sont pas très bons pour choisir de subtiles différences de couleur, mais ils sont sensibles aux nuances d'intensité. Pour l'utiliser en jpeg, seule une image basse résolution de Cb et Cr est stockée et Y est stocké en pleine résolution. Il y a différentes façons de le faire avec le plus commun d'omettre tous les autres pixels de Cb et Cr en x et y.Cela réduit d'un facteur quatre les besoins en espace pour Cb et Cr.
D'où vient la partie disposé de l'information couleur vient ou comment est-il
traitées
Il ne vient pas par magie. L'information est perdue pour toujours. Cependant, puisque l'information n'était pas si importante au départ, nous ne voyons pas beaucoup d'artefacts. En JPEG, les pixels laissés à l'écart des volets Cb et Cr sont approximés en redimensionnant les plans Cb et Cr à nouveau. Certains décodeurs reproduisent simplement les pixels manquants en choisissant un voisin, d'autres font une interpolation linéaire.
Merci beaucoup. –
Il y a aussi l'étape de quantification entre la transformée de couleur et la DCT, qui peut être sans perte, étant donné un segment DQT de tous les 1 – matja