2009-11-07 10 views
7

J'utilise un système de transmission de données qui utilise un mot SYNC fixe (0xD21DB8) au début de chaque supertrame. Je serais curieux de savoir comment de tels mots SYNC sont choisis, c'est-à-dire en fonction des critères sur lesquels les concepteurs choisissent la longueur et la valeur d'un tel mot SYNC.Comment les mots SYNC sont-ils choisis?

+0

Un bon dé? – Robert

Répondre

11

En bref:

  • forte probabilité d'unicité

  • haute densité de transitions

Il dépend de la "couche serveur" sous-jacente (en termes de communication). Si la couche de serveur ne fournit pas un moyen de distinguer données de charge utile de des signaux de commande alors un protocole doit être conçu. Il est courant dans la couche de transport orientée flux binaire synchrone de s'appuyer sur un motif SYNC afin de délimiter les unités charge utile. SONET/SDH/OTN, les principales technologies de communication de transport optique, constituent un bon exemple de cette technique.

Habituellement, le critère principal pour choisir un mot SYNC est haute probabilité d'unicité. Bien sûr, ce qui rend sa propriété unicité dépend du codage utilisé pour la charge utile .

Exemple: dans SONET/SDH, une fois le mot SYNC a été trouvé , il est validé pour un certain nombre de supertrames (je ne me souviens pas exactement de beaucoup) avant de déclarer une synchronisation valide Etat. Cela est nécessaire car peut se produire: le codage sur un train de bits synchrone ne peut pas garantir la génération de modèles de charge utile codés orthogonaux au mot SYNC.

Il existe un autre critère: haute densité de transitions. Parfois, la couche de serveur est composée des deux signaux et des signaux (c'est-à-dire non séparés). Dans ce cas, pour que le récepteur puisse délimiter les symboles du flux, il est essentiel d'assurer un nombre maximal de transitions 0-> 1, 0-> 1 pour extraire le signal d'horloge.

Espérons que cela aide.

Mise à jour le: ces pourraient également vous intéresser.

6

Au niveau de la couche physique, une autre considération (en plus de celles mentionnées dans la réponse de jldupont) est qu'un mot de synchronisation peut être utilisé pour synchroniser l'horloge de communication du récepteur avec celle de l'expéditeur. La synchronisation peut seulement exiger la mise à zéro de l'horloge du récepteur, mais cela peut également impliquer de changer la fréquence de l'horloge pour qu'elle corresponde plus étroitement à celle de l'expéditeur.

Pour un protocole asynchrone type, l'expéditeur et le récepteur doivent avoir des horloges identiques. En réalité, bien sûr, les horloges ne sont jamais exactement les mêmes, donc une erreur maximale est normalement spécifiée.

Certains protocoles n'exigent pas que le récepteur ajuste sa fréquence d'horloge, mais tolère l'erreur par suréchantillonnage ou une autre méthode. Par exemple, un UART typique est capable de faire face à des erreurs en mettant à zéro sur le premier front du bit de départ, et en prenant ensuite plusieurs échantillons au point où il s'attend à ce que le milieu de chaque bit soit. Dans ce cas, le mot de synchronisation est juste le bit de départ, et assure une transition au début du message.

Dans le protocole industriel HART, le mot de synchronisation est 0xFF, plus un bit de parité zéro, répété un certain nombre de fois. Ceci est représenté sous la forme d'une forme d'onde analogique, codée en FSK, et apparaît sous la forme de 8 périodes (égales à 8 bits) d'une onde sinusoïdale de 1200 Hz, suivies d'un bit à 2200 Hz. Ce modèle permet au récepteur de détecter qu'il y a un signal valide, puis de se synchroniser au début d'un octet en détectant la transition de 2200 Hz à 1200 Hz. Si nécessaire, le récepteur peut également utiliser cette forme d'onde pour ajuster son horloge.