Manchester-Codierung

Was ist Manchester-Codierung?
Die Manchester-Codierung ist ein Algorithmus, der in Computer-Netzwerken verwendet wird, um Datenbits digital zu codieren. Bei der Manchester-Codierung werden Datenbits in einer Reihe von verschiedenen Stufen dargestellt, die in einer logischen Reihenfolge auftreten.

Bei der Datenkommunikation werden verschiedene Verschlüsselungstechniken zur Sicherheit der Daten und zur schnellen Übertragung eingeführt. Die Manchester-Codierung ist eine solche digitale Codierungstechnik. Es unterscheidet sich deutlich von anderen digitalen Codierungstechniken, da jede Datenbitlänge standardmäßig festgelegt ist.

Der Bitzustand wird gemäß der Übergangsrichtung bestimmt. Unterschiedliche Systeme stellen den Bitstatus auf unterschiedliche Weise dar, aber die meisten Systeme repräsentieren 1 Bit für den Übergang von niedrig zu hoch und 0 Bit für den Übergang von hoch zu niedrig.

Signalisierungssynchronisation ist der Hauptvorteil der Manchester-Codierung. Synchronisation von Signalen bietet höhere Zuverlässigkeit mit der gleichen Datenrate im Vergleich zu anderen Methoden. Aber Programmierer sollten beachten, dass Manchester-Codierung auch einige Nachteile hat. Zum Beispiel verbraucht das Manchester-codierte Signal mehr Bandbreite als das ursprüngliche Signal.

Die Manchester-Codierung weist folgende Merkmale auf:

– Jedes Bit wird in einer festen Zeit übertragen.

– Eine „1“ wird festgestellt, wenn ein Übergang von hoch zu niedrig auftritt; 0 wird ausgedrückt, wenn ein Übergang von niedrig nach hoch erfolgt.

– Der Übergang, der für Note 1 oder 0 verwendet wird, erfolgt genau in der Mitte eines Zeitraums.


War die Erklärung zu "Manchester-Codierung" hilfreich? Jetzt bewerten:

Weitere Erklärungen zu