Analog und digital - Der Unterschied genau und einfach erklärt?

4 Antworten

Hallo YourProducer,

Das ist ja ein sehr umfangreiches Thema. Interessiert dich was Spezyfisches wie z.B. digitale vs. analoge Fotografie, oder TV-Sendungen oder was Anderes?

Ein digitales Signal besteht aus Nullen und Einsen. Man kann damit fast alles damit übertragen, von Zahlen über Musik bis hin zu Videos. Es müssen nur sehr viele solcher "Bits" sein, damit das funktioniert. Analog sind Schallwellen mit Höhen und Tiefen. 

lg


NeoExacun  02.09.2016, 14:34

Was du meinst ist binär. Digital muss nicht nur 0 und 1 haben. Der Zahlenraum der natürlichen Zahlen ist auch digital.

1

Ein analoges Signal ist wert- und zeitkontinuierlich.

Ein digitales Signal ist wert- und zeitdiskret. Es wird nur zu bestimmten, festgelegten Zeitpunkten gemessen (Sampling) und es kann nur ganz bestimmte Werte annehmen (Quantisierung).

Natürlich ist jedes Signal letztlich in der physikalischen Realisierung analog, denn die Physik verbietet unstetige Änderungen eines Wertes (z. B. einer elektrischen Spannung). Die Sache ist, dass Dich das, was bei dem Signal "zwischen" den Messwerten passiert, beim Digitalsignal nicht interessiert.

Digitale Signale können durchaus mehr, als nur zwei Zustände haben. Digitale Signale beim Kabelfernsehen (DVB-C) werden beispielsweise per QAM-256-Modulation (bei DVB-C2 sogar QAM-4096) verbreitet, die 256 (bzw. 4096) verschiedene Pegel unterscheidet (und somit 8 Bit (bzw. 12 Bit) pro Symbolschritt überträgt).


YourProducer 
Fragesteller
 02.09.2016, 14:31

Kontinuierlich und diskret sind doch eigentlich das selbe oder nicht ?

1
NoHumanBeing  02.09.2016, 14:34
@YourProducer

Nein, kontinuierlich ist etwa der Definitionsbereich einer Funktion f(t), mit t über den reellen Zahlen.

Diskret wäre etwa der Definitionsbereich einer Funktion f(t) mit t über den ganzen Zahlen. Die Funktion hat genau bei t = 0, t = 1 (sagen wir mal 1 s), t = 2, t = 3 einen Wert und dazwischen hat sie keinen (ist undefiniert).

Natürlich sind alle physikalischen Signale analog. Bei einem digitalen Übertragungsverfahren interessieren die "Übergänge" aber nicht. Der Empfänger misst die Spannung (oder die Frequenz oder die Phasenlage) in diskreten Zeitintervallen. Dass das physikalische System zwischen den Messpunkten eine Weile braucht, um die Spannung tatsächlich zu ändern (weil diese nur eine endliche Anstiegsrate (engl. "slew rate") haben kann) interessiert nicht. Das ist eine Limitierung des physikalischen Übertragungskanals, die aber eigentlich unerwünscht ist.

1

Analoge Signale sind stufenlos, das heißt, sie können jeden beliebigen Wert annehmen. Ein Tacho beim Auto zeigt beim Beschleunigen jeden beliebigen Wert an (12km/h, 12,102023km/h 12,5km/h, usw...)

Digital hat immer eine begrenzte Anzahl an Zuständen. In der Informatik meistens 1 und 0. Das analoge Signal vom Tacho kann auch digital umgewandelt werden. Dann zeigt der Tacho eben 12km/h und 13km/h an, kann aber nie die unendlich vielen Werte dazwischen abbilden.

War das einigermaßen verständlich?

(Dieser Quatsch mit Digitalfernsehen und den Marketingstrategien von Unternehmen in Asien hat nichts mit der grundlegenden Definition von analog und digital zu tun, wie man sie beispielsweise in der Informatik beigebracht bekommt.)

Analog bedeutet soviel wie stufenlos. Ein abstraktes Beispiel dafür wäre, dass du mit einem Stift beliebiege Muster ohne bestimmte Formgrenzen auf ein Blatt Papier malen kannst.

Digital besitzt nur diskrete Stufen, zwischen zwei Stufen kann kein anderer Wert exisitieren. Das liese sich auf das obige Beispiel so abbilden, dass du auf dem Papier ganze Kästchen entweder komplett anmalen oder frei lassen kannst.

Der Vorteil von analog: Es sind viel mehr Werte möglich, da sich zwischen zwei Werten immernoch ein weiterer Wert einbringen lässt.

Vorteil von Digital: Es ist sehr störungstolerant. Ob ein Kästchen jetzt zu 100% gefüllt ist oder nur zu 90% macht kaum einen Unterschied, es lässt sich immernoch als ausgefüllt erkennen.