Datenübertragungszeit berechnen

Neue Frage »

Mathe_Kev Auf diesen Beitrag antworten »
Datenübertragungszeit berechnen
Hallo, morgen schreib ich eine Klausur in Telekommunikationstechnik und brauche dringend Hilfe.

Die Formel für die Datenübertragungszeitberechnung:
Datengröße (in bits) * (8+X) / Bandbreite in bit/s = t

Sagen wir mal wir hätten ein Bild von 2,4 MB
Bei einer DSL 6000 Leitung rechnet man so:







Aber wenn ich einfach 2,4/0,6 rechne, komme ich auf 4 Sekunden und nicht auf 45, woran liegt das bzw. wo ist mein Fehler?
AD Auf diesen Beitrag antworten »

Zitat:
Original von Mathe_Kev

Was hat das mit den vorliegenden Angaben zu tun? Jedenfalls nichts mit der Angabe DSL 6000.
Mathe_Kev Auf diesen Beitrag antworten »

Bei einer 6000er DSL hat man eine geschätzte Übertragungsrate von 0,6mb/s,
bei 16000 sinds ja auch nicht 16 mb/s sondern 1,6mb/s...
AD Auf diesen Beitrag antworten »

Da rechnest du schon irgendeinen Schwund ein, Ok. Aber ich dachte, der Schwund wäre schon dein X oben .. na egal. Rohdatenbezogen bedeutet DSL 6000 eine Downloadgeschwindigkeit von

6000 kbit/s = 6000*1024 bit/s .
Mathe_Kev Auf diesen Beitrag antworten »

Nach der Formel wäre es dann = 49152000 bit

Daraus würde sich dann das Ergebnis 4,5 s schließen

Habe vielen Dank smile
AD Auf diesen Beitrag antworten »

Nein, nein - so schnell ist DSL 6000 auch wieder nicht. Ich sehe den Fehler hier:

Zitat:
Original von Mathe_Kev
Datengröße (in bits) * (8+X) / Bandbreite in bit/s = t

Das ist irgendwie Quatsch, mehr Sinn würde

Datengröße (in bytes) * (8+X) / Bandbreite in bit/s = t

machen.
 
 
Mathe_Kev Auf diesen Beitrag antworten »

Aber so lautet die Formel...

Jetzt bin ich aus dem Ruder.

edit : Hast du noch ne Lösung?
AD Auf diesen Beitrag antworten »

Ich hab doch gerade gesagt, was ich für sinnvoll halte.
Mathe_Kev Auf diesen Beitrag antworten »

Ich habe das so gerechnet, und die Zeit befindet sich jetzt im Dezimalbereich.
Also kann das wohl nicht allzu sinnvoll sein..
AD Auf diesen Beitrag antworten »

Ich komme auf 4.5 Sekunden. Ich weiß wirklich nicht, wo das Problem ist, wenn man mal ein wenig nachdenkt:

Rohdatengröße (in bits) / Bandbreite in bit/s = Zeit in s

ist doch GMV (=Gesunder Menschenverstand). So, und die Rohdaten berechnen sich bei dir mit (8+X) Bits pro Byte. Die 8 Bit sind die eigentlichen Daten, und die X Bit (bei dir X=3) sind vielleicht irgendwelche Prüfsummen, CRC-Codes o.ä. Mit dieser Betrachtung ist dann eben

Datengröße (in bytes) * (8+X) / Bandbreite in bit/s = t



Nach deiner Formel

Datengröße (in bits) * (8+X) / Bandbreite in bit/s = t

müsste man für jedes Bit insgesamt 11 Bits übertragen ... was für eine gigantische Verschwendung von Übertragungskapazität. Augenzwinkern
Neue Frage »
Antworten »



Verwandte Themen

Die Beliebtesten »
Die Größten »
Die Neuesten »