Zeit zwischen zwei Bitfehlern < Sonstiges < Hochschule < Informatik < Vorhilfe
|
Status: |
(Frage) beantwortet | Datum: | 18:13 Di 12.11.2013 | Autor: | mike110 |
Aufgabe | 1A: Eine 10 Gbit/s Glasfaserverbindung besitze eine Bitfehlerrate von 5 * 10^−16, im Mittel
wird jedes 2 · 10^15-te Bit fehlerhaft übertragen. Es wird angenommen, dass die Leitung voll ausgelastet ist. Wie viel Zeit vergeht dann zwischen zwei Bitfehlern im Mittel?
1B: Wie viel Zeit vergeht im Mittel zwischen zwei Bitfehlern bei einer voll ausgelasteten 1 Gbit/s Ethernet-Verbindung mit einer Bitfehlerrate von 10^−10? |
Ich habe diese Frage in keinem Forum auf anderen Internetseiten gestellt.
1A:
Ich würde sagen 2*10^15 Bit / 10Gb/s
= 2*10^15 Bit / 10737418240 Bit/s
= 186264,514923 Sekunden
quasi 186264,51s = 51,74h
1B:
Weiß ich leider nicht wie ich drauf kommen soll :/
Wäre über jede noch so kleine Hilfe dankbar!
|
|
|
|
Hallo!
Die erste Teilaufgabe hast du korrekt gelöst. Aber die zweite Teilaufgabe ist doch fast gleich, hier sind nur die Zahlen ein wenig anders. Falls du mit der Umrechnung nicht klar kommst:
Die Bitfehlerrate von [mm] 5*10^{-16} [/mm] gibt an, welcher Bruchteil der Bits falsch übertragen wird. Wenn du [mm] 10^{20} [/mm] Bits überträgst, sind davon ungefähr [mm] 10^{20}*5*10^{-16}=5*10^{4}=5000 [/mm] Bits fehlerhaft.
Im Mittel bedeutet das auch, daß alle [mm] \frac{1}{5*10^{-16}}=2*10^{15} [/mm] Bits ein Fehler passiert.
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 23:01 Di 12.11.2013 | Autor: | mike110 |
Aufgabe | Aufgabe
1A: Eine 10 Gbit/s Glasfaserverbindung besitze eine Bitfehlerrate von 5 * 10^−16, im Mittel
wird jedes 2 · 10^15-te Bit fehlerhaft übertragen. Es wird angenommen, dass die Leitung voll ausgelastet ist. Wie viel Zeit vergeht dann zwischen zwei Bitfehlern im Mittel?
1B: Wie viel Zeit vergeht im Mittel zwischen zwei Bitfehlern bei einer voll ausgelasteten 1 Gbit/s Ethernet-Verbindung mit einer Bitfehlerrate von 10^−10? |
1/(10^-10) = 10Gbit
10Gbit / 1Gib/s = 1s?
Kommt da wirklich eine Sekunde raus?
|
|
|
|
|
Status: |
(Antwort) fertig | Datum: | 01:56 Mi 13.11.2013 | Autor: | leduart |
Hallo
nur wenn 10/1=1 wäre!
Gruss leduart
|
|
|
|
|
Status: |
(Frage) beantwortet | Datum: | 22:38 Di 12.11.2013 | Autor: | magicman |
Hallo,
Wie viele bits sind denn 1Gbit?
Wikipedia sagt:
1 Gbit/s (Gigabit/Sekunde) = 1.000.000.000 bit/s
Wieso dann 10737418240?
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:40 Di 12.11.2013 | Autor: | magicman |
Hallo,
Wie viele bits sind denn 1Gbit?
Wikipedia sagt:
1 Gbit/s (Gigabit/Sekunde) = 1.000.000.000 bit/s
Wieso dann 10737418240?
|
|
|
|
|
Status: |
(Mitteilung) Reaktion unnötig | Datum: | 22:52 Di 12.11.2013 | Autor: | mike110 |
Dachte 1024 aber die umrechnen ist wohl doch 1000. Also muss ich einfach 10 Gbit = 10000000000 bit einsetzen, danke! :)
|
|
|
|
|
Hallo!
Das ist in der Tat nicht so einfach.
Die Abkürzungen kilo, Mega und Giga stehen laut Definition eben für Zehnerpotenzen, und darin wird meistens auch gerechnet.
In der Informatik nimmt man dagegen 1024 als Basis, weil 1024=2^10=b10000000000 eben im binärsystem eine schöne grade Zahl ist. 1kB ist damit eben sehr viel handlicher.
In der Realität führt das zu Verwirrungen, z.B. werden Festplatten mit 1TB beworben, aber wenn du sie einbaust, haben sie weniger. Weil der Computer mit 1024 rechnet, der Hersteller aber mit 1000 (Warum wohl?)
Wer es ganz genau haben will, kann kiByte, MiByte und GiByte schreiben, wenn die Basis 1024 ist. Das ist nicht absolut offiziell, man findet es aber immer mehr.
|
|
|
|