Hallo,
habe gerade in einer Zeitschrift über WLAN gelesen, dass ein Megabit angeblich 1048576 Bit sind. Vielleicht ist das eine doofe Frage, aber wie kommen die denn darauf? Ich hatte das so in Erinnerung:
- Im Computer/Speicher-Bereich sind 8 Bit = 1 Byte und dieses multipliziert man immer mit 1024 um auf 1 KB und 1 MB und 1 GB zu kommen.
- Im Datenübertragungsbereich multipliziert man einfach nur mit 1000 anstelle von 1024, also 1 Mbit = 8 * 1000 * 1000 bit
Ist denn wenigstens das richtig?
Gruß, Nico