waarom is een 20 GB hard schijf nooit echt 20 Gb ?

Weet jij het antwoord?

/2500

1GB is in het echt 1024MB. Dit is technisch gezien altijd zo het geval. Net als dat 1MB, 1024KB is. Echter, fabrikanten van harde schijven hebben een andere standaard genomen. Zij hebben de standaard 1GB is 1000MB. Voor elke GigaByte is er dus 24MB minder geheugen. Zodoende beschikt een schijf van 20GB (staat op de doos) in het echt dus 20x24MB = 480MB minder.

Een 20GB schijf is wel 20GB. Het probleem zit hem in de definitie. 20 GB is 20 miljard byte (20 x 10^9 Byte) aan de hand van de SI definitie van Giga als voorvoegsel. 20 GiB (Giga binary Byte) is 20 x 1073741824 bytes (20 x 2^30 bytes). Ik kan me zelf nog goed herinneren dat wat nu gedefineerd wordt als GiBi-, MeBi- en KiBiBytes voorheen veelal gebruikt werd op een andere manier. In de jaren '80 en '90 van de vorige eeuw hoorde ik geregeld spreken over Giga-, Mega- en Kilobytes in de varianten die nu als GiBi-, MeBi- en KiBiBytes gedefinieerd worden. Dit maakt uiteraard een groot verschil op grotere hoeveelheden. Toegevoegd na 7 minuten: Even ter illustratie een rekensommetje. Als je het verschil uitrekent tussen 20 Giga Binary Bytes en 20 Gigabytes krijg je dit 2^30-10^9 = 73.741.824 Bytes verschil tussen een GiB en een GB. 73741824 x 20 = 1.474.836.480 Bytes verschil tussen 20GiB en 20GB. Dat is dus bijna 1,5 miljard bytes verschil.

20 GB is wel degelijk echt 20 GB. Maar vroeger werd de geheugengrootte afgerond op hele 1000-tallen. Van een computer die 4096 byte geheugen had, (eind jaren 70, begin jaren 80 zeg maar) werd dan gezegd, die heeft 4 Kilobyte! Dat klonk beter. Maar in werkelijkheid had het natuurlijk 4,096 kilobyte. De afronding was toen ook niet zo groot, iets meer als 2%, maar naarmate de geheugens steeds groter werden, bleef de geheugenfabrikanten, en ook computerfabrikanten en ook softwarefabrikanten (dus ook Microsoft) zich aan dezelfde afronding houden. Echter werd de 'fout' wel steeds groter. Toen de eerste computers kwamen met een Megabyte geheugen, bleef men zeggen 1 megabyte, terwijl het in werkelijkheid 1024x1024=1048576, oftewel, de afrondingsfout was al gestegen naar ruim 4% Daarna is het alleen maar erger geworden, nu hebben computers Gigabytes geheugen, en een gigabyte is 1024x1024x1024=1073741824 byte. Zie je dat de foutmarge nu al ruim 7% is? Toch zegt men nu nog steeds liever 1 Gigabyte, als dat ze zeggen: ik heb 1,07 Gigabyte geheugen in mijn computer. Harddiskfabrikanten hebben geen reden om mee te doen met afrondingsfouten, die geven de harddisk gewoon aan in ECHT Gigabytes. Probleem is echter dat Microsofts Windows WEL meegaat met de geheugenfabrikanten. Dus als Windows zegt dat een harddisk 19,07 GB groot is, dan moet je dat eigenlijk delen door een miljoen, en dan maal 1024 x 1024 doen.

Stel zelf een vraag

Ben je op zoek naar het antwoord op die ene vraag die je misschien al tijden achtervolgt?

/100