Кодування даних.

Інформаційні технології

В широкому сенсі слово технологія - це спосіб освоєння людиною матеріального світу за допомогою соціально організованої діяльності, що включає три компоненти: інформаційну(наукові принципи та обґрунтування), матеріальну(знаряддя праці) та соціальну (фахівці, які мають професійні навики). Ця тріада становить сутність сучасного розуміння поняття технологія.

Поняття інформаційної технології з’явилося з виникненням інформаційного суспільства, основою соціальної динаміки в якому є не традиційні матеріальні, а інформаційні ресурси: знання, наука, організаційні чинники, інтелектуальні здібності, ініціатива, творчість і т.д. На жаль, це поняття є настільки загальним та всеохоплюючим, що до сих пір фахівці не прийшли до чіткого, формалізованого формулювання. На думку авторів, найбільш вдалим є визначення поняття інформаційної технології дане академіком Глушковим В.М., який трактував її як людино-машинну технологію збирання, обробки та передачі інформації, що ґрунтується на використанні обчислювальної техніки. Ця технологія швидко розвивається, охоплюючи всі види суспільної діяльності: виробництво, управління, науку, освіту, фінансово-банківські операції, медицину, побут та ін.

Для автоматизації роботи з даними, що відносяться до різних типів, важливо уніфікувати їх форму представлення. Для цього, як правило, використовується прийом кодування, тобто представлення даних одного типу через дані іншого типу. Звичайні людські мови можна розглядати як системи кодування ідей та понять для вираження думок за допомогою мовлення. Іншим прикладом загальновживаних систем кодування може бути азбука, як система кодування компонентів мови за допомогою графічних символів. Універсальні засоби кодування успішно втілюються в різноманітних галузях техніки, науки та культури - математичні вирази, телеграфна азбука, морська азбука, азбука для сліпих тощо. Своя система кодування існує й в інформатиці, і називається вона двійковим кодом. Ґрунтується вона на представленні даних послідовністю двох знаків: 0 та 1. Ці знаки називають двійковими цифрами або бітами (від скорочення англійських слів binary digit). Слід зауважити, що вся інформація, що зберігається та обробляється засобами обчислювальної техніки, незалежно від її типу (числа, текст, графіка, звук, відео), представлена у двійковому коді.

Одним бітом можна виразити два поняття: 0 або 1 (ні або так, хибне або істинне). Якщо кількість бітів збільшити до двох, то тоді можна вже закодувати чотири поняття : 00, 01, 10, 11. Трьома бітами кодують вісім понять: 000, 001, 010, 011, 100, 101, 110, 111. Збільшуючи на одиницю кількість розрядів в системі двійкового кодування, ми збільшуємо в два рази кількість значень, які можуть бути виражені в цій системі кодування, тобто кількість значень вираховується за формулою:

N = 2 m де N - кількість незалежних значень, що кодуються, m - розрядність двійкового кодування.

Найменшою одиницею об’єму даних прийнято вважати байт - групу з 8 бітів. Байтом можна закодувати, наприклад, один символ текстової інформації. Наступним одиницями кодування є:

кілобайт (Кбайт): 1 Кбайт = 1010 байт = 1024 байт;

мегабайт (Мбайт): 1 Мбайт = 1010 Кбайт = 1024 Кбайт;

гігабайт (Гбайт): 1 Гбайт = 1010 Мбайт = 1024 Мбайт;

терабайт (Тбайт): 1 Тбайт = 1010 Гбайт = 1024 Гбайт.

Саме в таких одиницях вимірюється ємність даних в інформатиці.