Структура информатики
Информатика, ее состав. Понятие информации, информационные процессы. Из истории ВТ
План лекции:
1. Структура информатики.
2. Понятие информации, ее измерение и свойства, информационные процессы.
3. Из истории вычислительной техники (до ЭВМ).
4. Принципы фон Неймана.
5. Поколения ЭВМ.
Информатика – наука о законах, методах измерения, хранения, переработке и передачи информации при помощи ЭВМ.
В истории информатики можно выделить два периода: предысторию и историю.
Важнейшие события первого периода:
· Развитие устной речи (язык – средство хранения и передачи информации).
· Возникновение письменности (внешняя память человека).
· Книгопечатание (XVI в.) (первая информационная технология).
· Успехи таких точных наук как математика и физика: математическая логика, средства связи.
Второй период связан с возникновением ЭВМ. Рождение информатики обусловлено возникновением и бурным развитием кибернетики – науки об общих закономерностях в управлении и связи (1948 г. Норберт Винер «Кибернетика или управление и связь в животном и машине»). Развиваясь одновременно с развитием ЭВМ, кибернетика превращалась в более общую науку о преобразовании информации.
Информатика включает в себя следующие разделы:
· теоретическая информатика – математическая дисциплина, использующая методы математики для построения и изучения моделей обработки, передачи и использования информации;
· вычислительная техника – раздел, в котором разрабатываются общие принципы построения вычислительных систем;
· программирование – деятельность, связанная с разработкой программного обеспечения (получило развитие благодаря появлению ЭВМ);
· информационные системы – раздел информатики, связанный с решением вопросов по анализу потоков информации в различных сложных системах, их оптимизации, структурировании, принципах хранения и поиска информации;
· искусственный интеллект связан с теоретической информатикой. Это направление возникло в 70-х годах прошлого века. Находит применение в робототехнике, экспертных системах.
Прикладная информатика обслуживает науку, технику, производство и другие виды деятельности человека путем создания и внедрения информационных технологий.
Понятие информации, ее измерение и свойства
Понятие «информация» (от лат. Information – «сведение», «разъяснение», ознакомление) является базовым. Его определение нельзя дать через другие, более просты понятия.
В широком смысле информация – сведения об объектах, процессах реального мира, их свойствах, состояниях и отношениях, которые уменьшают имеющуюся в знаниях о них степень неопределенности или неполноты.
В простейшем бытовом понимании это некоторые сведения, данные и т.п.
Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.
Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертеж, )
Информация может существовать в самых разнообразных формах:
a) текстов, рисунков, чертежей, фотографий;
b) световых или звуковых сигналов;
c) радиоволн;
d) электрических и нервных импульсов;
e) магнитных записей;
f) жестов и мимики;
g) запахов и вкусовых ощущений;
h) хромосом, посредством которых передаются по наследству признаки свойства организмов и т.д.
Предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.
В определении количества информации существуют два подхода.
Вероятностный (энтропийный) подход, который учитывает ценность информации для получателя. Получатель сообщения имеет определенные представления о возможных наступлениях некоторых событий. Эти представления недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности (энтропия) характеризуется некоторой математической зависимостью от совокупности этих вероятностей. Количество информации в сообщении определяется тем, насколько уменьшается эта мера после получения сообщения.
Р. Хартли предложил в качестве меры неопределенности логарифм от числа возможностей: H=k log a m, где
k – коэффициент пропорциональности;
m – число возможных выборов;
a – основание логарифма.
При k=1 и a=2 получим выбор из двух возможностей. Такая единица называется бит.
К.Шеннон обобщил формулу для случая, когда вероятности различных исходов опыта неодинаковы:
Объемный подход, который принят в технике. Бит – один символ двоичного алфавита – минимальный объем информации. 1 байт=8бит.
1 килобайт = 210 байт
1 мегабайт = 210 килобайт
1 гигабайт = 210 мегабайт
1 терабайт = 210 гигабайт
Общая схема передачи информации:
· источник информации;
· канал передачи информации;
· получатель информации.
Для удобства передачи информации, для ее хранения применяется кодирование – выражение данных одного типа через данные другого типа.
С точки зрения информации наиболее важными являются свойства:
· объективность (более объективна та информация, методы которой менее подвержены субъективным характеристикам);
· полнота (характеризует качество, определяет достаточность данных для принятия решения или создания новых данных на основе уже имеющихся);
· достоверность (уменьшается с уменьшением полноты информации);
· адекватность (соответствие объекту или явлению);
· доступность (мера возможности получить конкретную информацию);
· актуальность (степень соответствия информации текущему моменту времени);
· защищенность (невозможность несанкционированного использования или изменения).
Информатика изучает процессы сбора, хранения и переработки информации, компьютер же является основным инструментом в этом процессе.
Назначение компьютера – принимать, перерабатывать, хранить и выдавать информацию (числовую, символьную, графическую, звуковую…), которую компьютер воспринимает через свои периферийные устройства и устройства ввода.
Поскольку в конечном итоге вся информация в компьютере представлена в числовой форме, то можно сказать, что компьютер предназначен для обработки чисел, т.е. вычислений («компьютер» переводится как «вычислитель»).
Из истории вычислительной техники
История непосредственно ВТ начинается с середины ХХ века. Рассмотрим некоторые этапы, предшествующие этому времени.
· Счеты (в России появились в 15-16 веках, мире же – по некоторым данным примерно 1500 лет назад).
· 1642 г. Блез Паскаль создал устройство, механически выполняющее сложение чисел.
· 1673 г. Годфрид Вильгельм Лейбниц изобрел арифмометр, механически выполняющий 4 арифметических действия (тогда даже существовала специальная профессия – счетчик – человек, работающий с арифмометром).
· В 1-ой половине XIX в. английский математик Чарльз Бэббидж делал попытки построить универсальное вычислительное устройство – аналитическую машину, которая должна была
- выполнять вычисления без участия человека, исполняя программы, вводимые с помощью перфокарт (уже применяемых в то время на ткацких станках),
- иметь «склад» для запоминания данных и промежуточных результатов.
Однако техника того времени не позволила воплотить эти идеи в жизнь.
· В конце XIX Герман Холлерит в Америке изобрел счетно-перфорационные машины, данные в которые вводились с помощью перфокарт. Он основал фирму, давшую позднее начало известной фирме IBM.
· 1882 г. Выдающийся русский математик и механик Пафнутий Львович Чебышев (1821 - 1894) построил машину для выполнения арифметических операций над числами
· 1894 г. Русский инженер В.Т. Однер построил арифмометр, некоторые черты которого сохранились до середины XX в.
· 1904 г. Академик Алексей Николаевич Крылов (1863 - 1945) построил механическую вычислительную машину для решения дифференциальных уравнений.
Т.о. был накоплен достаточно большой опыт в построении электромеханических вычислительных устройств. Другой предпосылкой было развитие электроники.
· 1904 г. Джон Амброз Флеминг (Великобритания, 1849 - 1945) изобрел первый ламповый диод.
· 1906 г. Ли Де Форест (США, 1873 - 1961) – первый триод.
· Эра ЭВМ начинается с изобретения лампового триггера. Это открытие сделали независимо
в 1918 г. русский ученый Михаил Александрович Бонч-Бруевич (1888 – 1941)
в 1919 английские ученые У. Экклз и Ф. Джордан
· В 1937 г. к идее автоматической цифровой ЭВМ приходит Дж. Атанасов, доцент колледжа штата Айова (США). В 1939 г. со своим аспирантом Кл. Берри он создал работающую настольную модель ЭВМ.
· В конце 30-х годов Сергей Алексеевич (Институт электротехники АН УССР) приступил к конструированию ЭВМ, работающей в двоичной системе счисления.
· 1943 г. Американец Говард Эйкен, используя идеи Бэббиджа, на основе электромеханических реле построил на одном из предприятий фирмы IBM машину «Марк - 1».
· 1941 г. Немецкий инженер Конрад Цузе переоткрыл идеи Бэббиджа и построил аналогичную машину.
· В 1941 г. профессор физики Джон Мочли ознакомился с проектом Атанасова и предложил работу в этом направлении.
В 1945 г. группа специалистов под руководством Джона Мочли Преспера Экерта создала машину на основе электронных ламп (18000 шт.) – ENIAC (электронно-цифровой интегратор и компьютер). Однако для задания программы приходилось подсоединять провода определенным образом (на что уходило несколько дней), и был сделан вывод: программу необходимо хранить в памяти.
· 1945 г. К работе привлечен американский математик Джон фон Нейман. Он подготовил доклад, в котором сформулировал общие принципы функционирования универсальных вычислительных устройств (так называемый проект «Принстонские машины»).
Принципы фон Неймана
Компьютер должен иметь следующие устройства:
· арифметико-логическое устройство,
выполняющее арифметические и логические операции;
· устройство управления,
которое организует процесс выполнения программ;
· запоминающее устройство (память)
для хранения программ и данных;
· внешние устройства
для ввода и вывода информации.
С помощью внешнего устройства в память компьютера вводится программа.
Устройство управления считывает содержимое ячейки памяти, где находится 1-ая команда программы и организует ее выполнение (выполнение арифметических и логических операций, запись результатов в память, ввод или вывод данных).
Считывается команда из следующей ячейки. Однако порядок может быть изменен с помощью команд перехода, который осуществляется в случае выполнения некоторых условий.
Т.о. управляющее устройство выполняет программы автоматически. Оно может обмениваться информацией с памятью, внешними устройствами. Результаты выполнения программы должны быть выведены на внешнее устройство.