Структура информатики

Информатика, ее состав. Понятие информации, информационные процессы. Из истории ВТ

 

План лекции:

1. Структура информатики.

2. Понятие информации, ее измерение и свойства, информационные процессы.

3. Из истории вычислительной техники (до ЭВМ).

4. Принципы фон Неймана.

5. Поколения ЭВМ.

Информатика – наука о законах, методах измерения, хранения, переработке и передачи информации при помощи ЭВМ.

 

В истории информатики можно выделить два периода: предысторию и историю.

Важнейшие события первого периода:

· Развитие устной речи (язык – средство хранения и передачи информации).

· Возникновение письменности (внешняя память человека).

· Книгопечатание (XVI в.) (первая информационная технология).

· Успехи таких точных наук как математика и физика: математическая логика, средства связи.

Второй период связан с возникновением ЭВМ. Рождение информатики обусловлено возникновением и бурным развитием кибернетики – науки об общих закономерностях в управлении и связи (1948 г. Норберт Винер «Кибернетика или управление и связь в животном и машине»). Развиваясь одновременно с развитием ЭВМ, кибернетика превращалась в более общую науку о преобразовании информации.

 

Информатика включает в себя следующие разделы:

· теоретическая информатика – математическая дисциплина, использующая методы математики для построения и изучения моделей обработки, передачи и использования информации;

· вычислительная техника – раздел, в котором разрабатываются общие принципы построения вычислительных систем;

· программирование – деятельность, связанная с разработкой программного обеспечения (получило развитие благодаря появлению ЭВМ);

· информационные системы – раздел информатики, связанный с решением вопросов по анализу потоков информации в различных сложных системах, их оптимизации, структурировании, принципах хранения и поиска информации;

· искусственный интеллект связан с теоретической информатикой. Это направление возникло в 70-х годах прошлого века. Находит применение в робототехнике, экспертных системах.

 

Прикладная информатика обслуживает науку, технику, производство и другие виды деятельности человека путем создания и внедрения информационных технологий.

 

Понятие информации, ее измерение и свойства

 

Понятие «информация» (от лат. Information – «сведение», «разъяснение», ознакомление) является базовым. Его определение нельзя дать через другие, более просты понятия.

В широком смысле информация – сведения об объектах, процессах реального мира, их свойствах, состояниях и отношениях, которые уменьшают имеющуюся в знаниях о них степень неопределенности или неполноты.

В простейшем бытовом понимании это некоторые сведения, данные и т.п.

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертеж, )

 

Информация может существовать в самых разнообразных формах:

a) текстов, рисунков, чертежей, фотографий;

b) световых или звуковых сигналов;

c) радиоволн;

d) электрических и нервных импульсов;

e) магнитных записей;

f) жестов и мимики;

g) запахов и вкусовых ощущений;

h) хромосом, посредством которых передаются по наследству признаки свойства организмов и т.д.

Предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.

В определении количества информации существуют два подхода.

Вероятностный (энтропийный) подход, который учитывает ценность информации для получателя. Получатель сообщения имеет определенные представления о возможных наступлениях некоторых событий. Эти представления недостоверны и выражаются вероятностями, с которыми он ожидает то или иное событие. Общая мера неопределенности (энтропия) характеризуется некоторой математической зависимостью от совокупности этих вероятностей. Количество информации в сообщении определяется тем, насколько уменьшается эта мера после получения сообщения.

Р. Хартли предложил в качестве меры неопределенности логарифм от числа возможностей: H=k log a m, где

k – коэффициент пропорциональности;

m – число возможных выборов;

a – основание логарифма.

При k=1 и a=2 получим выбор из двух возможностей. Такая единица называется бит.

К.Шеннон обобщил формулу для случая, когда вероятности различных исходов опыта неодинаковы:

Объемный подход, который принят в технике. Бит – один символ двоичного алфавита – минимальный объем информации. 1 байт=8бит.

1 килобайт = 210 байт

1 мегабайт = 210 килобайт

1 гигабайт = 210 мегабайт

1 терабайт = 210 гигабайт

 

Общая схема передачи информации:

· источник информации;

· канал передачи информации;

· получатель информации.

 

Для удобства передачи информации, для ее хранения применяется кодирование – выражение данных одного типа через данные другого типа.

 

С точки зрения информации наиболее важными являются свойства:

· объективность (более объективна та информация, методы которой менее подвержены субъективным характеристикам);

· полнота (характеризует качество, определяет достаточность данных для принятия решения или создания новых данных на основе уже имеющихся);

· достоверность (уменьшается с уменьшением полноты информации);

· адекватность (соответствие объекту или явлению);

· доступность (мера возможности получить конкретную информацию);

· актуальность (степень соответствия информации текущему моменту времени);

· защищенность (невозможность несанкционированного использования или изменения).

 

Информатика изучает процессы сбора, хранения и переработки информации, компьютер же является основным инструментом в этом процессе.

Назначение компьютера – принимать, перерабатывать, хранить и выдавать информацию (числовую, символьную, графическую, звуковую…), которую компьютер воспринимает через свои периферийные устройства и устройства ввода.

Поскольку в конечном итоге вся информация в компьютере представлена в числовой форме, то можно сказать, что компьютер предназначен для обработки чисел, т.е. вычислений («компьютер» переводится как «вычислитель»).


Из истории вычислительной техники

 

История непосредственно ВТ начинается с середины ХХ века. Рассмотрим некоторые этапы, предшествующие этому времени.

· Счеты (в России появились в 15-16 веках, мире же – по некоторым данным примерно 1500 лет назад).

· 1642 г. Блез Паскаль создал устройство, механически выполняющее сложение чисел.

· 1673 г. Годфрид Вильгельм Лейбниц изобрел арифмометр, механически выполняющий 4 арифметических действия (тогда даже существовала специальная профессия – счетчик – человек, работающий с арифмометром).

· В 1-ой половине XIX в. английский математик Чарльз Бэббидж делал попытки построить универсальное вычислительное устройство – аналитическую машину, которая должна была

- выполнять вычисления без участия человека, исполняя программы, вводимые с помощью перфокарт (уже применяемых в то время на ткацких станках),

- иметь «склад» для запоминания данных и промежуточных результатов.

Однако техника того времени не позволила воплотить эти идеи в жизнь.

· В конце XIX Герман Холлерит в Америке изобрел счетно-перфорационные машины, данные в которые вводились с помощью перфокарт. Он основал фирму, давшую позднее начало известной фирме IBM.

· 1882 г. Выдающийся русский математик и механик Пафнутий Львович Чебышев (1821 - 1894) построил машину для выполнения арифметических операций над числами

· 1894 г. Русский инженер В.Т. Однер построил арифмометр, некоторые черты которого сохранились до середины XX в.

· 1904 г. Академик Алексей Николаевич Крылов (1863 - 1945) построил механическую вычислительную машину для решения дифференциальных уравнений.

Т.о. был накоплен достаточно большой опыт в построении электромеханических вычислительных устройств. Другой предпосылкой было развитие электроники.

· 1904 г. Джон Амброз Флеминг (Великобритания, 1849 - 1945) изобрел первый ламповый диод.

· 1906 г. Ли Де Форест (США, 1873 - 1961) – первый триод.

· Эра ЭВМ начинается с изобретения лампового триггера. Это открытие сделали независимо
в 1918 г. русский ученый Михаил Александрович Бонч-Бруевич (1888 – 1941)
в 1919 английские ученые У. Экклз и Ф. Джордан

· В 1937 г. к идее автоматической цифровой ЭВМ приходит Дж. Атанасов, доцент колледжа штата Айова (США). В 1939 г. со своим аспирантом Кл. Берри он создал работающую настольную модель ЭВМ.

· В конце 30-х годов Сергей Алексеевич (Институт электротехники АН УССР) приступил к конструированию ЭВМ, работающей в двоичной системе счисления.

· 1943 г. Американец Говард Эйкен, используя идеи Бэббиджа, на основе электромеханических реле построил на одном из предприятий фирмы IBM машину «Марк - 1».

· 1941 г. Немецкий инженер Конрад Цузе переоткрыл идеи Бэббиджа и построил аналогичную машину.

· В 1941 г. профессор физики Джон Мочли ознакомился с проектом Атанасова и предложил работу в этом направлении.
В 1945 г. группа специалистов под руководством Джона Мочли Преспера Экерта создала машину на основе электронных ламп (18000 шт.) – ENIAC (электронно-цифровой интегратор и компьютер). Однако для задания программы приходилось подсоединять провода определенным образом (на что уходило несколько дней), и был сделан вывод: программу необходимо хранить в памяти.

· 1945 г. К работе привлечен американский математик Джон фон Нейман. Он подготовил доклад, в котором сформулировал общие принципы функционирования универсальных вычислительных устройств (так называемый проект «Принстонские машины»).


 

Принципы фон Неймана

Компьютер должен иметь следующие устройства:

· арифметико-логическое устройство,
выполняющее арифметические и логические операции;

· устройство управления,
которое организует процесс выполнения программ;

· запоминающее устройство (память)
для хранения программ и данных;

· внешние устройства
для ввода и вывода информации.

 
 

 

 


С помощью внешнего устройства в память компьютера вводится программа.

Устройство управления считывает содержимое ячейки памяти, где находится 1-ая команда программы и организует ее выполнение (выполнение арифметических и логических операций, запись результатов в память, ввод или вывод данных).

Считывается команда из следующей ячейки. Однако порядок может быть изменен с помощью команд перехода, который осуществляется в случае выполнения некоторых условий.

Т.о. управляющее устройство выполняет программы автоматически. Оно может обмениваться информацией с памятью, внешними устройствами. Результаты выполнения программы должны быть выведены на внешнее устройство.