Понятие обработки информации

Приложения информатики.

Приложения информатики охватывают почти все виды человеческой деятельности: управление, производство, наука, образование, сфера бухгалтерского и финансового учёта, медицина и торговля. Большую часть приложений составляют информационные технологии. Под информационными технологиями мы будем понимать автоматизированные технологии получения, сбора, хранения, передачи и использования информации. Реализации информационных технологий очень разнообразны. Выделим некоторые из них:

1. АСУ – автоматизированные системы управления, представляющие собой комплекс программно-технических средств, обеспечивающих совместно с человеком организацию управления той или иной сферы деятельности.

2. АСУТП – автоматизированные системы управления технологическими процессами. Примером являются технологические комплексы, управляемые компьютером, станки с числовым программным управлением (запуск космических аппаратов).

3. АСНИ – автоматизированные системы научных исследований, характеризующиеся сопряжением научных приборов с компьютером, который обрабатывает получаемые им данные и преобразует их к форме удобной для применения.

4. АОС – автоматизированные обучающие системы – позволяют не только обучать, но и проводить контроль знаний обучаемых.

5. САПР – системы автоматизированного проектирования – системы позволяющие решать трудоёмкие проектные работы той или иной сферы, например: проектирование зданий в архитектуре, раскладка лекал в швейном производстве.

Кроме того, имеются системы диагностики в медицине, редакционно-издательские системы, бухгалтерские системы и т.д.

В современном обществе идёт процесс постоянного увеличения доли использования информационных технологий. Данный процесс называется информатизацией. Информатизация неизбежна на современном этапе развития общества, вследствие постоянно усложняющихся социально-экономических процессов.

 

1.3 Информация, её виды и свойства.

Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение. Т.о. Информация — это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний. Например, втехнике под информацией понимают сообщения, передаваемые в форме знаков или сигналов; в кибернетике под информацией понимает ту часть знаний, которая используется для управления, активного действия, развития системы (Н. Винер). Информация может существовать в виде:

  • текстов, рисунков, чертежей, фотографий;
  • световых или звуковых сигналов;
  • радиоволн;
  • электрических и нервных импульсов;
  • магнитных записей;
  • жестов и мимики;
  • запахов и вкусовых ощущений;
  • хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.

Информация - есть базовое понятие информатики, сущность окружающего нас мира. Информация перемещается в виде сообщения. Передача предполагает наличие следующих компонентов процессов: источника информации, получателя информации и канала связи.

Канал связи - это среда той или иной природы, посредствам которой информация перемещается от источника к получателю. Схема передачи информации имеет вид:

       
   


источник канал связи получатель

информации сообщение информации

 

Например, при общении двух людей говорящий выступает в роли источника, слушающий – в роли получателя. Каналом связи является воздух, сообщение представлено в виде звуковых сигналов. В качестве источника и получателя информации могут выступать либо человек, либо определенное техническое средство. Человек воспринимает сообщение с помощью органов чувств, техническое средство – с помощью регистрирующих или измерительных устройств. Данные при передаче характеризуются некоторой величиной, которая может принимать либо произвольное значение из некоторого диапазона, либо конкретные значения определенной последовательности. В первом случае имеет место вид аналоговой информации, во втором – дискретной. Примером аналоговой информации может служить характеристики каких-либо природных явлений (атмосферное давление, сила воздуха), дискретной информацией – текст книги, который представляет собой конечный набор символов, т.е. букв.

Информация характеризуется следующими свойствами:

1. адекватность, т.е. однозначное соответствие объекту или процессу, к которым она относится.

2. релевантность, т.е. соответствие нуждам пользователей.

3. полнота, т.е. исчерпывающая информация о необходимых для пользователя объемах, характеризация объекта или процесса.

4. достоверность, т.е. истинность данных, отсутствие ошибок, явных и неявных

5. своевременность, т.е. способность представления пользователю необходимой информации в требуемый момент времени.

6. доступность, т.е. возможность ее получения конкретным пользователем.

7. защищенность, т.е. санкционированность доступа к работе на ПК особенно в условиях изменения информации.

8. эргономичность, т.е. удобство в сборе и использовании пользователем получаемой информации.

9. уникальность – неповторимость (в случае необходимости).

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему. Так, сообщение, составленное на японском языке, не несёт никакой новой информации человеку, не знающему этого языка, но может быть высокоинформативным для человека, владеющего японским. Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.

Информация есть характеристика не сообщения, а соотношения между сообщением и его потребителем. Без наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно.
Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

ДОПОЛНЕНИЕ!Информация достоверна, если она отражает истинное положение дел. Недостоверная информация может привести к неправильному пониманию или принятию неправильных решений.

Достоверная информация со временем может стать недостоверной, так как она обладает свойством устаревать, то есть перестаёт отражать истинное положение дел.

Информация полна, если её достаточно для понимания и принятия решений. Как неполная, так и избыточная информация сдерживает принятие решений или может повлечь ошибки.

Точность информации определяется степенью ее близости к реальному состоянию объекта, процесса, явления и т.п.

Ценность информации зависит от того, насколько она важна для решения задачи, а также от того, насколько в дальнейшем она найдёт применение в каких-либо видах деятельности человека.

Только своевременно полученная информация может принести ожидаемую пользу. Одинаково нежелательны как преждевременная подача информации (когда она ещё не может быть усвоена), так и её задержка.

Если ценная и своевременная информация выражена непонятным образом, она может стать бесполезной.

Информация становится понятной, если она выражена языком, на котором говорят те, кому предназначена эта информация.

Информация должна преподноситься в доступной (по уровню восприятия) форме. Поэтому одни и те же вопросы по разному излагаются в школьных учебниках и научных изданиях.

1.4. Количественная оценка информации.

Подходы к определению количества информации. Формулы Хартли и Шеннона. Американский инженер Р. Хартли в 1928 г. процесс получения информации рассматривал как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определял как двоичный логарифм N. Формула Хартли: I = log2N Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 > 6,644. Таким образом, сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единицы информации. Приведем другие примеры равновероятных сообщений:
  1. при бросании монеты: "выпала решка", "выпал орел";
  2. на странице книги: "количество букв чётное", "количество букв нечётное".
Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины. Для задач такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе. Формула Шеннона: I = — ( p1log2 p1 + p2 log2 p2 + . . . + pN log2 pN), где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений. Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1 / N, и формула Шеннона превращается в формулу Хартли. Помимо двух рассмотренных подходов к определению количества информации, существуют и другие. Важно помнить, что любые теоретические результаты применимы лишь к определённому кругу случаев, очерченному первоначальными допущениями.

В качестве единицы информации Клод Шеннон предложил принять один бит (англ. bitbinary digit — двоичная цифра).

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений (типа "орел"—"решка", "чет"—"нечет" и т.п.). В вычислительной технике битом называют наименьшую "порцию" памяти компьютера, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28). Широко используются также ещё более крупные производные единицы информации:

  • 1 Килобайт (Кбайт) = 1024 байт = 210 байт,
  • 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,
  • 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.
  • 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,
  • 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

Следует дать понятие двоичной и десятичной системы счисления. Алгоритм перевода десятичной системы в двоичную и обратно.

Обработка информации — получение одних информационных объектов из других информационных объектов путем выполнения некоторых алгоритмов.

Средства обработки информации — это всевозможные устройства и системы, созданные человечеством, и в первую очередь, компьютер — универсальная машина для обработки информации. Компьютеры обрабатывают информацию путем выполнения некоторых алгоритмов. Живые организмы и растения обрабатывают информацию с помощью своих органов и систем.