Основные понятия теории информации

Сучасні вимоги до кваліфікації учителя ІМ

Нові підходи до вирішення проблем освіти висувають нові вимоги до підготовки вчителя, його кваліфікаційної характеристики.

Кваліфікаційна характеристика - це перелік основних вимог до професійних якостей, знань і вмінь фахівця, необхідних для успішного виконання професійних обов'язків.

Методичний компонент його кваліфікаційної характеристики включає вимоги до теоретичної і практичної підготовки вчителя іноземної мови.

 

4.1. Основні вимоги до теоретичної підготовки

Вчитель іноземної мови повинен знати і розуміти:

· основні етапи розвитку методики навчання іноземних мов;

· основи теорії формування комунікативної компетенції учнів.

 

 

4.2. Основні вимоги до практичної підготовки

Вчитель іноземної мови повинен уміти реалізовувати:

· комунікативно-навчальну функцію, тобто кваліфіковано застосовувати сучасні принципи, методи, прийоми і засоби навчання іншомовного спілкування;

· виховну функцію, тобто вирішувати завдання морального, культурно-естетичного, трудового виховання учнів засобами іноземної мови;

· розвиваючу функцію, тобто прогнозувати шляхи формування і розвитку інтелектуальної та емоційної сфер особистості учня, його пізнавальних і розумових здібностей у процесі оволодіння іншомовним мовленням;

· освітню функцію, тобто допомагати учням в оволодінні уміннями вчи­тися, розширювати свій світогляд, пізнавати себе та іншу систему понять.

Крім основних чотирьох вищезазначених функцій, учитель має бути здатність здійснювати:

· гностичну функцію, тобто аналізувати свою професійну діяльність і нав­чальну діяльність учнів, добирати підручники та посібники, прогнозу­вати труднощі засвоєння учнями мовного і мовленнєвого матеріалу, вивчати та узагальнювати досвід інших вчителів;

· конструктивно-плануючу функцію, тобто планувати і творчо конструювати навчально-виховний процес у цілому і процес навчання конкретного матеріалу;

· планувати навчально-комунікативну діяльність учнів на уроці та в позакласній роботі;

· організаторську функцію, тобто реалізовувати плани (поурочні, серії уроків, позакласних заходів) з урахуванням особливостей ступеня навчання; творчо розв'язувати методичні завдання, вносити до планів методично правильні корективи з метою досягнення бажаного результату.

 

 

Несмотря на то, что с понятием информации мы сталкиваемся ежедневно, строгого и общепризнанного ее определения до сих пор не существует, поэтому вместо определения используют понятие об информации. Понятия, в отличие от определений, не даются однозначно, а вводятся на примерах, причем каждая научная дисциплина делает это по-своему, выделяя в качестве основных компонентов те, которые наилучшим образом соответствуют её предмету и задачам.

Например, можно считать, что информация - нематериальная сущность, при помощи которой с любой точностью можно описывать реальные (материальные), виртуальные (возможные) и понятийные сущности. Информация - противоположность не определенности.

Информацию, представленную в формализованном виде, позволяющем осуществлять ее обработку с помощью технических средств, называют данными.

Информация может быть двух видов: дискретная (цифровая) и непрерывная (аналоговая). Дискретная информация характеризуется последовательными точными значениями некоторой величины, а непрерывная - непрерывным процессом изменения некоторой величины. Непрерывную информацию может, например, выдавать датчик атмосферного давления или датчик скорости автомашины. Дискретную информацию можно получить от любого цифрового индикатора: электронных часов, счетчика магнитофона и т.п.

Дискретная информация удобнее для обработки человеком, но непрерывная информация часто встречается в практической работе, поэтому необходимо уметь переводить непрерывную информацию в дискретную (дискретизация) и наоборот.

При переводе непрерывной информации в дискретную важна так называемая частота дискретизации V, определяющая период (Т = 1/у) между измерениями значений непрерывной величины (см. рисунок).

 

 

 

Чем выше частота дискретизации, тем точнее происходит перевод непрерывной информации в дискретную. Но с ростом этой частоты растет и размер дискретных данных, получаемых при таком переводе, и, следовательно, сложность их обработки, передачи и хранения.

При преобразовании дискретной информации в непрерывную, определяющей является скорость этого преобразования: чем она выше, тем более качественной получится непрерывная величина.

Важнейшей характеристикой информации является ее количество в некотором информационном сообщении. Например, сообщение «Утром взошло солнце» содержит совсем мало информации, тогда как сообщение «Ваш дом только что рухнул» содержит информации много больше. Количество информации в сообщении о событии зависит от вероятности события: чем менее оно вероятно, тем больше информации мы получаем.

Информацию принято измерять в битах и байтах. Данные понятия связаны с математическим понятием вероятности. Классический опыт, постоянно применяемый в теории вероятности - серия из п бросаний монеты. Выпадение «решки» на монете обозначим буквой «Р», орла - «О». Предположим, что мы хотим передать сообщение о результате серии из четырех испытаний, например «ООРО». Вероятность выпадения такой серии равна 1/16, для передачи сообщения требуется 4 бита. Этот простой пример может служить оправданием для следующего определения количества информации:

I = -1оg2( Р ),

где Р - вероятность события, сообщение о котором передается. Логарифм в формуле обычно считается двоичным. Знак минус обеспечивает положительность количества информации, так как значение вероятности всегда не больше единицы. Единицей измерения количества информации является бит.

Таким образом, если мы имеем источник, выдающий с равной вероятностью числа 0 и 1 (то есть Р(0)=Р(1)=1/2), то информация, приходящаяся на одну цифру равна -1оg2(1/2) = 1 бит. Таким источником может быть, например, пешеходный светофор (красный или зеленый), время суток за окном (день или ночь), пол человека (мужчина или женщина).

Рассмотрим несколько примеров, в каждом из которых будем предполагать, что вероятности всех символов одинаковы. В случае русского алфавита (33 буквы) количество информации, приходящейся на одну букву равно —1оg2(1/33)=5.044 битов, в случае латинского: —1оg2( 1/26)=4.7, для десятичных цифр - 3.32 бита на символ.

Вышесказанное можно изложить иначе:

Пусть алфавит источника сообщений состоит из ш знаков, каждый из которых может служить элементом сообщения. Количество N возможных сообщений длинып равно числу перестановок с неограниченными повторениями: N = mn

Если для получателя все N сообщений от источника являются равновероятными, то получение конкретного сообщения равносильно для него случайному выбору одного из N сообщений с вероятностью 1/ГЧ.

Ясно, что чем больше N, тем большая степень неопределенности характеризует этот выбор и тем более информативным можно считать сообщение. Поэтому число N могло бы служить мерой информации.

В качестве меры неопределенности выбора состояния источника с равновероятными состояниями принимают логарифм числа состояний:

I = 1оg N = 1оg mn = n 1оg m.

Эта логарифмическая функция характеризуетколичество информации в сообщении.

В принципе безразлично, какое основание логарифма использовать для определения количества информации и энтропии, т. к. в силу соотношения 1оgаm = 1оgа b / 1оgb m переход от одного основания логарифма к другому сводится лишь к изменению единицы измерения.

Так как современная информационная техника базируется на элементах, имеющих два устойчивых состояния, то обычно выбирают основание логарифма равным двум. При этом единицу количества информации на один элемент сообщения называют двоичной единицей или битом. Такая единица неопределенности (двоичная единица или бит) представляет собой неопределенность выбора из двух равновероятных событий (bit - сокращение от англ. Binary digit - двоичная цифра). Иногда говорят, что битом называется количество информации, которое снимает неопределенность в отношении наступления одного из двух равновероятных, независимых событий.

Так как из 1оg2 m = 1 следует m = 2, то ясно, что 1 бит - это количество информации, которым характеризуется один двоичный элемент при равновероятных состояниях 0 и 1.

Если основание логарифма выбрать равным десяти, то энтропия выражается в десятичных единицах на элемент сообщения -дитах, причем 1 дит = 1о§2Ю бит = 3,32 бит. Данный факт проявляется, например, в том, что запись числа в двоичной системе счисления выглядит в среднем в 3,32 раза длиннее, чем запись этого же числа в десятичной системе счисления.

Можно сформулировать следующие свойства количества информации:

1. Количество информации в сообщении обратно пропорционально вероятности появления данного сообщения.

2. Свойство аддитивности - суммарное количество информации двух источников равно сумме информации источников.

3. Для события с одним исходом количество информации равно нулю.

4. Количество информации в дискретном сообщении растет в зависимости от увеличения объема алфавита - т.