развитие мышления: умение сравнивать, обобщать, систематизировать, строить аналогии;
содействовать развитию межпредметных связей;
создать условия для развития самоконтроля и взаимоконтроля учащихся.
Вспомним основные понятия прошлого урока:
1. Как мы осознаем информацию?
2. Какие главные характеристики информации можно выделить?
3. Если информация нам понятна, можем ли мы её измерить? Какова единица измерения информации?
4. Какой объем знаний для вас несет cообщение: “Ваша оценка за контрольную работу 5”.
Спасибо за ответы, переходим к изучению темы урока.
Необходимость изучения этой темы “ Измерение количества информации. Формула Хартли“ в курсе информатики связана с тем фактом, что теория информации – это один из разделов математики. Поэтому одной из проблем связанных с информацией является измерение ее количества. Однако, само понятие информации можно определить по-разному. Следовательно, можно и по-разному измерить ее количество. Для определения количества информации наиболее распространены формулы Хартли и Шеннона.
Тема урока:Измерение количества информации.Формула Хартли.
Искра знаний возгорится в том,
кто достигнет понимания собственными силами.
Бхаскара
(индийский математик XII века)
Дорогие мои ученики,
сегодня вас ждет учебный труд на уроке, который можно определить словами:
Информация – это святая неопределённость.
Основная проблема урока изучить какие события являются равновероятными, как найти вероятность события, как найти количество информации в сообщении.
В числе первых, кто занимался вопросами теории кодирования и передачи сообщений, был американский ученый Клод Элвуд Шеннон
Он показал, что информацию можно измерять.
Измерение информации.
Величина неопределённости , снимаемой некоторым сообщением, и представляет собой содержащееся в сообщении количество информации.
Вероятность события.
Такой подход к определению количества информации называют содержательным.
Ученые, которые внесли вклад в теорию информации.
Ральф Винтон Лайон Хартли
сделал вклад в теорию информации,
введя в 1928 логарифмическую меру информации
H = Klog2(M), которая называется хартлиевским
количеством информации.
Клод Э́лвуд Ше́ннон
основатель теории информации
знание
знание
знание
ИЗМЕРЕНИЕ ИНФОРМАЦИИ: вероятностный подход. Как может рассматриваться информация с точки зрения процесса познания? Человек получает информацию от органов чувств, обрабатывает её с помощью мышления и хранит в памяти. Полученная информация, обрабатываясь образует знание (факты, научные теории и т.д). С точки зрения процесса познания информация может рассматриваться как знания.
Информация для человека — это знания
незнание
Информация, которую получает человек, приводит
к уменьшению неопределенности знаний.
Незнание. Знание.
Пусть должно произойти какое-то событие.
Обозначим количество равновероятно возможных результатов этого события черезN.
Например, бросаем кнопку. Выпадает “ шляпкой ” или “ остриём ” - равновероятные события, значит N=2.
Измерение информации. Информация, которую получает человек, приводит к уменьшению неопределенности знаний.
Возможные события .
Они равновероятны.
Происшедшее событие
Сообщение о результате приводит в уменьшению неопределенности наших знаний в 2 раза.
Американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N. Формула Хартли: I = log 2 N.
Если рассматривать информационный подход к нахождению логарифма в среде Microsoft Excel, то мы может применить алгоритм:
Рассмотрим пример.
Пусть нам необходимо найти Log 2 (1/3)
1. открыть Microsoft Excel.
2. выделить ячейку.
3. в ячейку ввести знак равно
4. Нажать f(х)
5 .
6.
Ответ:
Рассмотрим решение задач. Задача 1. Книга состоит из 64 страниц. На каждой странице 256 символов. Какой объем информации содержится в книге, если используемый алфавит состоит из 32 символов? 1) 81 920 байт; 2) 40 Кбайт; 3) 16 Кбайт; 4) 10 Кбайт.
Решение.
По условию задачи мощность алфавита равна 32 символам.
Найдем информационную емкость одного символа
I = log 2 N = log 2 32 = 5 (бит).
Определим информационную емкость одной страницы:
поскольку на странице 256 символов, то имеем 256*5 = 1280 (бит).
Определим информационную емкость всей книги: 64*1280 =81920 (бит).