Презентацию на тему "Содержательный подход к измерению информации" содержит основной материал необходимый для изучения этой темы, расмотрен содержательный подход, определение количества информации. С содержательной тлчки зрения количесвтво информации заключенноев сообщение связано с тем насколько это сообщение уменьшает неопределенность знаний принимающего человека. Рассмотрено решение задач и спользованием формула Шеннона.
Вы уже знаете о суперспособностях современного учителя?
Тратить минимум сил на подготовку и проведение уроков.
Быстро и объективно проверять знания учащихся.
Сделать изучение нового материала максимально понятным.
Избавить себя от подбора заданий и их проверки после уроков.
Просмотр содержимого документа
«Содержательный подход к измерению информации»
Содержательный подход к определению количества информации
Количество информации, заключенное в сообщении, определяется объемом знаний, который несет это сообщение человеку. Этот подход субъективный (зависит от конкретного человека).
Разные люди, получившие одно и то же сообщение, по-разному оценивают количество информации, содержащееся в нем. Это происходит от того, что знания людей о событиях, о которых идет речь в сообщении, различны.
Пример
Второклассник изучает таблицу умножения.
Учитель сообщает ему, что 2 х 2 = 4. Второклассник этого раньше не знал, поэтому
такое сообщение содержит для него
информацию. А для ученика 5 класса таблица умножения
хорошо известна, поэтому из такого сообщения
информацию он не получит.
Информация — это знания человека.
Сообщениеинформативно(содержит ненулевую информацию), если оно пополняет знания человека.
Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными.
Но для того чтобы сообщение было информативно оно должно еще быть понятно .
Например, прогноз погоды на завтра — информативное сообщение, а сообщение о вчерашней погоде неинформативно, т.к. нам это уже известно.
Быть понятным, значит быть логически связанным с предыдущими знаниями человека.
Определение «значение определенного интеграла равно разности значений первообразной подынтегральной функции на верхнем и на нижнем пределах», скорее всего, не пополнит знания и старшеклассника, т.к. оно ему не понятно. Для того, чтобы понять данное определение, нужно закончить изучение элементарной математики и знать начала высшей.
Получение всяких знаний должно идти от простого к сложному. И тогда каждое новое сообщение будет в то же время понятным , а значит, будет нести информацию для человека.
С содержательной точки зрения количество информации, заключенное в сообщении, связано с тем, насколько это сообщение уменьшает неопределенность знания принимающего его человека.
Неопределенность знаний о некотором событии — это количество возможных результатов события.(бросания монеты, кубика; вытаскивания жребия)
Неопределенность знания
Вопрос 1 : Чему будет равна неопределенность знания о результате, если подбрасывать кубик?
Вопрос 2 : Чему будет равна неопределенность знания номера спортсмена до жеребьевки, если в соревновании участвует 100 спортсменов?
УМЕНЬШЕНИЕ НЕОПРЕДЕЛЁННОСТИ ЗНАНИЯ
Пусть у нас имеется монета, которую мы бросаем на ровную поверхность.
С равной вероятностью произойдет одно из двух возможных событий – монета окажется в одном из двух положений: «орёл» или «решка».
События равновероятны , если при возрастающем числе опытов количества выпадений «орла» и «решки» постепенно сближаются.
Возможные события
Произошедшее событие
Перед броском существует неопределённость нашего знания (возможны два события), а после броска наступает полная определённость.
Неопределённость нашего знания уменьшается в два раза, так как из двух возможных равновероятностных событий реализовалось одно.
УМЕНЬШЕНИЕ НЕОПРЕДЕЛЁННОСТИ ЗНАНИЯ
При бросании равносторонней четырехгранной пирамиды существуют4 равновероятных события.
При бросании шестигранного игрального кубика существует
6 равновероятных событий.
ЕДИНИЦЫ ИЗМЕРЕНИЯ КОЛИЧЕСТВА ИНФОРМАЦИИ
Сообщение, уменьшающее неопределённость знания в два раза, несёт 1 бит информации.
Бит – минимальная единица измерения информации.
1 байт = 2 3 битов = 8 битов
1 Кбайт = 2 10 байт = 1024 байт
1 Мбайт = 2 10 Кбайт = 1024 Кбайт
1 Гбайт = 2 10 Мбайт = 1024 Мбайт
1 Тбайт = 1024 Гбайт = 2 40 байт
1 Пбайт (Петабайт) = 1024 Тбайт = 2 50 байт.
Очевидно, различать лишь две ситуации: «нет информации» — «есть информация» для измерения информации недостаточно.
Единица измерения информации была определена в науке, которая называется теорией информации. Эта единица носит название « бит ». Ее определение звучит так:
Сообщение, уменьшающее неопределенность знаний в два раза, несет 1 бит информации.
После сдачи зачета или выполнения контрольной работы ученик мучается неопределенностью, он не знает, какую оценку получил.
«Зачет», «незачет»? «2», «3», «4» или «5»?
Наконец, учитель объявляет результаты, и он получаете одно из двух информационных сообщений: «зачет» или «незачет», а после контрольной работы одно из четырех информационных сообщений: «2», «3», «4» или «5».
Информационное сообщение об оценке за зачет приводит к уменьшению неопределенности знания в два раза , так как получено одно из двух возможных информационных сообщений.
Информационное сообщение об оценке за контрольную работу приводит к уменьшению неопределенности знания в четыре раза , так как получено одно из четырех возможных информационных сообщений.
В некотором царстве, в некотором государстве пошёл Иван-царевич Василису- прекрасную спасать.
Сколько вариантов есть у Ивана-царевича, чтобы дойти до Кощея?
От Кикиморы до Бабы-Яги три дорожки ведут, а от Бабы-Яги до Кощея две.
Ответ:6
Пример:
На книжном стеллаже восемь полок. Книга может быть поставлена на любую из них. Сколько информации содержит сообщение о том, где находится книга?
Задаем вопросы:
- Книга лежит выше четвертой полки?
- Нет.
- Книга лежит ниже третьей полки?
- Да .
- Книга — на второй полке?
- Нет.
- Ну теперь все ясно! Книга лежит на первой полке!
Каждый ответ уменьшал неопределенность в два раза.
Всего было задано три вопроса. Значит набрано 3 бита информации. И если бы сразу было сказано, что книга лежит на первой полке, то этим сообщением были бы переданы те же 3 бита информации.
Существует формула, которая связывает между собой количество возможных событий и количество информации.
N = 2 I ,где
N — количество возможных вариантов,
I— количество информации.
Когда события равновероятны, количество информации о результате события(I, бит)и количество событий(N)связаны формулой:N=2I,вероятность:Р=1/N, N=1/P
Если из этой формулы выразить количество информации, то получится I = log2N (формула Хартли).
ЗАВИСИМОСТЬ МЕЖДУ количеством равновероятных событий (N) и количеством информации об этом событии (I)
N
I
2
4
1
8
2
бит
3
16
бита
4
32
бита
64
бита
5
6
бит
бит
Формула Хартли: I =log 2 N
N=2 I
Сколько информации содержит сообщение о том, что из 32 карт достали король пик?
Решение:
2I= N
2I= 32
25= 32
I = 5 бит
Дано:
N = 32
I - ?
Ответ:I = 5 бит
КОЛИЧЕСТВО ВОЗМОЖНЫХ СОБЫТИЙИ КОЛИЧЕСТВО ИНФОРМАЦИИ
Задача. В рулетке общее количество лунок равно 128. Какое количество информации мы получим в зрительном сообщении об остановке шарика в одной из лунок.
Решение:
Дано:
2I= N
2I= 128
27= 128
I = 7 бит
N = 128
I - ?
Ответ: I = 7 бит
В книге 512 страниц. Сколько информации несет сообщение о том, что закладка лежит на какой-либо странице?
Решение:
2I= N
2I= 512
29= 512
I = 9 бит
Дано:
N = 512
I - ?
Ответ:I = 9 бит
20
Сколько информации содержит сообщение о выпадении грани с числом 3 на шестигранном игральном кубике?
Решение:
2I= N
2I= 6
223
I = 2,58496 бит
Дано:
N = 6
I - ?
Ответ:I = 2,58496 бит
На экзамен приготовлено 20 билетов.
Чему равно количество событий, которые могут произойти при вытягивании билета?
Равновероятны эти события или нет?
Чему равна неопределенность знаний ученика перед тем как он вытянет билет?
Во сколько раз уменьшится неопределенность знания после того как ученик билет вытянул?
Зависит ли этот показатель от номера вытянутого билета?
Неравновероятные события
В жизни же мы сталкиваемся не только с равновероятными событиями, но и событиями, которые имеют разную вероятность реализации.
Например:
1. Когда сообщают прогноз погоды, то сведения о том, что будет дождь, более вероятно летом, а сообщение о снеге — зимой.
2. Если вы — лучший ученик в группе, то вероятность сообщения о том,что за контрольную работу вы получили 5, больше, чем вероятность получения двойки.
3. Если в мешке лежат 20 белых шаров и 5 черных, то вероятность достать черный шар меньше, чем вероятность вытаскивания белого.
ЕслиN– это общее число возможных исходов какого-то процесса, и из них интересующее нас событие может произойтиКраз, то вероятность этого событияК/N.
Пример 1
В коробке имеются 50 шаров , из них 40 белых и 10 черных. Очевидно, вероятность того, что при вытаскивании «не глядя» попадется белый шар, больше, чем попадания черного. Определить количественную вероятность для шаров каждого цвета.
Решение
Обозначимрч– вероятность попадания черного шара,
рб– вероятность попадания белого шара,
рч=10/50=0,2
рб=40/50 = 0,8.
Пример 2
Сережа - лучший ученик в группе. Вероятность того, что за контрольную по математике он получит «5», больше, чем вероятность получения «двойки». За год обучения Сережа получил 100 отметок. Из них: 60 пятёрок, 30 четверок, 8 троек и 2 двойки. Допуская, что данная тенденция сохранится и в будущем, вычислим вероятность получения каждой оценки.
Решение
Обозначимр5– вероятность получения отметки «5»,
р4– вероятность получения отметки «4»,
р3– вероятность получения отметки «3»,
р2– вероятность получения отметки «2»,
Тогда: р5=60/100=0,6
р4=30/100 = 0,3
р3= 8/100 = 0,03
р2= 2/100 = 0,02.
Пример 3
В пруду живут 8 000 карасей, 2 000 щук и 40 000 пескарей. Самая большая вероятность для рыбака – поймать в этом пруду пескаря, на втором месте – карась, на третьем – щука. Определить с какой вероятностью будет поймана та или иная рыба.
Решение
8 000+2 000+40 000=50000 рыб в пруду.
рк=8000/50000=0,16
рщ=2000/50000 = 0,04
рп= 40000/50000 = 0,8.
Формулу для вычисления количества информации, учитывающуюнеодинаковую вероятностьсобытий, предложилК.Шеннонв1948году.
Клод Э́лвуд Ше́ннон
30.04.1916 – 24.02.2001
американский математик и электротехник, один из создателей математической теории информации.
ФОРМУЛА ШЕННОНА
Количество информации длясобытия с различными вероятностямиопределяется по формуле:
p– вероятность события
Среднее количество информации длясобытий с различными вероятностямиопределяется по формуле:
I– среднее количество информации,
N– количество возможных событий
pi– вероятности отдельных событий
Еслисобытия равновероятны(pi=1/N):
Количественная зависимость между вероятностью события (р) и количеством информации в сообщении о нем (I) выражается формулой:
I = log 2 (1/p)
В корзине лежат 8 черных шаров и 24 белых. Сколько информации несет сообщение о том, что достали черный шар?