Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

История развития вычислительной техники. Понятие информации. Измерение информации




6)

3)

Понятие информации. Измерение информации. Количество и свойства информации. Системы представления информации. Единицы измерения информации.

Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, их состояний, которые не уменьшают имеющуюся о них степень неопределённости и неполноты знаний.

Свойства информации.

  1. Достоверность информации (истинная, ложная, ложная+истинная).
  2. Полнота. Если информация содержит все необходимые данные и их достаточно для понимания и решения, то полна.
  3. Ценность. Зависит от того, какие задачи может решить.
  4. Ясность. Информация должна быть выражена в таком виде, который понятен получателю.

 

Измерение:

1. Комбинаторная мера информации показывает, сколько возможных исходов имеет то или иное событие.

Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90.

Чем меньше вероятность получить информацию, тем она больше.

Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации.

12 – Q=2. 1 bit.

58 – Q=8. 3 bits.

810 – Q=10.

A16 – Q=16.

Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит).

Иванов 00

Петров 01 2 бита

Сидоров 10

Николаев 11

Формула Р. Хартли.

Двоичная логарифмическая мера

Т=log2N, где (бит)

N – кол-во комбинаций информационных элементов.

 

Понятие информации. Измерение информации. Количество и свойства информации. Системы представления информации. Единицы измерения информации.

Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, их состояний, которые не уменьшают имеющуюся о них степень неопределённости и неполноты знаний.

Свойства информации.

  1. Достоверность информации (истинная, ложная, ложная+истинная).
  2. Полнота. Если информация содержит все необходимые данные и их достаточно для понимания и решения, то полна.
  3. Ценность. Зависит от того, какие задачи может решить.
  4. Ясность. Информация должна быть выражена в таком виде, который понятен получателю.

 

Измерение:

2. Комбинаторная мера информации показывает, сколько возможных исходов имеет то или иное событие.

Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90.

Чем меньше вероятность получить информацию, тем она больше.

Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации.

12 – Q=2. 1 bit.

58 – Q=8. 3 bits.

810 – Q=10.

A16 – Q=16.

Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит).

Иванов 00

Петров 01 2 бита

Сидоров 10

Николаев 11

Формула Р. Хартли.

Двоичная логарифмическая мера

Т=log2N, где (бит)

N – кол-во комбинаций информационных элементов.

 


 

4)

Понятия количества информации. Измерение информации. Статиcтическая мера информации. Понятие и свойства энтропии.
Измерение:

  1. Комбинаторная мера информации показывает, сколько возможных исходов имеет то или иное событие.

Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90.

Чем меньше вероятность получить информацию, тем она больше.

 

Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации.

12 – Q=2. 1 bit.

58 – Q=8. 3 bits.

810 – Q=10.

A16 – Q=16.

Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит).

Иванов 00

Петров 01 2 бита

Сидоров 10

Николаев 11

Формула Р. Хартли.

Двоичная логарифмическая мера

Т=log2N, где (бит)

N – кол-во комбинаций информационных элементов.

Чем меньше основание системы, тем меньше количество информации.

Задача.

27 монет (1 фальшивая – легче)

2 чашки весов

За сколько взвешиваний найдём?

log227

log23 за 1 взвешивание

х – количество взвешиваний

х * log23 ≥ log227

х ≥ 3

Формула Хартли применима для равновероятной информации.

2. Статистическая мера информации.

События рассматриваются, как возможный исход некоторого опыта, причем все исходы – полная группа событий.

Шеннон ввёл понятие неопределённой ситуации – энтропия, возникающая в опыте. Энтропия группы событий – количественная мера его неопределённости => информативности, выраженной как средняя функция множества вероятностей каждого из возможных исходов опыта.

N – возможное количество исходов опыта.

k – количество типов возможных исходов

n – количество повторов i-го исхода

Ii – количество информации типа исхода

Среднее количество полученной информации:

Iср=(n1I1+n2I2+…+nkIk)/N

I = log2(1/p) = -log2p, где р – вероятность появления события

Iср=(n1 (-log2p1)+ n2 (-log2p2)+…+ nk(-log2pk))/N

Iср=n1/N(-log2p1)+ n2/N (-log2p2)+…+ nk/N (-log2pk)

вероятность события

Iср=p1(-log2p1)+…+ pk(-log2pk)

Iср=-∑ pi log2pi=H – энтропия

Свойства энтропии

  1. Всегда неотрицательна p<1 => log<0
  2. =0, когда 1 из pi=1, а все остальные=0, событие предопределено
  3. Имеет наибольшее значение, когда события равновероятны
  4. Энтропия объекта, состояние, которое образуется совместной реализацией состояний 2 других объектов, равных сумме энтропий исходных объектов.

 

5) Системы счисления информации. Правила перевода чисел из одной системы счисления в другую. Понятия бита и байта.
Системы счисления

СС – совокупность приёмов и правил для записи чисел цифровыми знаками, символами. СС должны обеспечивать возможность представления любого числа в рассматриваемом диапазоне, единственность представления.

СС:

  1. позиционные (значение цифры зависит от позиции в записи, место – разряд, кол-во цифр – разрядность; каждому разряду соответствует степень основания)
  2. непозиционные

Понятие бита и байта

В ЭВМ информация должна иметь физическое представление, причём это представление должно быть наиболее простым. Одна единица информации – бит (дискретная – либо есть либо нет); кол-во информации. 8бит = 1байт.

28 = 256. 1Кбайт = 1024 байт. 1Мбайт = 1024 Кбайт.


История развития вычислительной техникию Поколение ЭВМ. Классы современных ЭВМ. Современное программное обеспечение..

1642 – французский ученый Блез Паскаль изобрёл устройство, механически выполняющее сложение чисел (паскалево колесо – ручное управление, зубчатые колёса, сложение десятичных чисел).

1673 – Готфрид Лейбниц сконструировал арифмометр, позволявший выполнять 4 арифметических действия. Служил для наведения артиллерии.

1-я половина XIX в. – Чарльз Бэббидж попытался построить универсальное вычислительное устройство. Его идея – создание программируемой счетной машины, выполняющей действия без участия человека. Она должна была исполнять программы, вводимые с помощью перфокарт, иметь «склад» для запоминания данных и промежуточных результатов. Ада Лавлейс (дочь Байрона) – 1-й программист, сыграла большую роль в проекте Бэббиджа.

1941 – К. Цузе изобрел автоматический цифровой компьютер Z3 (элементы обеспечивают возможность работы с 2-ичной системой). Z3 имел 2600 электромеханических реле, управление осуществлялось с помощью перфолент. Ввод осуществлялся с помощью 4-кнопочной клавиатуры, а вывод – с помощью лампового экрана. 1944г. – Z3 разрушен.

Главный недостаток всех первых компьютеров – использование механических реле. Их скорость относительно невысокая, а потребление питания существенное.

1943 – в почтовом департаменте Англии был создан программируемый компьютер Colossus. В качестве переключательных элементов он имел около 2000 электровакуумных ламп.

1945г. – в США была создана научная группа для создания универсального компьютера, в которую входил австрийский ученый Джон фон Нейман.

1946г. – создание компьютера ENIAC, который имел электровакуумные лампы, высокую скорость сложения и умножения чисел. Недостатки: стоимость 750000$, размер 300 кв.м.




Поделиться с друзьями:


Дата добавления: 2015-04-24; Просмотров: 566; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.019 сек.