КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
История развития вычислительной техники. Понятие информации. Измерение информации
6) 3) Понятие информации. Измерение информации. Количество и свойства информации. Системы представления информации. Единицы измерения информации. Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, их состояний, которые не уменьшают имеющуюся о них степень неопределённости и неполноты знаний. Свойства информации.
Измерение: 1. Комбинаторная мера информации показывает, сколько возможных исходов имеет то или иное событие. Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90. Чем меньше вероятность получить информацию, тем она больше. Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации. 12 – Q=2. 1 bit. 58 – Q=8. 3 bits. 810 – Q=10. A16 – Q=16. Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит). Иванов 00 Петров 01 2 бита Сидоров 10 Николаев 11 Формула Р. Хартли. Двоичная логарифмическая мера Т=log2N, где (бит) N – кол-во комбинаций информационных элементов.
Понятие информации. Измерение информации. Количество и свойства информации. Системы представления информации. Единицы измерения информации. Информация – сведения об объектах и явлениях окружающей среды, их параметрах, свойствах, их состояний, которые не уменьшают имеющуюся о них степень неопределённости и неполноты знаний.
Свойства информации.
Измерение: 2. Комбинаторная мера информации показывает, сколько возможных исходов имеет то или иное событие. Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90. Чем меньше вероятность получить информацию, тем она больше. Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации. 12 – Q=2. 1 bit. 58 – Q=8. 3 bits. 810 – Q=10. A16 – Q=16. Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит). Иванов 00 Петров 01 2 бита Сидоров 10 Николаев 11 Формула Р. Хартли. Двоичная логарифмическая мера Т=log2N, где (бит) N – кол-во комбинаций информационных элементов.
4) Понятия количества информации. Измерение информации. Статиcтическая мера информации. Понятие и свойства энтропии.
Бросаем монетку Q=2. Играем с кубиком Q=6. Русское лото Q=90. Чем меньше вероятность получить информацию, тем она больше.
Способ измерения информации путём оценки количества возможных комбинаций информационных элементов – комбинаторная мера информации. 12 – Q=2. 1 bit. 58 – Q=8. 3 bits. 810 – Q=10. A16 – Q=16. Это измерение неудобно. Было предложено измерять информацию, как вариант одного из 2 возможных исходов (1 бит). Иванов 00 Петров 01 2 бита Сидоров 10 Николаев 11 Формула Р. Хартли. Двоичная логарифмическая мера Т=log2N, где (бит) N – кол-во комбинаций информационных элементов.
Чем меньше основание системы, тем меньше количество информации. Задача. 27 монет (1 фальшивая – легче) 2 чашки весов За сколько взвешиваний найдём? log227 log23 за 1 взвешивание х – количество взвешиваний х * log23 ≥ log227 х ≥ 3 Формула Хартли применима для равновероятной информации. 2. Статистическая мера информации. События рассматриваются, как возможный исход некоторого опыта, причем все исходы – полная группа событий. Шеннон ввёл понятие неопределённой ситуации – энтропия, возникающая в опыте. Энтропия группы событий – количественная мера его неопределённости => информативности, выраженной как средняя функция множества вероятностей каждого из возможных исходов опыта. N – возможное количество исходов опыта. k – количество типов возможных исходов n – количество повторов i-го исхода Ii – количество информации типа исхода Среднее количество полученной информации: Iср=(n1I1+n2I2+…+nkIk)/N I = log2(1/p) = -log2p, где р – вероятность появления события Iср=(n1 (-log2p1)+ n2 (-log2p2)+…+ nk(-log2pk))/N Iср=n1/N(-log2p1)+ n2/N (-log2p2)+…+ nk/N (-log2pk) вероятность события Iср=p1(-log2p1)+…+ pk(-log2pk) Iср=-∑ pi log2pi=H – энтропия Свойства энтропии
5) Системы счисления информации. Правила перевода чисел из одной системы счисления в другую. Понятия бита и байта. СС – совокупность приёмов и правил для записи чисел цифровыми знаками, символами. СС должны обеспечивать возможность представления любого числа в рассматриваемом диапазоне, единственность представления. СС:
Понятие бита и байта В ЭВМ информация должна иметь физическое представление, причём это представление должно быть наиболее простым. Одна единица информации – бит (дискретная – либо есть либо нет); кол-во информации. 8бит = 1байт.
28 = 256. 1Кбайт = 1024 байт. 1Мбайт = 1024 Кбайт. История развития вычислительной техникию Поколение ЭВМ. Классы современных ЭВМ. Современное программное обеспечение.. 1642 – французский ученый Блез Паскаль изобрёл устройство, механически выполняющее сложение чисел (паскалево колесо – ручное управление, зубчатые колёса, сложение десятичных чисел). 1673 – Готфрид Лейбниц сконструировал арифмометр, позволявший выполнять 4 арифметических действия. Служил для наведения артиллерии. 1-я половина XIX в. – Чарльз Бэббидж попытался построить универсальное вычислительное устройство. Его идея – создание программируемой счетной машины, выполняющей действия без участия человека. Она должна была исполнять программы, вводимые с помощью перфокарт, иметь «склад» для запоминания данных и промежуточных результатов. Ада Лавлейс (дочь Байрона) – 1-й программист, сыграла большую роль в проекте Бэббиджа. 1941 – К. Цузе изобрел автоматический цифровой компьютер Z3 (элементы обеспечивают возможность работы с 2-ичной системой). Z3 имел 2600 электромеханических реле, управление осуществлялось с помощью перфолент. Ввод осуществлялся с помощью 4-кнопочной клавиатуры, а вывод – с помощью лампового экрана. 1944г. – Z3 разрушен. Главный недостаток всех первых компьютеров – использование механических реле. Их скорость относительно невысокая, а потребление питания существенное. 1943 – в почтовом департаменте Англии был создан программируемый компьютер Colossus. В качестве переключательных элементов он имел около 2000 электровакуумных ламп. 1945г. – в США была создана научная группа для создания универсального компьютера, в которую входил австрийский ученый Джон фон Нейман. 1946г. – создание компьютера ENIAC, который имел электровакуумные лампы, высокую скорость сложения и умножения чисел. Недостатки: стоимость 750000$, размер 300 кв.м.
Дата добавления: 2015-04-24; Просмотров: 566; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |