КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Элементы статистической обработки данных 1 страница
2012 Москва К ЭКЗАМЕНУ ПО ДИСЦИПЛИНЕ УЧЕБНО-МЕТОДИЧЕСКИЕ МАТЕРИАЛЫ ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ В ЮРИДИЧЕСКОЙ ДЕЯТЕЛЬНОСТИ
б) Методы и средства информационных технологий
ДЛЯ СТУДЕНТОВ БАКАЛАВРИАТА
Разработано проф. Королевым В.Т., доц. Радионовым В.В.
ОСНОВНЫЕ ЗАКОНОМЕРНОСТИ 22. Основные закономерности создания и функционирования информационных процессов. Содержание понятия информационные технологии и структура основных информационных процессов. Информационные технологии представляют собой организованное научно-методическое обеспечение переработки информации. Переработка информации – это совокупность таких информационных процессов: производство информации:генерация, включая моделирование; рецепция, измерение, интерпретация информации: преобразование, логическая обработка, аккумуляция, коммуникация информации: передача, хранение, представление. Информация, как видим, является предметом и продуктом информационных технологий. 23. Толкование термина информация в философии, в кибернетике, в сфере юриспруденции. Само базовое понятие «информация» (от лат. informatio – сведения) многозначно, а закономерности получения и преобразования информации ещё мало изучены. Отсутствует универсальный формально-логический аппарат для их описания. Поэтому смысл понятия «информация» формулируют для каждой предметной области через другие известные здесь понятия. Можно выделить, следующие подходы к определению понятия «информация». В философии слово «информация» связано с понятиями взаимодействие, отражение, познание. В кибернетике (науке об управлении) слово «информация» используется для характеристики управляющего сигнала, передаваемого по линии связи, как мера уменьшения неопределенности в системе управления. В повседневной практике слово «информация» применяется как синоним слов сведения, знания, сообщения. Юридическая деятельность осуществляется в сфере социальных систем и явлений, то есть в сфере отношений между людьми. Поэтому в этой сфере естественно использовать тот смысл термина «информация», который отвечает двум последним подходам и определен ст. 2 Федерального Закона "Об информации, информационных технологиях и о защите информации": информация – сведения(сообщения, данные) независимо от формы их представления. 24. Основные закономерности создания и функционирования информационных процессов. Формы представления информации. Наличие информации, ее своевременное получение является необходимым условием эффективного управления сложными динамическими объектами и их отношениями. Вместе с тем информация, циркулирующая в эргасистемах, то есть в сложных человеко-машинных системах управления (в частности, и в системах правового регулирования), является критическим компонентом, способным вызвать крупномасштабные аварии, вооружённые конфликты, дезорганизацию деятельности научно-исследовательских учреждений и испытательных центров, разорение банков и коммерческих организаций. Информация может представлять государственную, служебную, профессиональную, коммерческую, семейную и личную тайну. Она становится товаром, имеющим цену, автора, гарантии качества. Существующие естественные (случайные) и искусственные (преднамеренные) угрозы нарушения её достоверности, сохранности и конфиденциальности обусловливают жизненно важную необходимость создания эффективных мер контроля всевозможных угроз и защиты информации в эргасистемах от искажения при переработке, от разрушения при эксплуатации, а также от раскрытия (утечки) и вредоносной модификации. В сфере юриспруденции применяются две формы представления информации. Вербальная (словесная) форма, когда сведения задаются устной или письменной речью. Она используется для качественной характеристики объектов и процессов. Такая форма фиксации и передачи информации принята в большинстве правовых актов. Числовая форма (форма данных), – когда сведения задаются количественными характеристиками объектов и процессов. А эти характеристики получены путем измерений, наблюдений, путем обработки их результатов с помощью логических или арифметических операций. Так результаты измерения и анализа состояния преступности в РФ сводятся в таблицы и регулярно публикуются Федеральной службой государственной статистики и Судебным департаментом при Верховном Суде РФ. Современные информационные технологии реализуются на компьютерах. И вся информация в компьютерах представлена в числовой форме, а именно, двоичными кодами. 25. Причины вероятностного характера информационных процессов в системах коммуникации, понятия энтропии и количества информации. Отметим, что каждый из двух первых информационных процессов (производство и интерпретация информации) начинаются и завершаются третьим, а именно, коммутацией информации. Коммутация информации – это передача ее в пространстве по каналам связи или во времени посредством хранения на носителях. При передаче информации в пространстве стремятся минимизировать время передачи, а при передаче ее во времени минимизируют пространство (объем носителя). L t1UKDXHTtVBSKC5JzEtJzMnPS7VVqkwtVrK34+UCAAAA//8DAFBLAwQUAAYACAAAACEAFToxV8cA AADdAAAADwAAAGRycy9kb3ducmV2LnhtbESPQWsCMRSE7wX/Q3iCl1KzLkVlNYoKQgsV0Yrnx+Z1 s3Xzsm5SXfvrm4LgcZiZb5jpvLWVuFDjS8cKBv0EBHHudMmFgsPn+mUMwgdkjZVjUnAjD/NZ52mK mXZX3tFlHwoRIewzVGBCqDMpfW7Iou+7mjh6X66xGKJsCqkbvEa4rWSaJENpseS4YLCmlaH8tP+x Csa3183zcTg6flfb96X5Lc78cUKlet12MQERqA2P8L39phWko0EK/2/iE5CzPwAAAP//AwBQSwEC LQAUAAYACAAAACEA8PeKu/0AAADiAQAAEwAAAAAAAAAAAAAAAAAAAAAAW0NvbnRlbnRfVHlwZXNd LnhtbFBLAQItABQABgAIAAAAIQAx3V9h0gAAAI8BAAALAAAAAAAAAAAAAAAAAC4BAABfcmVscy8u cmVsc1BLAQItABQABgAIAAAAIQAzLwWeQQAAADkAAAAQAAAAAAAAAAAAAAAAACkCAABkcnMvc2hh cGV4bWwueG1sUEsBAi0AFAAGAAgAAAAhABU6MVfHAAAA3QAAAA8AAAAAAAAAAAAAAAAAmAIAAGRy cy9kb3ducmV2LnhtbFBLBQYAAAAABAAEAPUAAACMAwAAAAA= " stroked="f" strokeweight=".5pt">
Главная задача системы коммутации (рис. В.1) состоит в том, чтобы в достаточной мере обеспечить взаимно-однозначное соответствие между информационными массивами ИМ на ее входе и на ее выходе. Нарушение этого соответствия обусловлено неизбежными помехами той или иной природы, которые воздействуют на систему коммутации. Этим определяется вероятностный характер процессов в системе коммутации. Научной базой для исследования процессов коммуникации является теория информации, фундаментальные положения которой разработал американский инженер и математик К. Шеннон в 1948 г. Ознакомимся с основными понятиями этой теории.
26. Содержание меры энтропии по Шеннону и связь этой меры с мерой энтропии по Хартли. Единицы измерения энтропии. Свойства энтропии. Практический пример. Рассмотрим конечное множество X случайных событий x1,x2,…,xN. Случайным событием может быть появление на входе (на выходе) системы коммутации того или иного элемента входного (выходного) информационного массива. Любые действия, приводящие к наступлению события xi, i=1,2,…,N= , называют опытом или испытанием. Получение информации в опыте связано с тем, что до его осуществления имеется известная неопределенность в его исходе. По окончании испытания наступает одно из N событий. Тем самым неопределенность относительно результатов опыта уменьшается (а может быть, и полностью исчезает). Это уменьшение неопределенности относительно результатов испытания после его осуществления и понимают как получение информации. Обозначим количественную меру неопределенности до опыта как Hдо опыта, а количественную меру оставшейся неопределенности как Hпосле опыта. Тогда количественной мерой информации I(X) в опытах с множеством X будет разность I(X)=Hдо опыта-Hпосле опыта. (В.1) Обычно множество X задают так (табл. В.1). Здесь p(xi) – вероятность наступления события xi. Эти вероятности отвечают условию p(x1)+p(x2)+¼+p(xN)=1. (В.2) Количественной мерой неопределенности в опытах с конечным множеством случайных событий X является величина H(X), которая называется энтропией: H(X)=-(p(x1)´loga(p(x1))+p(x2)´loga(p(x2))+¼+p(xN)´loga(p(xN))). В математике длинную цепочку слагаемых ради экономии места заменяют такой конструкцией: H(X)= . (В.3) Формула (В.3) выведена К. Шенноном. Перечислим свойства энтропии. 1. Энтропия равна нулю, если в любом опыте с множеством X исход известен заранее: всегда наступает событие xj и никогда не происходят события xi, i¹j. Неопределенность в таком опыте отсутствует. А отсутствие неопределенности означает, что энтропия равна нулю. 2. Величина H(X) зависит от вероятностей p(xi) и достигает максимального значения тогда, когда события xi равновероятны: p(x1)=p(x2)=¼=p(xN)=p. И эти вероятности отвечают условию (В.2):N´p=1. Поэтому p= . В этом случае H(X)= =áN одинаковых слагаемыхñ= =-N´ =loga(N). Формулу H(X)=loga(N) (В.4) для энтропии множества равновероятных событий вывел в 1928 г. американский инженер Р. Хартли. Это была первая попытка количественной оценки энтропии. 3. Если в опыте одновременно участвуют и множество X с энтропией H(X), и множество Y с энтропией H(Y), то есть оперируют с множеством X´Y, то энтропия H(X´Y) такого множества равна H(X´Y)=H(X)+H(Y). (В.5) Формула (В.5) справедлива для любого числа k слагаемых. А если все они одинаковы, то есть оперируют с множеством Xk, и H(Xk)=k´H(X). Основание a логарифма в формулах (В.3) и (В.4) определяет единицу измерения энтропии. Действительно, H(X)=loga(N)=1 тогда, когда a=N. В настоящее время общепринято использование в формулах (В.3) и (В.4) значения a=N=2, что хорошо согласуется с формальной логикой и двоичным кодированием информации. А единицей измерения энтропии при a=2 является бит (англ. bit от сжатия слов binary digit). История науки знает случаи использования и таких единиц, как нит (a=e) и дит (a=10). Один бит равен 1.44 нит (log2(e)) или 3.32 дит (log2(10)).
Пример. Пусть некто первый случайным образом загадывает целое число из диапазона X=[0,15]. При этом он никогда не загадывает круглые числа, а предпочтение отдает простым числам (табл. В.2). Вычислим энтропию такого множества случайных событий. В этом случае необходимо применить меру Шеннона (В.3) для N=16. Вычисляем сначала log2(p(xi)), потом произведения p(xi)´log2(p(xi)). Далее суммируем эти произведения, знак суммы инвертируем и получаем H(X)=3.351 бита. Изменим условие задачи так. Некто первый не отдает предпочтения ни одному из этих чисел. Вычислим энтропию множества X. В данном случае, как и ранее, N=16, но все исходы загадывания равновероятны: p= , и для вычисления энтропии воспользуемся мерой Хартли (В.4): H(X)=log2(16)=4 бита. Как видим, энтропия множества неравновероятных событий меньше энтропии множества равновероятных событий. Пусть загадано число 13, и некто второй должен определить загаданное число. Покажем, что для этого достаточно задать первому четыре вопроса (табл. В.3). Как видим, после ответа на каждый вопрос диапазон чисел, среди которых и загаданное, уменьшается вдвое, и после четвертого вопроса остается одно загаданное число. Вычислим, какое количество информации получено после ответа на первый вопрос. До ответа на первый вопрос имеем Hдо опыта=H(X)=4 бита. Ответ на первый вопрос показал, что задуманное число находится во второй половине диапазона [0,15]. Значит, вероятности для чисел из первой его половины равны нулю, а вероятности для чисел из второй половины удвоились (сумма вероятностей для всех чисел отвечает условию (В.2)). Энтропию такого множества неравновероятных событий следует вычислять по формуле Шеннона (В.3). Учтем, что в сумме (В.3) первые восемь слагаемых равны нулю, потому что у них p(xi)=0 (см. табл. В.3). Поэтому Hпосле опыта= =áвосемь одинаковых слагаемыхñ= = =3 бита. Значит, количество информации, полученное после ответа на первый вопрос, равно I(X)=Hдо опыта-Hпосле опыта=4-3=1 бит. После ответа на четвертый вопрос остается только искомое число с вероятностью, равной 1, то есть Hпосле опыта=0. Значит, полная информация, полученная в ответах на четыре вопроса, составит I(X)=H(X)=4 бита. Пример. Из 32 символов множества X составляют сообщения из трех символов. Какое количество информации несет такое сообщение? Здесь множество случайных событий X мощностью N=32. Ни один из символов не имеет преимуществ перед другими, то есть все они равновероятны в одной выборке.
Значит, энтропия множества X при выборе одного символа вычисляется по формуле Хартли: H(X)=log2(N)=log2(32)=5 битов. При выборе трех символов множество X используется k=3 раза, то есть в сообщении из трех символов оперируют с множеством X3, а элементом этого множества является любое сообщение. В соответствии со свойством 3 энтропия множества X3 равна H(X3)=3´H(X)=15 битов. До составления того или иного сообщения неопределенность в исходе этого опыта есть Hдо опыта=H(X3))=15 битов. После формирования конкретного сообщения неопределенность в исходе опыта отсутствует. А это означает, что Hпосле опыта=0. Значит, I(X)=Hдо опыта-Hпосле опыта=15 битов. Отметим, что общее количество k-символьных сообщений, которые можно составить из N символов равно Nk, потому что в каждую из k позиций для сообщения можно поместить любой из N символов В нашем примере из 32 символов можно составить 323=32768 трехсимвольных сообщений. 27. Условная энтропия. Пояснить с помощью диаграмм Венна энтропийно-информационные оценки в системах коммуникации. Практический пример. В системе коммутации оперируют с двумя массивами случайных событий. Это входной информационный массив X с энтропией H(X) и выходной информационный массив Y с энтропией H(Y). С системой коммутации связаны также понятия условных энтропий H(X½Y), H(Y½X) и количества информации I(X,Y). H(X½Y) – условная энтропия множества X, когда на выходе системы имеет место множество Y. Она характеризует неопределенность X, которая остается после приема Y, то есть потерю информации из-за влияния помех: I(X,Y)=H(X)-H(X½Y). (В.6) H(Y½X) – условная энтропия множества Y, когда на входе системы имеет место множество X. Она характеризует неопределенность множества Y, которая остается после передачи X, то есть информацию о множестве X в принятом Y в условиях помех: I(X,Y)=H(Y)-H(Y½X). (В.7) Диаграммы Венна (рис. В.2) – наглядная иллюстрация соотношений между данными энтропийно-информационными понятиями системы коммутации
. Пример. Рассмотрим простейшую систему коммуникации, в которой входной информационный массив X задан символами x1=0, x2=1, а выходной – символами y1=0, y2=1. Положим, что вероятность ошибки при приеме символа равна p, а вероятность безошибочного приема символа равна 1-p.
На рис. В.3 схематически показана такая система коммуникации. Стрелки показывают, в какие символы множества Y и с какой вероятностью переходит каждый из символов множества X. В теории информации такая система коммуникации называется двоичным симметричным каналом связи. Вычислять количество информации I(X,Y) будем по формуле (В.7), в которой энтропия H(Y) имеет максимально возможное значение H(Y)=1, а условная энтропия H(Y½X) определяется соотношением (дается без вывода) H(Y½X)=-(p´log2(p)+(1-p)´log2(1-p)). (В.8) Тогда I(X,Y)=1-H(Y½X)=1+(p´log2(p)+(1-p)´log2(1-p)) (В.9). L t1UKDXHTtVBSKC5JzEtJzMnPS7VVqkwtVrK34+UCAAAA//8DAFBLAwQUAAYACAAAACEAgTDL2sgA AADdAAAADwAAAGRycy9kb3ducmV2LnhtbESPQUvDQBSE74L/YXkFL8VuqjaWtNtShYKCUqyl50f2 NRubfRuza5P017tCweMwM98w82VnK3GixpeOFYxHCQji3OmSCwW7z/XtFIQPyBorx6SgJw/LxfXV HDPtWv6g0zYUIkLYZ6jAhFBnUvrckEU/cjVx9A6usRiibAqpG2wj3FbyLklSabHkuGCwpmdD+XH7 YxVM+4f34T593H9Vm9cncy6++e2ISt0MutUMRKAu/Icv7Ret4D5NJvD3Jj4BufgFAAD//wMAUEsB Ai0AFAAGAAgAAAAhAPD3irv9AAAA4gEAABMAAAAAAAAAAAAAAAAAAAAAAFtDb250ZW50X1R5cGVz XS54bWxQSwECLQAUAAYACAAAACEAMd1fYdIAAACPAQAACwAAAAAAAAAAAAAAAAAuAQAAX3JlbHMv LnJlbHNQSwECLQAUAAYACAAAACEAMy8FnkEAAAA5AAAAEAAAAAAAAAAAAAAAAAApAgAAZHJzL3No YXBleG1sLnhtbFBLAQItABQABgAIAAAAIQCBMMvayAAAAN0AAAAPAAAAAAAAAAAAAAAAAJgCAABk cnMvZG93bnJldi54bWxQSwUGAAAAAAQABAD1AAAAjQMAAAAA " stroked="f" strokeweight=".5pt">
На рис. В.4 показаны графики H(Y½X) и I(X,Y), построенные по формулам (В.8) и (В.9). Как видим, с увеличением p от 0 до 0.5 условная энтропия H(Y½X) возрастает, а количество информации в массиве Y относительно массива X падает. При p=0.5 оказывается, что H(Y½X)=1, а I(X,Y)=0. Объясняется это тем, что при p=0.5 теряется зависимость между символами массивов X и Y. Когда передается символ x1=0, на выходе с равной вероятностью принимается или символ y1=0, или символ y2=1. То же самое имеет место и при передаче символа x2=1. Значит, при p=0.5 неопределенность выходного массива Y при известном входном массиве X максимальна, и элементы массива Y не содержат никакой информации о символах массива X. С увеличением p от 0.5 до 1 условная энтропия H(Y½X) падает, а количество информации I(X,Y) растет. Передача символа x1=0 чаще всего вызывает появление на выходе символа y2=1, а при передаче x2=1 на выходе чаще всего будет y1=0. Если при p>0.5 выполнять инверсию символов на выходе (замену нуля на единицу, а единицы на нуль), то вероятность искажения результата инверсии будет равна 1-p<0.5. 28. Оценка скорости передачи информации. Практический пример. Важной характеристикой системы коммуникации является скорость передачи информации. Она определяет временные затраты на процедуру обмена информацией. Положим, что входной информационный массив представляет собою последовательность символов, которая разворачивается во времени. Если средняя длительность одного символа в такой последовательности составляет tср, то скорость передачи информации vи составит vи= . Размерностью для vи будет =бод. Дальнейшее развитие информационных технологий, обусловленное достижениями научно-технического прогресса, создает предпосылки для создания и совершенствования базовых структур наступающего информационного общества, таких как электронное правительство, электронный парламент, электронное правосудие и др.
Дата добавления: 2015-04-24; Просмотров: 864; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |