КАТЕГОРИИ: Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748) |
Контрольні питання
Висновки Пример 1.3 Пример 1.2 Пример 1.1 Источник открытых текстов (Алиса на рис. 1.1) генерирует отдельные буквы (1-граммы) из с независимыми, но идентичными (по отношению к моментам появления) вероятностями. Таким образом, . Вероятности появления букв алфавита в обычных английских текстах приведено в табл. 1.1.
Таблица 1.1. Распределение вероятностей 1-грамм в английском языке.
В этой модели . Заметим, что в этой модели также и т.д, т.е. все перестановки трех букв, и равновероятны, что неправдоподобно для обычных английских текстов.
порождает 2-граммы над алфавитом с независимыми, но идентичными распределениями, где. Таким образом, для
Конечно, можно продолжать подобным же образом с таблицами распределения 3-грамм и т.д. Иной, более привлекательный подход дается в следующем примере.
В этой модели источник открытых текстов генерирует 1-граммы посредством Марковской цепи с конечным числом состояний. Этот процесс можно описать матрицей переходов, где — вероятность того, что вслед за буквой в тексте следует буква. Из теории марковских процессов вытекает, что имеет собственное значение 1. Пусть ‑ соответствующий собственный вектор, называемый равновесным (стационарным) распределением процесса. Предполагая, что процесс с самого начала находится в равновесном (стационарном) состоянии, получаем
Пусть и заданы таблицами 1.2 и 1.3 (из [3]; здесь они обозначены посредством "ed" и "ТrРr"). Тогда получаются следующие более правдоподобные вероятности:
Таблица 1.2. Равновероятное распределение букв в английском языке.
Таблица 1.3. Вероятности переходов в английском языке, – столбец, – строка.
С помощью функций StringTake, ToCharacterCode и StringLength пакета "Mathematica" эти вероятности могут быть вычислены следующим способом (сначала вводятся таблицы 1.2 и 1.3): sourcetext = "run"; ed[StringTake[sourcetext, {1}]] * StringLength[sourcetext] - 1
ToCharacterCode[StringTake[sourcetext, {i}]] - 96, ToCharacterCode[StringTake[sourcetext, {i +1}]] - 96]] || {{0.000218448}}
Можно получить лучшие аппроксимации языка, если считать вероятности переходов зависящими от более чем одной предшествующей буквы. Отметим, что во всех трех рассмотренных примерах модели стационарны, т.е.
1. Як можна класифікувати алгоритми шифрування? 2. Як Шеннон представляв загальну схему симетричної криптосистеми? 3. Як визначається симетрична криптосистема через поняття мови і тексту? 4. Що таке криптоаналіз і які існують типи криптоаналітичного розкриття? 5. У чому суть криптоаналізу з використанням тільки шифротексту і тільки відкритого тексту? 6. У чому суть криптоаналізу з використанням обраного відкритого тексту і з використанням адаптивного розкриття з наявним відкритим текстом? 7. У чому суть криптоаналізу з використанням обраного шифротексту і з використанням вибраного ключа? 8. У чому сенс безпеки алгоритмів шифрування? 9. Як можна описати джерело відкритих текстів у статистичному сенсі?
Дата добавления: 2013-12-12; Просмотров: 313; Нарушение авторских прав?; Мы поможем в написании вашей работы! Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет |