Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

Перечень основных эмпирических характеристик 9 страница




полного отсутствия шума энтропия источника целиком переходит

в сигнал, и поэтому количество информации в сигнале, снимающем.

в данном предельном случае всю неопределенность источника,

можно считать равным энтропии источника, или безусловной энт-

ропии.

В реальной же ситуации, т. е. при наличии шумов в системе,

упорядоченность множества состояний источника не может быть

адекватно воспроизведена в множестве состояний носителя, т. е. в

сигнале. Поэтому энтропия источника, или безусловная энтропия,

выражая величину неопределенности его состояний, не может сама

по себе служить мерой количества информации в сигнале, посколь-

ку в этом случае сигнал не снимает всей исходной неопределенно-

сти. Для определения величины снятой неопределенности, или

количества информации в сигнале, в данном случае требуется сле-

дующий шаг статистического обобщения, который учитывает соот-

ношения между исходной неопределенностью, или безусловной энт-

ропией, остаточной неопределенностью, или условной энтропией,

и снятой неопределенностью, или негэнтропией, т. е. энтропией сиг-

нала. Это соотношение дается формулой

 

сигн. =Н(х)-Н(х1у), (3)

 

где Ясигн.-негэнтропия; Н(х) -безусловная энтропия, или энтро-

пия источника; Н(х]у) -условная энтропия (остаточная неопре-

деленность, или ненадежность).

Легко видеть, что последовательно приведенные три формулы

представляют иерархию ступеней обобщения или, наоборот, кон-

кретизации. Так, при отсутствии шума условная энтропия, или оста-

точная неопределенность, равна нулю, и третья формула переходит

во вторую, т. е.в обычную формулу Шеннона, поскольку

1 = п

 

Н(х)=.PI log PI.

i = I

 

В условиях же равновероятности всех состояний носителя или

символов алфавита, т. е. при равенстве всех Р" вторая формула

переходит в первую, так как здесь средняя и индивидуальная ин-

формации совпадают.

Хорошо известно, насколько широко и эффективно применяются

эти статистические способы определения количества информации

не только в теории связи и кибернетике, но и в биологических нау-

ках, в частности в нейрофизиологии и психологии. Особенно про-

дуктивными они оказались при исследовании тех процессов, где

 

 

акт выбора и принятия решения носит явный характер, например

при аналпае двигательных реакций, речевых ядлеиий, процессов

опознания образов, решения задач и т. д, (Хик. Миллер, Невель-

ский, Лайда и др.). Однако та же самая логика движения лоиятий,

которая как в бидевиоризме, так и в кнОериетической концепции по-

зволила вычленить вероятностную меру организации, породила

и ледостатки чисто статистического подхода к изучаемым явлени-

ям. При этом существенно, что и недостаточлость количественного,

статист-веского аспекта организации или упорядоченности обнару-

живаат сеОя одновременно на разных уровнях абстрагирования-

и внутри конкретных областей знания, в частности в психологии,

и в самой кибернетике.

В Х[?де развития общеккбернетической теории и адекватных для

кее методов медостатки чисто статистического поддода обнаружи-

лись в отношеинн н к количественным и к кочествешппм характери-

стикам информации. Оказалось, чт> даже и в отнощении меры упо-

рядоченности категория случайкости и вероятность как числовая

характеристика степени ее выракенности являются на единствен-

ным и может быть даже не исходный инструментом изнерення.

Развиваются топологический, комбинаторный, динамический, алго-

ритмический подходы к определению количества информации (Ра-

шевский, Карреман, Тракко, Колмогоров и др.). Существенно, чти

лежащие в основе этих подходов математические прииципы носят

по преимуществу теоретико-миожественный характер, т. е. нх фун-

даментом служит категория множества, ц тем самым они связаны

с характером отношений между элементами множества, т, е. с по-

нятием структуры. Здесь, таким образом, дефицит статистических

мер н формирований дополнительных к ним новых подходов про-

являются еще внутри категории количества информации, но под

давлением как бы навязывающих себя и не позволяющих полно-

стью от них абстрагироваться качественно-структурнык характе-

ристик информации.

 

Второе же направление, в котором остро проявляет себя недо-

статочность чисто вероятностного шенноновского подхода, прямо

связано с потребностью учитывать уже собственно качественные

характеристики информации и ее ниды, поскольку фиксация разли-

чия качеств с необходимостью приводит к задаче классифициро-

вать виды. Оценивая состояние теории информации и намечая пу-

ти ее дальнейшего углубления, А. Н. Колмогоров указывает, что

<теория информации находится еще в начальной стадии своего

развития. Весьма вероятно, что в дальнейшем ее развитии исклю-

чительное увлечение, господствующее сейчас, сводить все вопросы

к подсчету количества информации сменится поисками путей более

полной математической хорактеризации видов информации, не иг-

норируя полностью их качественного своеобризач>.

 

" Сессия АН СССР по научцык проблемам автоматизации производства

J4.. 1957. с. 98. {Курсив наш.- Л. В.)

 

Поучительно, что такая логика проникновения в природу нп-

формацин а!шлог[[чна развитию понятия энергии, которое ui.io от

применения це ощей числовой меры к анализу ее качественной ха-

рактеристики н в свп с тим к выявлению ее различных видов

и форм. Обосновывая качественную трактовку сущности энергии,

М- rLiaiih писали <При такой трактовке уже не станут удовлетво-

риться знанием численною значения энергни, но попытаются дока-

зать существовабГис рйэччнх видов энергии н различных элемен-

тов системы в итле.11>иост1] и проследить их перелод в другие фор-

мы и к другим моментам, точно так же как это делается по

отношению к движению некоторого коичестьа вещества в прост-

ранстве>.

Обращает лз себя внимание чрезвычайная близость этого ут-

верзидения М. Планка и приведенного выше положения А. Н. Кол-

могорова по поводу анализа понятия информации. За этим слодст-

вон стоит, по-видимому, обшность научно-логического пути и со-

ответствующих этапов развития фундаментальнык понятий инфор-

мации и энергии, одноранговых но уровню обобшенности.

Одноранговость по степени обобщенности н глубокая близость

и взаимосвязь признаков меры н формы в содержании обоих поия-

тий еще отчетливее обнаруИБается при сопоставлеини их кон-

кретного состава и ЛОГИЧЕСКОГО аппарата, используемого для их

раскрытия. Так, анализируя вехи изучения энергии. Б, Г, Кузнецов

указывает: Переход т- <внешнею> определения энергии к <внут-

реннему>, иначе говоря, к исследованию существования, локализа-

ции и взаимных переходов различных форм энергии а системе

в конце концов позволил представить энергию в вида множества

более или менее локализованных элементов, связанных с локализо-

ванными элементами вещества>. Локализация элементов мно-

жества, составляющего носитель энергии, достаточна четко выра-

жает простраиственло-структурный, качественный аспект этого по-

нятия, родственный соответствующему аспекту понятия информа-

цнк.

Так, общая логика развития проблемы и соответствующие ей

пути ее анализа приводят от понятия количества информации как

меры упорядоченности к понятию о ее качественн{}-структ1/рноисха.-

рактеристиках как форме упорядоченности. Эта тенденция разви-

тия восстанавливает то единство количественного н качественного

аспектов в трактовке информации, которое, отвечая смыслу обще-

кибернетической теории, было, однако, нарушено неравномерным

ходом ее развития и тем обособлением аспекта количественной ме-

ры, которое было оправдано лишь на первых этапах развития кон-

цепции, поскольку первоначально количественная мера может быть

выделена именно путем ее абстрагировании от качественной специ-

фичности.

 

Цит. по: Кузнецов Б. Г. Развитие физическид ИДЕЙ от Галилен до

Эйнштейна. М.. 1963. с 54. (Курсив каш,- Л. В.)

"Там же. (Куреня Ham.- Л. В.)

 

 

Недостаточность подхода к анализу информации только со сто-

роны ее количественной меры, выраженной статистическими харак-

теристиками, все более остро обнаруживает себя и в рамках при-

менения информационных методов в психологии. Одна из фунда-

ментальных эмпирических характеристик психических процессов-

целостность выражается в характере взаимосвязей элементов мно-

жества, составляющего гештальт, т. е. именно в структурной форме

организации сигнала психической информации. Между тем к внут-

ренним структурным особенностям сигнала энтропия нечувстви-

тельна, ибо при тех же статистических характеристиках алфавита

символов она остается неизменной, независимо от изменения струк-

туры отдельных символов. Этим определяется производимый в раз-

личных областях психологического исследования интенсивный поиск

информационных мер именно структуры или формы пространствен-

но-временной упорядоченности сигналов."

 

4. Форма упорядоченности сигнала

 

Приведенное выше и используемое в данном контексте в качест-

ве рабочего определение информации как упорядоченности мно-

жества состояний ее носителя адекватно множеству состояний ее

источника открывает, как уже упоминалось, возможность его кон-

кретизации не только в отношении количественной меры, ной в от-

ношении качественно-структурной формы этой взаимной упорядо-

ченности.

Существенно подчеркнуть, что в лежащем в основе данного оп-

ределения общекибернетическом концептуальном аппарате Винера

содержится несколько фундаментальных специальных понятий, хо-

тя и недостаточно полно раскрытых и увязанных между собой, но

четко обнажающих существо этого аспекта информации как общей

формы взаимной упорядоченности двух множеств состояний. Прин-

ципиальную роль здесь играет понятие временного ряда.,

Рассмотрев на более высоком уровне абстрагированности набор

основных понятий, составляющих главный костяк концептуального

аппарата теории (понятия среднего, меры, энтропии, группы пре-

образований и инварианта), Н. Винер в ходе дальнейшей конкре-

тизации проблемы переходит к анализу статистики временных ря-

дов. Анализируя широкий класс явлений, охватывающий распре-

деленные во времени величины, такие, например, как меняющиеся

последовательности напряжений в телефонной линии, телевизион-

ной схеме или радиолокаторе, Н. Винер именно в связи с их струк-

турой на более конкретном уровне вновь ставит вопрос о природе

информации и, что существенно подчеркнуть, с этими же процес-

сами связывает статистические способы ее измерения. <Все эти

временные -ряды и все устройства, работающие с ними, будь то

 

" См., например: Г у о и н с к и И А. И. Дисперсные меры неопределен-

ности и количество информации.- Труды ВВМИОЛУ им. Дзержинского,

1964, № 58.

 

в вычислительном бюро или в телефонной схеме, связаны с за-

писью, хранением, передачей и использованием информации. Что

же представляет собой эта информация и как она измеряется?>

Хотя логические ходы конкретной аргументации, как в боль-

шинстве произведений подобного обобщенно-программного типа,

здесь не развернуты, Н. Винер не случайно ставит вопрос о при-

роде информации именно в этом контексте, в связи со структурой

временных рядов. Связывая в более общем виде понятие информа-

ции с понятием организации, Винер здесь эту трактовку конкрети-

зирует.

Наиболее общей формой организации сигнала является его про-

странственно-временная упорядоченность. Но пространство пред-

ставляет собой трехмерное многообразие (множество), а время-

многообразие одномерное. Поэтому одномерный ряд представляет

собой общий структурный компонент пространства и времени. Та-

кой одномерный ряд составляет как раз тот инвариант, который

сохраняется в общем случае процессов записи, хранения, передачи,

преобразования и использования информации. Не случайно, по-

видимому, все основные формы технических и биологических кодов,

такие, как телефонные и телевизионные коды, сигналы, записанные

на магнитной ленте, фотопленке, звуковой дорожке или перфокар-

те, речевые, языковые и генетические коды или последовательности

нервных импульсов в нервном волокне представлены одномерной

линейной структурой.

Эта структура, в силу ее единой пространственно-временной при-

роды, сохраняется при различных пространственно-временных пре-

образованиях, которые изменяют число пространственных измере-

ний (как, например, развертка) или переводят пространственный

одномерный ряд во временной. И хотя пространственный и вре-

менной одномерные ряды с точки зрения их <мерности> равно-

правны и обе формы реализуются в перечисленных выше линей-

ных структурах технических и биологических кодов, основная для

систем управления функция передачи сигналов осуществляется

именно как последовательность изменяющихся состояний. Поэтому

(вопреки принципиальной равноправности пространственной и вре-

менной реализации этих одномерных структур) акцент здесь у Ви-

нера по понятной причине смещается в пользу временного ряда.

Существо же данного обобщения определяется, по-видимому, ли-

нейностью этих структур, которая воплощает в себе общую форму

пространственно-временной упорядоченности сигнала.

Исходя из этого, есть основания полагать, что именно таким

логическим контекстом связей определяется то особое значение,

которое Винер придает в кибернетическом концептуальном аппара-

те понятию линейного инварианта

В рассмотренных выше взаимосвязанных между собой поняти-

ях временного ряда и линейного инварианта содержится концеп-

 

" В инер Н. Кибернетика, с.

См. там же, с. 71.

 

 

туальная модедь информации уже не как количественной меры, но

как качественно-структурной формы организации множества состоя-

ний ее носителя. Эта понятийная модель представлена здесь, одна-

ко, в редуцированной, общей и даже только потенциальной форме,

поскольку она содержит лишь характеристику упорядоченности сиг-

нала как множества, но еще не заключает в раскрытом виде прин-

ципа взаимной упорядоченности двух множеств состоянии. Естест-

венно поэтому, что дальнейшее развитие винеровского концептуаль-

ного аппарата вскоре после выхода в свет <Кибернетики> привело

к миграции понятия о таком общем принципе взаимной упорядо-

ченности множеств из математики (теории множеств) в кибернети-

ческую теорию.

Такой принцип, непосредственно содержащий в себе общую

структурную форму взаимной пространственно-временной упоря-

доченности двух множеств, дается понятием изоморфизма, которое

уже с конца пятидесятых годов прочно вошло в концептуальный

аппарат общекибернетической теории сигналов.

Два множества Х и Y элементов х (-_Х и у(- Y являются изо-

морфными, если:

1) каждый элемент х(Х может быть взаимно однозначно со-

поставлен с элементом yY, т.е. х->-у и у->-х,

2) каждая функция f, выражающая отношение двух элементов

Xi и Xh в множестве Х (Xk=f(X{)), может быть взаимно однозначно

сопоставлена с функцией F, выражающей отношение двух элемен-

тов уг и г/ь в множестве Y(y,i=F(yi)), т. е. f-F и F -"f-,

3) Если XiX соответствует г/, У,Хь(Х соответствует УьУ,

Xk=f(Xi) и f->F, то для всех х, у, f имеет место: yk==F(yi).

Таким образом, первое условие изоморфизма двух множеств оп-

ределяет взаимно-однозначное соответствие их элементов, второе

условие--взаимно-однозначное соответствие отношений между па-

рами..элементов,асмысл третьего условия состоит в том, что взаим-

но-однозначное соответствие отношений пар элементов обоих мГй?)-

еств определено на взаимно-однозначно соответствующих элемен-

тах. этих множеств. Третье условие должно быть специально пред-

усмотрено потому, что, вообще говоря, элементы обоих множеств

могут взаимно-однозначно соответствовать друг другу, отношения

между парами элементов также могут находиться -во взаимно-од-

нозначном соответствии, но это взаимно-однозначное соответствие

отношений или функций может быть определено на парах, элементы

которых Xi и yh не находятся в отношениях взаимно-однозначного

соответствия. Третье условие определяет, таким образом, взаимную

согласованность первых двух.;

Подводя итог, можно сказать, что принцип изоморфизма двух

множеств требует попарного взаимно-однозначного соответствия

элементов обоих множеств и взаимно-однозначного соответствия

функций, выражающих отношения между парами соответствующих

друг Другу элементов в обоих множествах. Так, множество состоя-

ний намагниченности ленты в видеомагнитофоне изоморфно Мно-

жеству состояний освещенности элементов, экрана иконоскопа или

 

.кинескопа и множеству последовательно изменяющихся характери-

стик электронного потока в лучах обеих трубок. Изоморфное от-

ношение множества состояний носителя информации к множеству

. состояний ее источника определяет ту общую форму взаимной уцо-

"рядоченности этих двух множеств, которая делает сигнал кодом

й "источника информации. Кодирование, производя модуляцию собст-

Г венных состояний носителя информации сообразно упорядоченно-

1° сти ее источника, осуществляет перевод этой упорядоченности в фи-

."зический алфавит носителя (канала, приемника или контура регу-

"Жяирования).

:1SI" Как видно из условий изоморфизма, определяющего принцип

№ общей кодовой формы сигнала, здесь задано соответствие элемен-

Д тов двух множеств и функций, выражающих отношения между эти-

: / ми элементами, но не задана характеристика самих элементов

:; виункций, связывающих эти элементы в каждом из множеств. Из

-,i этого вытекает, что общий принцип изоморфизма не предопределя-

1. ет конкретного характера функции, связывающей элементы и от-

.; ношения в обоих множествах.

а; Условия изоморфизма требуют взаимно-однозначного соответст-

1 вия (но не идентичности) функций Хьх в множестве Х и уь=

й = F(yi) в множестве Y, но они в общем случае не задают функции

fl y=(f>{x), требуя лишь ее существования. Эта функция не задана

..потому, что она может быть зличнои"а1изменение ее вида при

; сохранении однозначного соответствия элементов и отношений

-l -в обоих множествах не нарушает принципа изоморфизма. Так, мно-

(.; жество элементов, упорядоченное в пространстве, можно преобра-

зовать в множество элементов, упорядоченное во времени, не на-

рушая отношений изоморфизма. Например, множество точек звуко-

вой дорожки" на пластинке, упорядоченное в пространстве, изо-

морфно множеству состояний звукового давления или множеству

нервных импульсов, и пауз между ними в волокнах слухового нер-

ва, упорядоченному во времени. Аналогично этому двухмерное мно-

- жество состояний освещенности телевизионного кадра, растянутое

в линию и переведенное во временной ряд изменяющихся электри-

ческих характеристик луча кинескопа (или в поток нервных им-

i пульсов в зрительном нерве), при явном изменении пространственно-

, временных отношений между элементами (изменении числа измере-

ний).остается изоморфным исходному кадру.

<. В этом сущность кода, который сохраняет необходимые сведе-

ния об объекте в преобразованном, скрытом от прямого восприя-

тия, зашифрованном виде. Не случайно первоначальный общий

смысл понятия кода заимствован из техники-передачи тайных со-

общений, которая по самому своему существу должна заключать

в себе способ их преобразования. Такое преобразование характе-

ристик элементов и их отношений в множестве, образующем сиг-

нал, не нарушающее изоморфизма этого сигнала своему источнику,

и составляет сущность перекодирования.

Перекодирование представляет собой Необходимое условие пе-

редачи сигнала по определенным каналам связи, поскольку именно

 

 

оно дает возможность согласовать структуру сигнала с конкрет-

ными параметрами того канала, который становится передатчиком

или носителем данной информации. Без этой возможности пере-

кодирующих преобразований пространственно-временной структу-

ры сигнала его передача могла бы осуществляться лишь при со-

впадении пространственных параметров канала с соответствующи-

ми характеристиками источника информации. Грубо говоря, диа-

метр канала должен был бы быть при этих условиях по крайней мере

не меньше размеров источника. Совершенно ясно, что такой способ

не только не оптимален, но вообще неприемлем ни для биологиче-

ских, ни для технических систем, ибо, не согласуясь с реальными

возможностями конкретных систем, он аннулирует технический.или

биологический смысл передачи информации. Поэтому общая ка-

чественно-структурная форма упорядоченности сигнала относитель-

но источника определяется закономерностями передачи сигнала

(без которой невозможна и реализация функции управления) и яв-

ляется кодовой, т. е. дающей возможность приспособиться к усло-

виям передачи путем перекодирования.

Однако, обеспечивая возможность преобразования сигнала, эта

общая форма именно как форма его упорядоченности относительно

источника вместе с тем ограничивает и возможности разнообразия

таких преобразований. Дальше некоторого предела преобразования

формы сигнала не могут совершаться, не разрушая того минимума

взаимной упорядоченности, который отделяет сигнал от шума. Тем

самым этот предел отграничивает область возможных преобразо-

ваний от сферы необходимого сохранения. Если определенные ком-

поненты наиболее общей пространственно-временной структуры ис-

точника не сохраняются в пространственно-временной структуре

сигнала, то его преобразования перестают быть преобразованиями

информации как взаимной упорядоченности двух множеств состоя-

ний. Самая сущность информации предполагает, таким образом,

преобразования в рамках сохранения.

Так логика объекта приводит к той необходимой связи понятия

информации с понятиями преобразования и его инварианта, кото-

рая в общем виде представлена "уже, как упоминалось, в концеп-

туальном аппарате Винера. <В идеале,-пишет он,-закон должен

описывать свойство рассматриваемой системы, остающееся тем же

самым в потоке частных событий. В простейшем случае это есть

свойство, инвариантное относительно группы преобразований, ко-

торым подвергается система>.

Свойством, остающимся инвариантным при преобразовании про-

странственно-временной упорядоченности множества состояний ис-

точника в упорядоченность множества состояний носителя, явля-

ется пространственно-временная последовательность (поскольку од-

номерная последовательность является общим и далее неразложи-

мым свойством пространственно-временного континуума). Этим

определяется обобщенно сформулированная Винером связь поня-

 

 

 

тий информации, временного ряда, инварианта и его частного слу-

чая-линейного инварианта.

Дальнейшая конкретизация приводит к выявлению взаимосвя-

зи совокупности этих понятий с понятием изоморфизма как общей

качественно-структурной формы упорядоченности множества-сиг-

нала относительно множества-источника. Конкретное содержание

взаимосвязи этих понятий состоит в том, что кодирование и пере-

кодирование, преобразующие характеристики элементов и прост-

ранственно-временной структуры сигнала в соответствии с принци-

пом изоморфизма как общей формы взаимной упорядоченности

множества-сигнала и множества-источника, имеют своим инвари-

антом линейную пространственно-временную последовательность

элементов.

Завершая рассмотрение основных понятий, характеризующих

форму организации сигнала, уместно напомнить и еще раз подчерк-

нуть, что понятие изоморфизма как качественно-структурной фор-

мы или принципа организации формировалось в идущих навстречу

друг другу разных уровнях научного обобщения подобно тому, как

это имело место в отношении вероятностной меры организации пси-

хических процессов. И если можно считать, что понятие <энтропия>

Шеннона - Винера есть кибернетическое обобщение бихевиорист-

ского принципа проб и ошибок, воплощенного в торндайковских

кривых, то на тех же основаниях,можно утверждать, что современ-

ный принцип изоморфизма как общей качественно-структурной

формы организации сигнала относительно источника представляет

собой общекибернетическое обобщение того понятия изомор-

физма психических процессов, их нейрофизиологических кор-

релятов и физических объектов, которое в рамках психологиче-

ской теории было, как упоминалось, введено в науку гештальтпси-

хологией.

Существенным является и то обстоятельство, что принцип изо-

морфизма позволяет объединить понятия меры и формы организа-

ции сигнала. Поскольку упорядоченность множества состояний ис-

точника информации изоморфно воспроизведена в сигнале, т. е.

общие компоненты пространственно-временной структуры источни-

ка остаются в нем инвариантными, объективные характеристики

источника, распределение вероятностей его состояний и физическая

энтропия - в меру этой инвариантности - полностью переносятся

на сигнал. Поэтому множество состояний носителя, формирующее

сигнал, несет информацию обо всех элементах и отношениях мно-

жества-источника, т. е. заключает в себе их коды. Все количество

информации, или энтропия, источника-опять-таки в меру инвари-

антности его характеристик-при отсутствии шумов, разрушающих

изоморфную упорядоченность состояний носителя, сохраняется или

воспроизводится в сигнале. Именно поэтому при отсутствии шума

в канале негэнтропия равна энтропии источника.

Таким образом, изоморфные отношения множества, составляю-

щего код источника информации, к множеству, образующему этот

источник, потенциально объединяют качественно-структурную фор-

 

 

му и количественную меру взаимной упорядоченности этих двух

множеств. Не случайно поэтому Винер объединяет понятия инфор-

мации, инварианта и временного ряда с понятиями меры (и сред-

него) и обобщенно суммирует эту связь в общем понятии статисти-

ки временных рядов.

Таковы основные, продиктованные задачами настоящего кон-

текста итоги той конкретизации понятия информации (как упоря-

доченности множества состояний ее носителя в соответствии с мно-

жеством состояний ее источника), которая произведена в отноше-

нии аспектов меры. и формы этой упорядоченности и взаимной

связи между ними.

Этот уровень конкретизации и, соответственно, степени обоб-

щенности основных понятий общекибернетической теории сигналов

занимает, однако, особое положение в многоуровневой иерархиче-

\ ской категориальной сетке, воплощающей в себе итоги современ-

lHoro. межнаучного синтеза.

Поскольку принцип изоморфизма как общекодовой формы вза-

имной упорядоченности двух множеств (сигнала и источника) и со-

ответствующая ему мера этой упорядоченности совершенно индиф-

ферентны к модальности элементов обоих множеств и к конкрет-

ному характеру пространственно-временных отношений между эле-

ментами, он, естественно, допускает свободное абстрагирование от




Поделиться с друзьями:


Дата добавления: 2015-06-27; Просмотров: 250; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.013 сек.