Студопедия

КАТЕГОРИИ:


Архитектура-(3434)Астрономия-(809)Биология-(7483)Биотехнологии-(1457)Военное дело-(14632)Высокие технологии-(1363)География-(913)Геология-(1438)Государство-(451)Демография-(1065)Дом-(47672)Журналистика и СМИ-(912)Изобретательство-(14524)Иностранные языки-(4268)Информатика-(17799)Искусство-(1338)История-(13644)Компьютеры-(11121)Косметика-(55)Кулинария-(373)Культура-(8427)Лингвистика-(374)Литература-(1642)Маркетинг-(23702)Математика-(16968)Машиностроение-(1700)Медицина-(12668)Менеджмент-(24684)Механика-(15423)Науковедение-(506)Образование-(11852)Охрана труда-(3308)Педагогика-(5571)Полиграфия-(1312)Политика-(7869)Право-(5454)Приборостроение-(1369)Программирование-(2801)Производство-(97182)Промышленность-(8706)Психология-(18388)Религия-(3217)Связь-(10668)Сельское хозяйство-(299)Социология-(6455)Спорт-(42831)Строительство-(4793)Торговля-(5050)Транспорт-(2929)Туризм-(1568)Физика-(3942)Философия-(17015)Финансы-(26596)Химия-(22929)Экология-(12095)Экономика-(9961)Электроника-(8441)Электротехника-(4623)Энергетика-(12629)Юриспруденция-(1492)Ядерная техника-(1748)

СЛОЖНОСТЬ 2 страница




Как показали работы школы И. Пригожина, важнейшей общей чертой широкого класса процессов самоорганизации является потеря устойчивости и последующий переход к устойчивым диссипативным структурам. В точке изменения устойчивости должно возникнуть по меньшей мере два решения, соответствующих устойчивому, близкому к равновесному состоянию и диссипативной структуре.

Это структуры, образующиеся в результате рассеяния энергии. Бельгийская школа И. Пригожина развивает термодинамический подход к самоорганизации. Основное понятие синергетики Хакена (понятие структуры как состояния, возникающего в результате когерентного (согласованного) поведения большого числа частиц) бельгийская школа заменяет более специальным понятием диссипативной структуры. В открытых системах, обменивающихся с окружающей средой потоками вещества или энергии, однородное состояние равновесия может терять устойчивость и необратимо переходить в неоднородное стационарное состояние, устойчивое относительно малых возмущений. Такие стационарные состояния получили название диссипативных структур.

При самоорганизации диссипативных структур энтропия может, как возрастать, так и убывать. Противоречий со вторым началом термодинамики не возникает, так как уменьшение энтропии в диссипативных структурах за счёт компенсирующего процесса рядовое явление, не противоречащее законам природы.

Исследования школы И. Пригожина показали, что понятия структурной устойчивости и порядка через флуктуации применимы к системам различной природы, в том числе экономическим, социальным. Пределов для структурной устойчивости не существует. Неустойчивости могут возникать в любой системе, стоит лишь ввести подходящие возмущения.

В синергетике понятие диссипативной структуры отражает именно устойчивые результаты самоорганизации. Понятие структурной устойчивости, играющее важную роль в теории самоорганизации, открывает большие возможности для рассмотрения диссипативных структур как органического целого.

Дело в том, что образование таких структур не зависит ни от разброса в начальных условиях, ни (коль скоро они уже образовались) от флуктуаций значений параметров. Например, «все свойства автоволны в возбужденной среде полностью определяются лишь характеристиками самой среды», скорость, амплитуда и форма автоволны не зависят от начальных условий, система как бы «забывает» их. Математически это может выражаться возникновением так называемого предельного цикла для траектории в фазовом пространстве решений соответствующих уравнений, т. е. со временем любая начальная точка в фазовом пространстве приближается к одной и той же периодической траектории.

Это означает, что диссипативная структура способна к самовоспроизведению. Возникновение предельных циклов - не единственная форма поведения систем в «закритической» области их существования. Но в любом случае устойчивые диссипативные структуры характеризуются периодичностью своего поведения. Так, автокаталитические химические реакции, играющие важную роль в жизнедеятельности организма, имеют циклический характер. Известна, например, модель Эйгена, в основе которой лежит идея перекрестного катализа: «Нуклеотиды производят протеины, которые в свою очередь производят нуклеотиды. Возникает циклическая схема реакций, получившая название гиперцикла. Когда гиперциклы конкурируют, они обнаруживают способность, претерпевая мутацию и редупликацию, усложнять свою структуру».

Таким образом, диссипативные структуры можно рассматривать как органическое целое, воспроизводящее условия своего существования во взаимодействии со средой и способное к саморазвитию.

Возникает вопрос: достаточна ли степень устойчивой целостности, которая свойственна диссипативным структурам как органическому целому, для того, чтобы послужить основой возникновения структур более высокого уровня организации? В известном смысле - да, в качестве частей, выполняющих определенную функцию в целом.

Мы уже упоминали о том, какие функции выполняют автоволновые процессы в развитом организме; понятие диссипативной структуры успешно применяется при синергетическом описании процессов морфогенеза, т. е. конкретного становления живого организма, формирования им своих частей. Но в этом случае речь идет скорее о воспроизведении известного целого, чем о становлении принципиально новой целостности, для которой целые предшествующего уровня развития выступают лишь как элементы, из которых новая становящаяся целостность уже может формировать себе части. Но для того чтобы выступить в качестве элемента, система должна обладать особенно высоким уровнем устойчивой целостности для чего ей необходимо преобразовать в форму поступательного развития случайности, являющиеся необходимым условием функционирования диссипативных структур.

5.3. Необходимость и случайность

Характер необходимости и случайности в системах. Две формы существования необходимости. Отношение необходимого и действительного. Действительность реальная и логическая. Смысл детерминизма. Типы случайных событий. ô Необходимость хаоса. Универсальность случайного поведения. Непредсказуемость. ô Смысл информации. Роль информации в поведении систем. Условия возникновения информации.

 

Необходимость и случайность – две разные формы действительности. Их противопоставляют и определяют путём различения двух типов возможностей (реальных и формальных), которые соответственно превращаются в необходимую действительность и в случайную действительность. Возможности подразделяют по степени их вероятности по шкале от нуля (невозможное) до единицы (действительность).

· Формальные возможности измеряются малыми степенями вероятности, для их осуществления недостаточно необходимых условий, тем не менее, они иногда превращаются в действительность.

· Реальные возможности обладают максимальной жизнеспособностью, высокими степенями вероятности, для своей реализации они обеспечены всеми необходимыми условиями.

Итак, необходимость – это действительность, осуществившаяся из какой-нибудь одной из множества реальных возможностей. Случайность – это действительность, в которую превратилась одна из формальных возможностей[43].

5.3.1. Проявление необходимости и случайности

Необходимость может быть понята, по крайней мере, двояко:

· А. Положение вещей необходимо, когда его невозможно избежать.

· В. Положение вещей необходимо, когда его невозможно заменить другим положением вещей.

Не являются ли положения А и В по своему содержанию тождественными? Чтобы ответить на поставленный вопрос, проанализируем подробнее необходимость В.

Суждение «сумма внутренних углов треугольника равна двум прямым», необходимо истинное при принятии всех нужных аксиом и определений евклидовой геометрии. Оно имеет смысл (или, как говорят математики - оно нетривиально) так как вопрос о значении внутренних углов треугольника заранее не очевиден: может быть сумма внутренних углов различна для разных треугольников, может быть она постоянна, но равна не этому, а другому числу.

Таким образом, необходимость этого суждения понимается по способу В. То есть мы заранее предполагаем различные положения дел, но оказывается, что имеет место единственное положение дел, которое невозможно заменить ни на какое другое из тех, которые мы предполагали раньше.

Точно так же, когда мы говорим, что брошенный камень необходимо упадет в вычисленном месте, нас это интересует постольку, поскольку демонстрирует возможность предсказать место падения реального камня с достаточной точностью. Это предсказываемое место падения выделяется, например, на поверхности Земли, которое, таким образом, представляет собой пространство возможностей, отрицаемых или утверждаемых в качестве необходимых.

Если мы теперь возьмем аналитическое* (и, следовательно, необходимое) суждение «радиусы круга равны между собой», то ситуация в принципе не изменится. Это суждение можно считать моментом еще не существующего определения круга, которое отнюдь не является тривиальным. Смысл этого определения состоит, в частности, в том, что оно выделяет круг как фигуру с равными радиусами среди всего множества фигур с неравными радиусами. Это множество фигур с неравными радиусами и составляет «ближайшее» поле возможностей для необходимого суждения о равенстве радиусов круга.

Необходимость в приведенных примерах предполагает отрицаемые возможности. Следовательно, во всех приведенных примерах необходимость понимается по способу В. Очевидно, что таким же образом обстоит дело с любым суждением: необходимость суждения отрицает (перечеркивает) предполагаемые возможности. То есть всякое суждение может быть необходимым только в смысле В. Будем, поэтому в дальнейшем называть необходимость в смысле В логической необходимостью.

Опосредованное возможным, отношение необходимого и действительного дополняется в естествознании Нового времени понятиями детерминированного и случайного.

Предположим, что законы механики Ньютона абсолютно точны. Положение тела (в фазовом пространстве координат и скоростей) в момент времени t0 автоматически делает известным его положение в любой другой момент времени в прошлом или будущем. Это можно подтвердить экспериментально:

· бросить камень под определенным углом к горизонту с заданной начальной скоростью и предсказать место его падения.

Обратим внимание на то, что фиксированный закон открывает поле возможностей для экспериментирования. На этом поле возможного основывается возможность предсказания, составляющая смысл детерминизма: предсказание в данном случае есть именно выбор между рядом возможных мест падения камня. Таким образом, поле возможного выступает здесь двояко.

С одной стороны имеется поле возможных начальных условий, предваряющее действительное положение вещей здесь и сейчас. Мы можем бросить камень в другом месте и с другой скоростью, и, соответственно, иным будет предсказанное место падения камня.

С другой стороны, задание начальных условий - либо в эксперименте, либо непосредственным наблюдением действительного положение вещей - согласно установленному закону с необходимостью влечет за собой определенное положение вещей в будущем. Необходимость перечеркивает все возможные состояния дел в будущем кроме единственного положения вещей, которое совпадает с действительным. Это и означает детерминированность, которая, как мы видим, оказывается способом совпадения необходимого и действительного в возможном.

Реальная действительность не совпадает с действительным вообще постольку, поскольку оно предполагает реально возможное, а не возможное вообще. Возможность (и, соответственно, действительность) может быть логической и реальной. Например, при бросании игральной кости выпадает шестерка. Это реальная возможность и реальная действительность (возможность выпадения шестерки и действительное положение дел, при котором выпала шестерка).

Под случайностью мы понимаем не просто то, для чего мы не можем указать причину или что не законосообразно, но то, что произошло так, но могло бы произойти и иначе. Случайное предполагает заданное поле возможностей так же, как и выбор, однако выбирают в поле логических возможностей, а случай выпадает в поле реальных возможностей (в поле случайного). Логически при бросании кости возможны выпадения все тех же шести граней, поскольку мы наверняка знаем, что ничем другим бросание кости закончится не может. Однако в этом нет ничего случайного: если кость не бросать, а просто выставлять ту грань, какая нравится, с логической возможностью останется все по-прежнему. Соответственно, произвольно выставленная грань является только логически, но не реально действительной.

Смысл детерминизма состоит в отождествлении необходимости с реальной, а не логической действительностью. Чтобы отождествлять необходимость с логической действительностью не нужно никаких экспериментов. Мы отождествляем необходимость с логической действительностью, когда строим геометрическую фигуру с заданными свойствами (то есть, решаем проблему), например, равносторонний треугольник. Мы строим этот треугольник (действительное), а затем, опираясь на способ его построения, доказываем, что построенный треугольник необходимым образом является равносторонним (необходимое).

Примерно то же самое происходит при конструировании машин: конструируется действительное устройство, которое необходимо обладает нужными свойствами. Эксперимент, устанавливающий детерминированное положение вещей, означает нечто иное. Эксперимент не просто с необходимостью делает действительным некоторое возможное положение вещей, но с необходимостью производит некоторое случайное положение вещей, производит некоторый случай. Точнее говоря, эксперимент воспроизводит случай, поскольку эксперимент, который не удается повторить, считается негодной попыткой, а не экспериментом.

Иначе говоря, для события детерминированного недостаточно как для события логически необходимого быть единственной и одновременно произвольно выбранной возможностью, то есть недостаточно быть необходимой логической действительностью. Детерминированное должно быть необходимой реальной действительностью, а это значит, что оно должно быть единственным случаем. Перечеркивание всех возможностей кроме единственной необходимой и отождествление ее с действительностью составляет только логическую сторону детерминации, то есть описание детерминации; реальная детерминация состоит в том, что перечеркиваются все случайные исходы эксперимента или наблюдения кроме единственного детерминированного случая. Но это означает, что реально детерминированное предполагает не поле логически возможного, но поле случайного (реально возможного).

Логическая необходимость требует того, чтобы необходимое было произвольно выбрано. Детерминированность требует того, чтобы необходимое случилось, то есть случайно произошло. Если логическая необходимость, таким образом, связана с человеческой способностью разумного выбора, то детерминированность связана со спонтанностью человека и мира.

Случайность может быть понята, по крайней мере, двояко:

1. Первый тип случайности возникает тогда, когда частиц, степеней свободы, событий или предметов так много, что во всем этом совершенно невозможно разобраться. Например, газ в литровой банке содержит примерно 1022 молекул, и ни одной ЭВМ не под силу рассчитать траектории такого числа сталкивающихся друг с другом частиц. Но даже если бы с помощью какого-нибудь фантастического суперкомпьютера и удалось бы проинтегрировать все «зацепляющиеся» уравнения движения в общем виде, то совершенно невозможно было бы подставить в решение уравнений конкретные начальные условия - координаты и скорости всех 1022 молекул в некоторый выбранный нами момент, хотя бы из-за необходимых для этого времени и бумаги. Именно поэтому для описания «больших» - макроскопических - систем физики используют усредненные статистические или термодинамические характеристики, такие, как температура, давление, свободная энергия, и некоторые другие.

2. Другой тип случайности сегодня ассоциируется с именем выдающегося французского математика Анри Пуанкаре, который, по-видимому, был первым, кто предвосхитил современный взгляд на хаос, обратив внимание на чрезвычайную «чуткость» неустойчивых динамических систем - сколь угодно малые неопределенности в их состоянии усиливаются со временем, и предсказания будущего становятся невозможными.

Статистические системы преимущественно основаны на классической схеме теории вероятностей, и чтобы найти интересующие нас вероятности, нужно проделать простые комбинаторные вычисления. Скажем, вероятность падения симметричной монеты какой-то одной стороной кверху равно ½ (просто из соображений симметрии). Вероятность рождения мальчика, как показывает опыт, несколько больше ½ и по каким-то загадочным причинам способна претерпевать внезапные скачки, сопряженные с глобальными изменениями условий жизни, например, после войн и эпидемий. А вообще пол человека - лишь один из многих генетических признаков, распределение вероятностей которых изучает математическая генетика.

Вероятность угадать сколько-нибудь видов спорта при игре в «Спортлото» дается так называемым гипергеометрическим распределением (по существу, отношением чисел сочетаний разных номеров на карточке). Например, вероятность угадать все шесть видов спорта равна 7,15·10-8. Математический аппарат молекулярной физики несколько сложнее, он основан на изучении так называемых кинетических уравнений. Интересно, что в 60-х годах кинетическая теория была с успехом применена к описанию коллективного движения автомобилей на автострадах, и сделал эту попытку бельгийский ученый И. Пригожин.

5.3.2. Необходимость хаоса

Хаос открывает нам в природе целый мир новых форм и картин. Выясняется, что разупорядоченность в определённом диапазоне отлично совмещается с упорядоченностью в другом диапазоне. Изучение хаоса показывает также, что случайность не является следствием несовершенства эксперимента или сложности внешней среды, которой мы не можем управлять, - она лежит в самой основе динамики детерминистических систем с несколькими переменными. Помимо прочего сосуществование случайности и упорядоченности приводит к понятию информации.

В хаосе есть порядок: в основе случайности лежит некая геометрическая структура (паттерн). Хаос налагает принципиальные ограничения на возможность прогнозирования, но в то же время предполагает причинные связи там, где раньше их никто не подозревал. Сила науки заключена в её способности устанавливать связь между причиной и следствием. Например, законы гравитации позволяют предсказывать затмения на тысячи лет вперед. Другие явления природы не поддаются столь точному предсказанию. Течения в атмосфере так же строго подчиняются физическим законам, как и движения планет, тем не менее, прогнозы погоды все еще имеют вероятностный характер.

И погода, и течение горной реки, и движение брошенной игральной кости имеют в своем поведении непредсказуемые аспекты. Так как в этих явлениях не видно четкой связи между причиной и следствием, говорят, что в них присутствует элемент случайности. Однако до недавнего времени было мало оснований сомневаться в том, что в принципе можно достичь точной предсказуемости. Считалось, что для этого необходимо только собрать и обработать достаточное количество информации.

Такую точку зрения круто изменило поразительное открытие: простые детерминированные системы с малым числом компонент могут порождать случайное поведение, причем эта случайность имеет принципиальный характер - от нее нельзя избавиться, собирая больше информации. Порождаемую таким способом случайность стали называть хаосом.

Кажущийся парадокс состоит в том, что хаос детерминирован - порожден определенными правилами, которые сами по себе не включают никаких элементов случайности. В принципе будущее полностью определено прошлым, однако, на практике малые неопределенности растут и поэтому поведение, допускающее краткосрочный прогноз, на долгий срок непредсказуемо. Таким образом, в хаосе есть порядок: в основе хаотического поведения лежат изящные геометрические структуры, которые создают случайность таким же способом, как создает ее сдающий карты, тасуя колоду, или миксер, размешивая тесто для бисквита.

Открытие хаоса породило новый образец научного моделирования. С одной стороны, оно ввело новые принципиальные ограничения на возможность предсказаний. С другой стороны, заложенный в хаосе детерминизм показал, что многие случайные явления более предсказуемы, чем считалось раньше. Собранная в прошлом информация, казавшаяся случайной и отправленная на полку как слишком сложная, теперь получила объяснение при помощи простых законов. Хаос позволяет находить порядок в столь различных системах, как атмосфера, подтекающий водопроводный кран или сердце. Это революционное открытие затронуло многие области науки.

Каковы же источники случайного поведения? Классическим примером служит броуновское движение. Рассматриваемая в микроскоп пылинка совершает свой безостановочный и беспорядочный танец под действием теплового движения окружающих ее молекул воды. Поскольку молекулы воды невидимы, а число их огромно, точное движение пылинки совершенно непредсказуемо. Таким образом, паутина причинных воздействий одних частей системы на другие может стать настолько запутанной, что окончательная картина поведения будет случайной.

Наука XX в. покончила с лапласовым детерминизмом. Первый удар ему нанесла квантовая механика. Одно из главных положений этой теории - открытый Гейзенбергом принцип неопределенности, который утверждает, что одновременно положение и скорость частицы не могут быть точно измерены. Принцип неопределенности хорошо объясняет, почему некоторые случайные явления, такие, как радиоактивный распад, не подчиняются лапласову детерминизму. Ядро настолько мало, что вступает в силу принцип неопределенности, и точно знать происходящие в ядре процессы принципиально невозможно, а потому, сколько бы ни было собрано о нем информации, нельзя точно предсказать, когда оно распадется.

Однако источник непредсказуемости для крупномасштабных систем требует другого объяснения. Одни крупномасштабные явления предсказуемы, другие - нет, и квантовая механика тут ни при чем. Например, траектория бейсбольного мяча в принципе предсказуема, и каждый игрок интуитивно пользуется этим всякий раз, когда ловит мяч. Напротив, траектория воздушного шара, когда из него вырывается воздух, непредсказуема: он кренится и беспорядочно вертится в какие-то моменты и в каких-то местах, которые нельзя предвидеть. Но ведь этот воздушный шар подчиняется тем же законам Ньютона, что и бейсбольный мяч; почему же прогнозировать его поведение труднее?

Хороший пример динамической системы - простой маятник. Его движение задается всего двумя переменными: положением и скоростью. Таким образом, его состояние - это точка на плоскости, координаты которой - положение маятника и его скорость.

Эволюция состояния описывается правилом, которое выводится из законов Ньютона и выражается математически в виде дифференциального уравнения. Когда маятник качается взад-вперед, его состояние - точка на плоскости - движется по некоторой траектории («орбите»). В идеальном случае маятника без трения орбита представляет собой петлю; при наличии трения орбита закручивается по спирали к некоторой точке, соответствующей остановке маятника.

Динамическая система может развиваться либо в непрерывном времени, либо в дискретном времени. Первая называется потоком, вторая - отображением (иногда каскадом). Маятник непрерывно движется от одного положения к другому и, следовательно, описывается динамической системой с непрерывным временем, то есть потоком. Число насекомых, рождающихся каждый год в определенном ареале, или промежуток времени между каплями из подтекающего водопроводного крана более естественно описывать системой с дискретным временем, то есть отображением.

Чтобы узнать, как развивается система из заданного начального состояния, нужно совершить бесконечно малое продвижение по орбите, а для этого можно воспользоваться динамикой (уравнениями движения). При таком методе объем вычислительной работы пропорционален времени, в течение которого мы хотим двигаться по орбите. Для простых систем типа маятника без трения может оказаться, что уравнения движения допускают решение в замкнутой форме, то есть, существует формула, выражающая любое будущее состояние через начальное состояние. Такое решение дает «путь напрямик», то есть более простой алгоритм, в котором для предсказания будущего используется только начальное состояние и окончательное время и который не требует прохода через все промежуточные состояния. В таком случае объем работы, затрачиваемой на прослеживание движения системы, почти не зависит от конечного значения времени. Так, если заданы уравнения движения планет и Луны, а также положения и скорости Земли и Луны, то можно, например, на много лет вперед предсказать затмения.

Благодаря успешному нахождению решений в замкнутой форме для многих разнообразных простых систем на ранних стадиях развития физики появилась надежда, что для всякой механической системы существует такое решение. Теперь известно, что это, вообще говоря, не так. Непредсказуемое поведение хаотических динамических систем нельзя описать решением в замкнутой форме. Значит, при установлении их поведения у нас нет никакого «пути напрямик».

В процессе последовательных переходов*, обусловленных последовательными флуктуациями, сохраняется память лишь о последнем переходе. В физико-химических системах ввиду короткого действия межмолекулярных связей число переходов в единицу времени в системе определённого размера, пропорционально этому размеру, то есть каждый малый элемент может чувствовать лишь своих соседей. Напротив, например, в социальных системах благодаря деятельности масс - медиа каждый элемент может ощущать все остальные.

В современном естествознании существует уже довольно много красивых примеров перехода к непредсказуемому поведению - хаосу. Многие сценарии возникновения хаоса изучаются уже не только физиками и математиками, но и химиками, биологами, экологами. Например, непредсказуемые колебания численности рыб или насекомых, скажем, комаров, могут быть следствием хаотического поведения соответствующих динамических эволюционирующих систем. Не менее интересны и обратные переходы - от хаоса к порядку. Самый типичный пример такого перехода - лазер: начиная с некоторого «порога» возбуждения, он генерирует упорядоченное - когерентное - световое поле.

Другие яркие примеры возникновения порядка (помимо уже упоминавшихся ячеек Бенара) - это химические колебания и биологический морфогенез. Морфогенез, то есть образование пространственно-временной структуры в совершенно однородной среде, - одна из самых удивительных загадок, которые ставит перед физиками и математиками биологическая материя. Как возникают правильные узоры на крыльях бабочек или регулярные полосы на тигриной шкуре? Может быть, теория образования порядка из хаоса скоро поможет нам ответить на эти «детские» вопросы.

Картина упорядоченности в системе - это «компромисс» между двумя антагонистическими факторами - нелинейным процессом типа химического, непрерывно и несогласованно посылающего инновационные сигналы в виде флуктуаций и процессом типа транспортного, который улавливает, передаёт и стабилизирует эти сигналы. Нарушение равновесия между ними приводит к таким состояниям как хаотическое (каждый элемент системы действует сам по себе) или гомеостатическое (флуктуации подавлены - полная однородность).

Отклонение от равновероятного распределения есть средство отбора выделенных последовательностей из ограниченного количества всевозможных случайных последовательностей. Такое отклонение возможно только при взаимодействии с внешней средой. Такие условия могут привести к неравновесным состояниям, которые за счёт обмена веществом и энергией могут существовать неопределенно долго.

5.3.3. Смысл информации

Ценность информации оказывается тем большей, чем меньше разнообразных способов выполнить заданную функцию. Если сравниваются системы, выполняющие различные функции, то ценностный критерий уже оказывается малопригодным, здесь по-прежнему можно использовать количественный информационный критерий. Количественный и прагматический информационные критерии необходимо применять не порознь, а совместно, только в этом случае можно достигнуть наиболее адекватного определения степени организации, как в функциональном, так и во многих других отношениях.

Для появления согласованных направленных процессов в системе необходимо использование информации в процессе функционирования системы. Если использования нет, то новые признаки у элементов появляются независимо от того, какие признаки есть у других элементов. Если нет использования информации, то нет ее накопления во внешней среде, а, следовательно, нет передачи накопленной информации из внешней среды в систему. Организация в системе связана с локализацией элементов, обладающих определенными признаками, с концентрацией этих элементов, то есть образованием диссипативной структуры. Локализованные диссипативные структуры имеют способность накапливать информацию за счет своего рода «примитивной памяти».

Такая локализация происходит благодаря самоинструктирующему процессу использования информации. В процессе использования информации происходит отбор тех элементов-признаков, которые дают преимущества в ходе развития.

Использование информации не является ее атрибутом, а лишь свойством, проявляющимся в определенных условиях. Во всех случаях, когда проводится сравнение и отбор информации, это происходит на основе их оценки по качеству. На линиях обратной связи всегда идет сопоставление реального результата некоторого действия с тем, который закодирован в программе. Это всегда означает, прежде всего, оценку по качеству информации. Если информация из внешней среды даёт указания на существование пищевых материалов, то, прежде всего, происходит их апробирование - сопоставление с требуемым материалом по его качеству.

Если биоценоз получает информацию о новом варианте организмов (через их деятельность), то всегда идет сопоставление нового варианта с прежней нормой. В борьбе за существование отбор нового варианта происходит не на основе количества, а только по качественным показателям (в сравнении с нормой). Самоинструктирующий характер процесса отбора приводит к тому, что уменьшается диссипация, так как уменьшается разнообразие элементов-признаков. А это, в свою очередь, уменьшает устойчивость системы. Система не просто удаляется от равновесного состояния, а удаляется с возрастающей скоростью, так как в отборе побеждают более совершенные структуры, возникающие раньше других.




Поделиться с друзьями:


Дата добавления: 2014-12-29; Просмотров: 367; Нарушение авторских прав?; Мы поможем в написании вашей работы!


Нам важно ваше мнение! Был ли полезен опубликованный материал? Да | Нет



studopedia.su - Студопедия (2013 - 2024) год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! Последнее добавление




Генерация страницы за: 0.008 сек.