Автор работы: Пользователь скрыл имя, 29 Мая 2010 в 01:19, Не определен
Появление синергетики в современной естествознании инициировано, видимо, подготовкой глобального эволюционного синтеза всех естественнонаучных дисциплин. Эту тенденцию в немалой степени сдерживало такое обстоятельство, как разительная ассиметрия процессов деградации и развития в живой и неживой природе. В классической науке XIXв. Господствовало убеждение, что материи изначально присуща тенденция к разрушению всякой упорядоченности, стремление к исходному равновесию (в энергетическом смысле это и означает неупорядоченность или хаос). Такой взгляд на вещи сформировался под воздействием равновесной термодинамики.
2. Энтропия в организации и учёт энтропии
в управлении
Энтропия (от греч. entropia - поворот, превращение) - мера неупорядоченности больших систем. Впервые понятие "энтропия" введено в XIX в. в результате анализа работы тепловых машин, где энтропия характеризует ту часть энергии, которая рассеивается в пространстве, не совершая полезной работы (отсюда определение: энтропия - мера обесценивания энергии). Затем было установлено, что энтропия характеризует вероятность определенного состояния любой физической системы среди множества возможных ее состояний. В закрытых физических системах все самопроизвольные процессы направлены к достижению более вероятных состояний, т. е. к максимуму энтропии . В равновесном состоянии, когда этот максимум достигается, никакие направленные процессы невозможны. Отсюда возникла гипотеза о тепловой смерти Вселенной. Однако распространение на всю Вселенную законов, установленных для закрытых систем, не имеет убедительных научных оснований. В XX в. понятие " энтропия " оказалось плодотворным для исследования биосистем, а также процессов передачи и обработки информации. Эволюция в целом и развитие каждого организма происходит благодаря тому, что биосистемы, будучи открытыми, питаются энергией из окружающего мира. Но при этом биопроцессы протекают таким образом, что связанные с ними "производство энтропии " минимально. Это служит важным руководящим принципом и при разработке современных технологических процессов, при проектировании технических систем. Количественная мера информации формально совпадает с "отрицательно определенной " энтропией. Но глубокое понимание соответствия энтропии физической и информационной остается одной из кардинальных недостаточно исследованных проблем современной науки. Ее решение послужит одним из важных факторов становления нового научно-технического мышления.
Энтропия широко применяется и в других областях науки: в статистической физике как мера вероятности осуществления какого-либо макроскопического состояния; в теории информации как мера неопределенности какого-либо опыта (испытания), который может иметь разные исходы. Эти трактовки имеют глубокую внутреннюю связь. Например, на основе представлений об информационной энтропии можно вывести все важнейшие положения статистической физики.
Теория информации возникла для описания передачи и приёма сообщений в процессе деятельности человека. Во всех её задачах присутствуют понятия передатчика и приёмника, сигнала-сообщения, событий и их вероятностей. Существование цели передачи информации в теории информации выражается тем, что вводится понятие известного заданного события. Для него может быть определена вероятность р0 наступления до приёма сообщения и р1 после приёма.
В силу определения информации как устранённой неопределённости в достижении цели строгая (то есть математическая) формализация понятия об информации требует выразить математическим соотношением, что есть неопределённость в достижении цели. 4
Существование неопределённости связано с участием вероятностей в осуществлении событий. Устранение неопределённости есть увеличение вероятности наступления того, что задано как цель. Поэтому вероятности должны участвовать в математической формулировке величины устранённой неопределённости.
Первая удачная попытка реализовать определение информации на такой основе осуществлена в 1928 г. Л. Хартли. Пусть возможно в данных условиях n вариантов некоторого результата. Целью является один из них. Хартли предложил характеризовать неопределённость логарифмом числа n. То есть log n является количественной мерой неопределённости. Выбор основания логарифма связан с понятием об алфавитах для описания информации. Этот выбор существенен для экономичности кодирования в технических устройствах или живых системах (сокращения потоков импульсов или аналоговых сигналов), но не меняет самого количества информации как устранённой неопределённости за счёт того, что перед логарифмом вводится безразмерный множитель, выражаемый модулем перехода между основаниями логарифмов. От него зависят названия единиц информации.
При математическом описании неопределённости (например способом Хартли) в случае равновероятных результатов можно перейти от их числа n к обратной величине - вероятности р одного из них. В терминах связи конкретно говорят о вероятности переданного сообщения р0 у приёмника до приёма сообщения. Устранение неопределённости выражается тем, что вероятность переданного сообщения у приёмника после приёма сигнала возрастает и становится р1 . Тогда количественная мера s полученной информации (устранённой неопределённости) выражается логарифмом отношения вероятностей:
Оно равноправно по отношению к любому конкретному сообщению и имеет разную величину в зависимости от величин р0 и р1 для него. В частном случае, когда при передаче полностью отсутствую шумы и сбои, искажающие сигнал, вероятность р0 равна единице.
Организованность как меру организации системы можно определить по отклонению текущего состояния организации от целевого состояния — аттрактору системы, имеющему оптимальную структуру, т.е. состоянию оптимальной организации. Как определить это самое отклонение от уровня оптимальной организации? И вообще, как определить меру упорядоченности системы, уровень ее организованности или организации? Эта проблема находится в зачаточном состоянии, ибо пока не разработаны единые, достаточно удовлетворительные критерии оценки организованности сложных систем. Говоря об оптимальной организации, мы предполагаем такую организацию, в которой цели достигаются с минимальными ресурсными затратами. Как достичь такого уровня организации? Уровень организации — это абстрактная мера, это инструмент, с помощью которого можно учесть изменения, которые происходят в организации. При этом возникает вопрос о количественной оценке уровня организации. Выражение, с помощью которого формализуется уровень организации, включает индекс разнообразия элементов системы и показатель ее сложности, который соответственно зависит от количества связей в системе, т.е. показали, что уровень организованности системы определяется информационными связями.
В связи с развитием теории информации и кибернетики широкое распространение получили подходы, основанные на оценке энтропии системы. В предыдущем параграфе мы уже касались понятия энтропии. Энтропия, как и информация, используется в разных областях знаний и значительно расширила свой первоначальный смысл. Термин, введенный Р. Клаузиусом в 1865 г. в связи с описанием термодинамических неравновесных процессов в изолированной системе, к середине XX в. расширяется до понимания энтропии как меры дезорганизации любой системы (Э. Шредингер). К. Шеннон — основоположник теории информации и Н. Винер — основоположник кибернетики отмечали тесную связь информации и энтропии. Если К. Шеннон (1948 г.) под информацией понимает сообщение, уменьшающее неопределенность (энтропию) у получателя сообщений, то Н. Винер, в этом же году пишет, что «количество информации, будучи отрицательным логарифмом величины, которую можно рассматривать как вероятность, по существу есть некоторая отрицательная энтропия».
В
экономических науках энтропия понимается
как мера неопределенности в сисгеме.
Неопределенность в системе — это ситуация,
когда полностью или частично отсутствует
информация о возможных состояниях системы
и внешней среды, когда в системе возможны
события, вероятностные характеристики
которых неизвестны. Чем сложнее система,
тем большее значение приобретает фактор
неопределенности в ее развитии.
Информация и энтропия характеризуют
сложную систему с точки зрения упорядоченности
и хаоса, причем если информация — мера
упорядоченности, то энтропия — мера беспорядка.
Эта мера простирается от максимальной
энтропии, т.е. хаоса, полной неопределенности
до высшего уровня порядка.
Если система эволюционирует в направлении упорядоченности, то ее энтропия уменьшается. Итак, уровень организованности определяется уровнем информации, на котором находится система. Следовательно, количество информации, необходимое для перехода из одного уровня организации в другой (качественно более высокий), можно определить как разность энтропии.
Уменьшение энтропии происходит в результате информационно-управленческого процесса за счет обмена с внешней средой веществом, энергией и информацией. Человек постоянно борется с энтропией информацией: «Мы плывем вверх по течению, борясь с огромным потоком дезорганизованности, которая в соответствии со вторым законом термодинамики стремится все свести к тепловой смерти — всеобщему равновесию и одинаковости, т.е. энтропии. В мире, где энтропия в целом стремится к возрастанию, существуют местные временные островки уменьшающейся энтропии — это области прогресса».
Итак,
уровень организованности определяется
уровнем информации, на котором находится
система. Системы, которые сами добывают
информацию для саморегулирования и саморазвития,
есть наиболее организованные системы.
Так, в биологии обычно выделяется шесть
уровней биологической организации: молекулярный,
клеточный, организменный, популяционный
(популяционно-видовой), экосистемный,
биосферный.
Р.Ф. Абдеев на основании анализа современных
работ приводит более широкую классификацию
и выделяет восемь уровней организации
(приводится с некоторыми сокращениями
и изменениями): первый — уровень статических
структур, уровень оснований, класс естественно
возникших структур неорганической природы;
второй — уровень динамических систем
с детерминированным движением (законы
небесной механики, законы Ньютона, Солнечная
система, часовой механизм и т.д.); третий
— уровень систем авторегуляции, в которых
уже есть передача и анализ информации,
как системная функциональная особенность;
начало механизма управления (термостаты);
четвертый — уровень самоорганизующихся
структур или открытых систем (уровень
клетки); пятый — уровень растений как
переходная ступень от неживого к живому;
шестой — уровень животных, появление
психики и коммуникативности; седьмой
— уровень человека, появление разума;
характерны интенсификация информационных
процессов, познание окружающего мира,
целенаправленная деятельность; восьмой
— уровень общественных институтов, т.е.
человеческого общества, самоорганизация
общества в различные общественно-экономические
формации.5
Теория организации как наука имеет дело с системами, находящимися на восьмом уровне организации. Этот уровень характеризуется интенсификацией информационных процессов, целенаправленной деятельностью.
Познание сложных систем является целью современной науки. На уровне социальных систем роль информации становится столь значительной, разум человека так активно вторгается в процессы самоорганизации, что способен качественно изменить основные ее механизмы. Следующим уровнем возможно будет становление единой, земной цивилизации, которая будет иметь ясно выраженную общую цель, общую информационную сеть и цели, совпадающие с целями Природы.
Рассмотрим взаимосвязь "управление-энтропия" более подробно. Ранее мы определили отношения в организации как неравновесную систему, которая функционирует по алгоритму "открытие - получение импульса - создание структуры с присущими ей закономерностями и траекторией - распад структуры вследствие повышения энтропии и расхода энергии - возвращение в открытое состояние".
Во-первых,
она дает понимание следующего нюанса:
в зависимости от фазы, в которой
находятся отношения в
Во-вторых, она помогает идентифицировать состояния системы. Одно дело - воздействовать на систему в открытом состоянии, другое - в структурированном состоянии, третье - в состоянии распада.
В-третьих: становится понятным, что управленческие проблемы могут возникать в случае, когда руководитель не различает состояний отношений и воздействует на нее как на идеальную статическую систему (или даже объект). Другими словами: плохая управляемость системы, как правило, свидетельствует об идеализации и "заморозке" (повышении статичности) ее модели в голове управляющего.
Теперь перейдем к классификации ситуации управления неравновесной системой.
Управление создает структуру, которая снижает энтропию системы. Такое сочетание соответствует начальной фазе системы: система открыта, управленческий импульс упорядочивает систему, задает необходимую сложность и запускает жизненный цикл. Система структурируется, энергия канализируется на определенных объектах, у системы возникает цель и потенциал для достижения этой цели. У системы возникает предназначение, культура как условие реализации предназначения, смыслы, система координат, которые объединяют людей в сообщество.
Сообщество растет, становится притягательным именно в силу низкой энтропии и мощного вектора развития.
Управление создает структуру, которая повышает энтропию системы. В процессе управления возникает соблазн добавить структуре, которая сформирована и работает отлично, еще работу. Это могут быть новые цели, новые обязанности, новые условия существования и пр. усложнение и загрузки.
В результате часть энергии структура вынуждена перенаправлять на обслуживание этих загрузок, адаптацию их к практике - т.е. совершать параллельную работу. Возникает двойственность, двойная структура в рамках одной системы. Каковы последствия? В системе возникает дисбаланс, упорядочение новых установок в одном месте приводит к росту энтропии в другом (старых целей и установок). Причина - ограниченность ресурса энергии (внимания) системы. По аналогии с человеческой психикой: человек может одновременно делать два разных дела, но одно из них он обязательно сделает плохо, а другое - посредственно.
Информация о работе Отношение к энтропии в организациии и учет этого фактора в управлении