ТЕОРИЯ ИНФОРМАЦИИ В ЭКОНОМИКО-МАТЕМАТИЧЕСКОМ МОДЕЛИРОВАНИИ
Аннотация и ключевые слова
Аннотация (русский):
В статье обсуждается возможность применения теории информации в задачах экономико-математического моделирования. Описана процедура проверки гипотезы об альтернативных поставках на основе информационного критерия.

Ключевые слова:
экономико-математическое моделирование, энтропии, сигнальная теория, информационный критерий, гипотезы.
Текст
  1. Введение

Теорию информации относят к дополнительным главам теории вероятностей, которая специально рассматривает сигнальную специфику случайных процессов. Если же рассматривать результат экономического или социального процесса, как модель сигнала, можно с принципиально новых позиций  получить ответы на вопросы о ценности информации, емкости информационного поля.Для экономики с её финансовыми кризиса­ми классическая экономическая теория и статистика, построенные на линейных равновесных моделях,оказываются малопродук­тивными или, более того, неадекватными. В течение последней трети XX в. исследователи, работающие над проблемами физики распознавания образов, передачи информации, управления информационными потоками, а также в ряде других областей на­правляли свои усилия на обнаружение общих черт в нелинейных процессах, протекающих в сложных системах. С математической точки зрения, хаотический характер поведения сложных систем  в большей степени обусловлен тем, что моделируемые преобразования, происходящие с системой, носят нелинейный характер.Системы с хаотическим поведением были обнаруже­ны в гидродинамике, физике лазеров, химической кинетике, астро­физике, биофизике, экологии, при обработке больших массивов данных сложной структуры в сейсмике [7,11]. Зарождение нелинейной парадигмы, включающей в себя энтропийную метрику, было предопределено уровнем развития науки и  для анализа экономических процессов. Вплоть до 90-х годов XX в. при использовании инструментария классической статистики в экономико-математическом моделировании домини­ровала линейная парадигма. Согласно этой парадигме каждое воз­действие на начальные условия вызывает пропорциональную реак­цию получаемого результата. Однако рынки редко бывают столь устойчивыми и на незначительные возмущения могут реагировать нелинейно. По отношению к динамике социально-экономических систем и процессов теория хао­са не только объясняет бифуркационные явления (большие паде­ния или большие выбросы), но прямо говорит нам, что их невоз­можно предсказать. По этой причине многие рыночные технические аналитики обоснованно предположили, что распознать в хаотичес­ком движении новые закономерности им поможет фрактальная теория. В экономике и финансах стали применяться фрактальные статистики, связанные с именем Херста. Так, при построении новых стохастических моделей ценообразования в стандартизованные методики расчета, например, по базовым формулам Ито или Блэка-Шоулса, вводят фрактальную статистику Херста, как дополнительный учет меры хаоса. Современные консалтинговые компании применяют фрактальную статистику Херста к оценке доходности акций при анализе инвестиционно-финансовой привлекательности компании. По существу, основная задача показателя Херста – отличить случайный числовой ряд от неслучайного, даже если этот случайный ряд не гауссовый, т.е. вероятностное распределение не является нормальным. В то же время адекватной количественной мерой неопределенности финансового состояния компании, охватывающей в своем анализе значимые финансовые факторы,  может быть выбрана  энтропийная метрика. В этой связи финансовая система компании может быть структурирована по подмножествам элементов, образованных ее финансовыми показателями. Тогда элементы системы и ее связи будут определять вероятностное пространство состояний системы предприятия. В работах [9,10,13] были выделены подмножества финансовых показателей и связаны со случайными величинами, образующими вероятностные пространства соответствующих показателей. При таком подходе отклонения  энтропии могут интерпретироваться как показатель риска, заменяющий дисперсию. Еще раз отметим, что при оценке рисков экономико-математические методы изучения и управления информационными процессами исследователи начинают использовать аппарат теории информации, а именно, энтропийный подход. Так, автором в [12] была решена задача минимизации рисков портфелей электроэнергетических проектов в Турции с использованием показателей энтропии в качестве меры риска вместо дисперсии. Следовательно, показатели энтропии могут быть использованы на  этапе оценки проектных рисков.

  1. Мера информации

 Первую логарифмическую меру информации предложил Хартли в 1928г. Шеннон и Винер, независимо друг от друга, опубликовали в 1948г. работы, в которых были описаны логарифмические меры информации в практически применяемой форме. Упрощенно мы можем определить информацию, содержащуюся в послании, как отрицательную энтропию или отрицательный логарифм вероятности. При этом, чем больше вероятность послания, тем меньше информации оно содержит.  Базисным понятием теории информации является понятие энтропии. Энтропия – мера неопределенности некоторой ситуации. Можно также назвать ее мерой рассеяния, и в этом смысле она подобна дисперсии. Но если дисперсия является адекватной мерой рассеяния лишь для специальных распределений вероятностей случайных величин (а именно – для двухмоментных распределений, в частности, для гауссова распределения), то энтропия не зависит от типа распределения. Кроме универсальности энтропия обладает свойством аддитивности. Именно такая удобная, с практической точки зрения, мера неопределенности была введена К. Шенноном:

,

здесь Х – дискретная случайная величина;

 – вероятность того, что случайная величина примет значение .

С некоторыми трудностями, энтропийный подход удалось обобщить на непрерывные случайные величины (введением дифференциальной энтропии). Использование формы дифференциальной энтропии известных распределений позволяет получать количественные закономерности в замкнутой аналитической форме [8,14].

 В основе всей теории информации лежит открытие, что информация допускает количественную оценку. Не останавливаясь на том, как развивалось и обобщалось понятие количества информации, дадим сразу ее современное толкование. Определим теперь количество информации как меру снятой неопределенности: числовое значение количества информации о некотором объекте равно разности априорной и апостериорной энтропии этого объекта, т.е.

Остановимся еще на одном важном моменте. До сих пор речь шла о среднем количестве информации, приходящемся на пару состояний объектов X и Y. Эта характеристика естественна для рассмотрения особенностей стационарно функционирующих систем, когда в процессе функционирования принимают участие всевозможные пары .Однако в ряде практических случаев оказывается необходимым рассмотреть информационное влияние конкретной пары состояний, оценить содержание информации в конкретной реализации сигнала, емкость «полезного» сигнала. Некоторые сигналы несут информации намного больше, чем другие, например, в контексте выбираемых управленческих инициатив. Допуская существование количественной меры информации, в конкретной паре естественно потребовать, чтобы индивидуальное и среднее количество информации удовлетворяли соотношению (в дискретном случае):


Тогда мерой индивидуальной информации может служить информационная плотность

в дискретном случае

.

В непрерывном случае информационная плотность имеет вид

.

Следующий пример показывает, как использовать информационный показатель для выбора статистической гипотезы о «полезности» сигнала информации.

 

  1. Пример использования информационного критерия для проверки гипотезы об альтернативных поставках – альтернативные информационные потоки

 

Известно, что проводимая либерализация энергетических рынков приводит к разделению компаний, расширению доступа к инфраструктурным объектам, появлению новых участников рынка и площадок биржевой торговли. В результате изменяются как содержание, так и направленность информационных потоков между участниками рынка. Эти потоки информации становятся более сложными и менее предсказуемыми. Возникает явление ассиметричности информации между участниками рынка. С одной стороны, информационная асимметрия создается специально государственными регулирующими органами между компаниями поставщиками и компаниями транзитерами с целью снижения их влияния на рынок.  В то же время ассиметричность информации является одним из следствий несовершенства рынка и может привести к неоптимальному распределению экономических ресурсов. Например, избыточному финансированию инвестиций в транспортную инфраструктуру, завышению транспортных тарифов, усилению ценовых колебаний. Так, в этих условиях компания транспортировщик не имеет полной информации по планируемым объемам поставок и должна полагаться на различные источники информации. Это приводит к неоптимальному использованию инфраструктуры и дополнительным вложениям в инфраструктуру. Для прогнозирования инвестиций в инфраструктуру компании необходимо учитывать не только информацию EXPOST, представляющую статистические данные о загруженности транспортных мощностей, но и новые информационные рыночные сигналы, моделируемые случайным вектором Y –управленческие решения в смежных областях, государственные директивы, возможности новых участников рынка, рынок товаров субститутов. В этой связи требуется разработка новых инструментов оценки ценности информации. Пусть на основании анализа выборки (т.е. совокупности наблюдений по изучаемым объемам поставок ) требуется отдать предпочтение одной из конкурирующих гипотез –ассиметричным условиям поставок, если построены гипотетические распределения наблюдений по каждой из гипотез. Возникает мысль о том, чтобы вычислить индивидуальное количество информации Y, представленное случайным векторомв выборке X по каждой из гипотез, и сравнить их. В теории информации используется информационное расстояние для оценки «полезного» сигнала Y. Сравнение информации по двум «полезным» сигналам может быть задано информационным расстоянием в качестве информационного критерия

.

Известно, что в теории информации задача обнаружения «полезного» сигнала может сводиться к принятию одной из альтернативных гипотез:

– в случайном векторе есть значимый сигнал; –  значимый сигнал отсутствует.

Эта задача сводится к оптимальному разбиению вероятностной  области  наличия сигналов на две подобласти. При этом если статистический вектор результатов опыта оказывается в области соответствующей большей вероятности, то принимается гипотеза о наличии сигнала. В математической статистике проверка гипотез о сравнении двух распределений осуществляется с помощью функции правдоподобия общего вида.

Пусть  – выборка, представляющая вектор одинаково распределенных, независимых случайных величин. Рассмотрим две альтернативные гипотезы:

; .

.

Введем в рассмотрение, например, параметр , тогда принимается вторая гипотеза, если вероятность расположения случайного вектора в , содержащего «полезный» сигнал, больше 50%. Такой критерий предусматривает сравнение следующего отношения(функция правдоподобия)

  – с параметром с, относя к критической области ту часть , где это отношение больше значения заданного параметра. Причем в этом случае получаем один не обязательно оптимальный критерий.  Если же требуется получить критерий с заданным или если необходимо варьировать размер критической области с учетом заданной мощности критерия, то рассматривают класс похожих критериев со свободными параметрами[5].  Например, если вторая  вероятность превосходит первую  в c раз, то выбираем вторую, а иначе – первую.

В теории информации рассматривают функцию правдоподобия вида отношения условных вероятностей, при учете условия о «полезном» сигнале – случайном векторе (например, моделируемом показатели, описывающие «полезные» управленческие инициативы). При двух заданиях «полезного» сигнала имеем две альтернативные гипотезы, описанные выше, с функцией правдоподобия вида

.

Оптимальный критерий соответственно имеет вид

.

Для статистического анализа рассматривается выборка в виде пара , где случайный вектор  X задает характеристики поставок(цены, транспортные издержки, амортизацию и другие), векторы  – количественная информация об этих характеристиках в соответствии с вводимыми альтернативными гипотезами.

В заключение отметим, что для системного экономического анализа и экономико-математического моделирования теория информации имеет прикладное значение. Во-первых, ее конкретные методы позволяют провести ряд количественных исследований информационных потоков в изучаемой среде. Важным методологическим аспектом является эвристическое значение основных понятий теории информации – неопределенности, энтропии, количество информации, избыточности, пропускной способности и ряда других.  Использование этих понятий актуально для понимания и прикладного моделирования системных процессов не только в технических, но и в гуманитарных областях, экономике. Системный анализ неизбежно выходит на количественное исследование ресурсов, которые потребуются для решения сложной  проблемы. В этом случае информационные ресурсы будут играть далеко не последнюю роль наряду с материальными, энергетическими и временными. Авторы надеются привлечь внимание коллег к энтропийному подходу в анализе данных, имеющих не стандартное распределение. Изучение понятий и методов теории информации, как дополнительной главы в теории вероятностей, может также быть интересным при организации проектных исследовательских работ в университете [14,15,16].

Список литературы

1. Колмогоров А.Н. Избранные труды. Теория информации и теория алгоритмов.- М.: Наука, 1987. - 303 с.

2. Яглом А.М., Яглом И.М. Вероятность и информация. М.: Наука, 1973. - 512с.

3. Мартин Н., Ингленд Дж. Математическая теория энтропий. М.: Мир. 1988. -251с.

4. A. Gjendemsjo (ed.).InformationandSignalTheory - Houston: Rice University, 2006. - 98p.

5. БоровковА.А. Математическаястатистика.М.: Мир. 1984. - 472с.

6. Феллер В. Введение в теорию вероятностей и ее приложения.М. : Мир.1984. - 738с.

7. Журавлев В.И., Лукк А.А., Сидорин А.Я., Рыжкова Т.В. Фрактальные характеристики множеств сейсмических событий при учете фактора времени // Физика Земли. - 2001. - № 3. - С. 34.

8. Рыжкова Т.В. Максимизация энтропии стандартных распределений // Фундаментальные физико-математические проблемы и моделирование технико-технологических систем. - 2016. - № 17. - С. 238-249.

9. Рыжкова Т.В.Энтропийные показатели финансовой системы предприятия // Вестник МГТУ Станкин. - 2012. - № 2. - С. 124-127.

10. Рыжкова Т.В.Энтропийный анализ инвестиционной привлекательности компании // Вестник Российского экономического университета им. Г.В. Плеханова. - 2010. - № 6. - С. 89-100.

11. Zhuravlev V.I., Lukk A.A., SidorinA.Ya., Ryzhkova T.V. Time-dependent fractal characteristics of sets of seismic events // Izvestiya. Physics of the Solid Earth. 2001. Т. 37. № 3. С. 223-233.

12. Боженко Е.В.Энтропийный подход к оценке электроэнергетических проектов в Турции// Фундаментальные физико-математические проблемы и моделирование технико-технологических систем. - 2016. - № 17. - С. 45-53.

13. Рыжкова Т.В.Энтропийная оценка конкурентоспособности компании // В мире научных открытий. - 2010. - № 6-1. - С. 94-95.

14. Рыжкова Т.В. Модель дифференциальной энтропии финансовых показателей Межд.научно-практ.конф.,посв.105-летию РЭУ им.Г.В. Плеханова «Методы количественных исследований процессов модернизации экономики и социальной сферы», Москва, 2012, - C. 248-252.

15. Махина Т.Ю., Рыжкова Т.В., Тушканов Д.А., Чистякова Н.А. Оценка творческого потенциала студента на примереолимпиады «Практическая стохастика - 2013» в РЭУ им. Г.В. Плеханова // Известия Российского экономического университета им. Г.В. Плеханова. - 2014. - № 4 (18). - С. 161-178.

16. Рыжкова Т.В., Тушканов Д.А., Чистякова Н.А. К вопросу об организации самостоятельной работы студентов (на примере кафедры высшей математики РЭУ им. Г.В. Плеханова) // Известия Российского экономического университета им. Г.В. Плеханова. - 2015. - № 4 (22). - С. 411-431.

Войти или Создать
* Забыли пароль?