Ви є тут

Концепція інформаційного поля молекул та її застосування для вирішення завдань структура-властивість органічних сполук

Автор: 
Огніченко Людмила Миколаївна
Тип роботи: 
Дис. канд. наук
Рік: 
2004
Артикул:
0404U004279
129 грн
Додати в кошик

Вміст

РАЗДЕЛ 2
ИНФОРМАЦИОННОЕ ПОЛЕ МОЛЕКУЛЫ
В данном разделе излагаются основные положения и принципы разработанной модели информационного поля молекул [58-67]. Концепция ИП основывается на последовательном применении подхода Шеннона не только к объекту - молекуле, но и к окружающему его пространству. Т.е. окружающее объект пространство дискретизируется и рассматривается как система элементов. В каждой точке такого пространства, используя подход Шеннона, можно рассчитать параметры ИП молекулы.
Данная модель описывает ситуацию, когда объект (молекула) структурирует окружающее его пространство, т.е. генерирует в нем информацию.

2.1. Основы концепции
В разделе 1.1. было отмечено, что в 1948 году Клодом Шенноном была предложена модель, позволяющая количественно оценивать информацию, содержащейся в сообщении. К. Шеннон определил информацию как сведения, которые снимают существующую до их получения, неопределенность ?16?. По аналогии с термодинамикой степень неопределенности той или иной ситуации можно охарактеризовать с помощью энтропии. Таким образом, степень неопределенности ситуации может быть связана с числом возможных вариантов (путей) развития этой ситуации (исходов опыта). Отсюда понятно, что объективной основой информации является "различие" или "разнообразие", что согласуется с информационными концепциями У.Р. Эшби и В.М. Глушкова ?68?. В соответствии с гипотезой Хартли ?7? для оценки количества информации используют логарифм возможного числа исходов (путей) развития анализируемой ситуации. Если использовать логарифм по основанию 2, то снятие неопределенности ситуации равно 1 (I = log22 = 1). Это соответствует количеству информации в один "бит". Если различные исходы (i) развития ситуации имеют различные вероятности (Pi), то количество информации более корректно оценивать с помощью формулы Шеннона.
Подход Шеннона базируется на дискретном представлении "объекта" (ситуации, системы), состоящем из множества M "элементов" (исходов). Пусть мощность этого множества равна n (?M? = n). Если задать в этом множестве отношение эквивалентности, то все его элементы образуют ряд подмножеств (mj), в каждое из которых входят только эквивалентные элементы
m1 ? m2 ? ???mi???? mk = M
kn mj ? mi = 0 ?mi?= ni ni = n
Вероятность выбора любого элемента (исхода ситуации) из i-того подмножества равна pi = ni/n. Согласно Шеннону количество информации, приходящееся на один элемент системы (объекта) определяется как
I = -pilb(pi) , где lblog2
Для упомянутой ранее ситуации с двумя равновероятными исходами (например, бросание монеты "орел", "решка"), так же как и по Хартли, мы получим 1 бит информации.
I = -1/2 lb(1/2) - 1/2 lb(1/2) = 1
Информацию, содержащуюся во всем множестве (М) элементов легко определить как
I? = n?I = -nilb(ni/n)
Отсюда часть информации, определяемая одним из подмножеств mi множества M равна -nilb(ni/n), а информация, генерируемая одним элементом такого подмножества равна соответственно -lb(ni/n) или lb(n/ni).
Если неопределенности нет, т.е. ситуация имеет только один исход, а система состоит из элементов только одного вида (нет разнообразия), то I? = I = 0, т.к. M = m1; n = n1 и p1 =1. Максимум информации мы имеем для случая, когда ситуация имеет максимально возможное число исходов, а система состоит только из разных элементов: ni = 1; pi = 1/n; I = lb(n); I? = nlb(n).
Таким образом, информационное содержание системы определяется только количеством элементов (n) в ней и схемой разбиения их на подмножества (?mi? = ni). При таком подходе полностью игнорируется качественная сторона информации, ее смысловое содержание. Положительной стороной этого является возможность анализировать любые информационные процессы и системы с общих позиций. Фактически предлагается универсальный язык для описания информационной стороны любого процесса, явления или объекта.
В данной работе мы попытались исследовать достаточно фундаментальную проблему: "Каков результат передачи информации о молекулярной структуре в окружающее пространство?" Другими словами, мы попытались смоделировать информационное поле (ИП) молекулы. Построить формальную модель ИП оказалось не так сложно. Для этого необходимо последовательно применять подход Шеннона не только к исследуемому "объекту", но и к окружающему его пространству. Другими словами, это пространство, так же как и "объект", необходимо дискретизировать и рассматривать как систему элементов. Следует отметить, что более корректно говорить не об ИП, а о поле потенциальной информации (ППИ), так как информация возникает только в том случае, когда есть "приемник" ("наблюдатель") ее воспринимающий. Для упрощения мы будем далее в диссертационной работе применять термин ИП, при этом подразумевая ППИ.
Представим себе идеализированную ситуацию - "пустое" бесконечное пространство, (для простоты двумерное), разделенное на одинаковые области (ячейки). В нем содержится 0 бит информации, т.к. все ячейки абсолютно одинаковы, нет "неоднородности" (разнообразия), отсюда нет информации. Но, как только мы поместим в это пространство любой объект, эквивалентность многих ячеек исчезает. Они становятся разными, в зависимости от того, как по-разному "виден" объект с той или иной ячейки пространства. Т.е., находясь в различных местах пространства, окружающего объект, мы (приемник, наблюдатель) можем получить разное количество информации об этом объекте. Таким образом, чтобы смоделировать ИП объекта в выделенной области мы должны научиться дифференцировать ячейки окружающего его пространства. Когда все ячейки в исследуемой области пространства будут разбиты на группы, нам останется только применить формулу Шеннона и рассчитать потенциальную информацию, содержащуюся в каждой ячейке, группе ячеек и во всей области.
Рассмотрим простейший пример. Поместим на плоскость объект, представляющий собой од