logo
kollokvium_po_fizike

Основные направления медицинской кибер­нетики:

1. Автоматизация диагностики заболеваний.

2. Автоматизация диагностики состояния больного.

3. Моделирование физиологических процессов в норме и па­тологии.

4. Автоматизация труда медицинских работни­ков.

5. Разработка плана лечения и прогнозирование хода болезни.

6. Применение диагностики в здравоохранении.

Информатика является основой кибернетики, но и представля­ет собой самостоятельное научное направление, самостоятель­ную науку.

Информатика - научная дисциплина, изучаю­щая структуру и общие свойства научной информации, а также закономернос­ти всех процессов научной коммуникации.

Значительную часть этих процессов составляет научно-информационная деятельность по сбору, переработке, хранению, поиску и распростране­нию научной информации. Основная теоретиче­ская задача информатики заключается в оп­ределении общих закономерностей, в соответст­вии с которыми происходит создание научной информации, ее преобразование, пе­редача и использование в различных сферах деятельности человека. Математическая теория информации используется в инфор­матике для обеспечения оптимального кодирования информации, ее долговременного хранения, поиска и передачи на расстояние.

Математическая теория информации - раздел кибернетики, занимающийся матема­тическим описанием и оценкой методов передачи, хранения, извлечения и классифика­ции информации.

Она в основном математическая дисциплина, использующая методы теории вероятности, математической статистики, линей­ной алгебры и др. Первоначально теория информации возникла как теория свя­зи, обеспечивающая надежность и экономичность передачи со­общений по техниче­ским каналам связи. Сейчас она является универ­сальной теорией связи для систем любого происхожде­ния, в том числе и биологических. Недостаточное к ней внима­ние биологов и медиков обусловлено, вероятно, их слабой осве­домленностью в этой области. Хотя, даже на первый взгляд ясно, что теория располагает неограниченными возможностями опи­сать, дать количественную характеристику сложных биологичес­ких объектов. И не случайно поэтому, в начале медицинская ки­бернетика (1975 г.), а затем информатика введена в программу меди­цинских вузов.

Информация так же как масса и энергия является характерис­тикой окружающего нас мира, это философская категория, мате­риальная субстан­ция, характеризующая пространственную ориен­тацию материи.

Информация - это совокупность каких-либо сведений, дан­ных, знаний об изучаемом объ­екте, явлении, процессе.

Информация предполагает передачу этих сведений другому (воспринимающему) объекту. Сведения, передаваемые с одного объекта к другому, называются сообщениями. Сообщения информативны только в том случае, если они не­сут новые сведения об объекте. Предназначен­ные для передачи на расстояние сообщения пре­образуются в сигналы. Они по своей природе могут быть дискретными (азбука Морзе, цифры, буквы, молекулы, клетки, особи ...) и непрерыв­ными (высота тона звука, изменение давления крови, изменение концентрации веществ в биологических тканях, темпе­ратура тела и т.д.). Сообщение, подлежащее передаче, в информа­тике называется словом. Это может быть буква, слово, фраза, сочетание слов и цифр и т.д. Составляющие сообщение элементы, называ­ются бук­вами или символами.

Количество информации зависит от числа сообщений (N), точнее прямо пропорционально логарифму от N:

J = logaN

Основанием логарифма берется, как правило, число 2, т.к. в принципе, любую информацию можно представить в виде сово­купности двух цифр - «0» и «1» («0» - нет, «1» - да), тогда

J = log2N.

Если в этом определении N = 2, то J = log22 = 1. '

Количество информации равно единице, когда число сооб­щений равно двум. Такая единица измерения количества инфор­мации получила название БИТ.

Чаще используется единица 1 байт = 8 бит.

Пример: Подсчитать количество информации, которую не­сет одна буква русского алфавита. Приближенно будем считать N = 32 и использо­вание каждой буквы равновероятно. J = log232 = 5 бит.

Следовательно, каждая буква русского алфавита несет информацию в 5 бит, если считать исполь­зование всех букв рав­новероятным. Но сообще­ние, полученное от какого-либо объекта, является случайным явлением. Так, например, буква А в любом тексте встречается чаще, чем буква Ы. В медицине сообщение зависит от многих явлений и процес­сов, протекающих в организме человека и в окружающей среде. Поэтому для количест­венной оценки информации используется теория информации.

Преобразуем: J = logN = -log1/N

1/N - это вероятность появления одного сообще­ния Аi, по­этому, J = -logP(Ai) - информация любого сообщения (осно­вание логарифма не ставим, всегда считая его равным двум). Если в некотором опыте возможно появление несколь­ких сообщений А1, А2, А3, ... Аi (симптомы, анализы) и мы проводим опыты п раз (n - боль­ных с одним диагнозом). Причем, А1 появ­ляется m1, раз, А2 - m2раз, А3 - m3 раз и т.д., то общая информа­ция подсчитывается по формуле:

J = - m­­­1logP(A1) - m2logP(A2) - m3logP(A3)-... = - ∑m1 logP(Ai),

а среднее значение информации на одно сообще­ние:

J = - ∑P(Ai)logP(Ai), т.к. m1/n = P(Al ), m/n = P2), ..., mi­/n = Pi)

Эту же формулу можно получить, проделав ряд преобразова­ний:

J = - log1/N, J = - N1/N log1/N, J = - ∑P(Ai)logP(Ai)

Пример: Т.к. использование букв русского алфавита собы­тия не равновероятные и зависи­мые, то реальное количество ин­формации, приходящееся на одну букву, составляет около 4 бит.

Величину H = ∑P(Ai)logP(Ai) называют инфор­мационной энтропией. Энтропия характеризует степень неопределенности системы. Т.к. J и Н имеют различные знаки (J = - Н), то получение инфор­мации от системы уменьшает ее степень неопределенности. Кроме величины информа­ции и энтропии, в информатике введено понятие - ценность информации.

Ценность информации - это изменение вероятности дос­тижения цели, в результате получения информации.

J = logP1 - logP2,

где Р1 - вероятность достижения цели до получе­ния информа­ции, Р2 - после. Ценность информа­ции бывает как положитель­ной, так и отрица­тельной. Это зависит от того, повысило или по­низило получение новой информации вероят­ность достижения цели. Отрицательная инфор­мация называется дезинформацией. Ценность информации измеряется так же в битах. Любое сообщение от отдельных частей системы или от систе­мы к системе передается по специальным путям, получивших на­звание каналов связи. Для того чтобы сообщение можно было пе­редать по каналу связи, его необходимо преобразовать в форму, удобную для передачи по нему, т.е. представить в виде совокуп­ности символов или сигналов. Материальное воплощение сооб­щения в канале связи, как мы уже говорили, называется сигна­лом. Процесс преобразования сообщения в сигналы называется кодированием. Например, вся информация от внешнего мира, поступающая на наши органы чувств, кодируется в виде электри­ческих импульсов в нейронах и в таком виде поступает в цент­ральную нервную систему. На втором конце канала связи сигналы расшиф­ровываются или декодируются и вновь преобра­зуются в сообщение. Посколь­ку передача сигналов в любом канале связи сопровождается по­мехами, то полученное сообщение будет несколько отличаться от первоначального. Американский инженер и математик Клод Шеннон, который считается основоположником теории передачи информации, в своем классиче­ском труде « Теория передачи электрических сиг­налов при наличии помех « (1948 г.) предложил следующую схему передачи сигналов по каналам связи:

Как видно из данной схемы, передача информа­ции предпола­гает наличие источника сообщений и получателя или адресата.

Источник сообщений - это материальный объект, основной особенностью которого является то, что он создает совокупность сведе­ний о своем состоянии.

Получатель или Адресат - это материальный объект, для ко­торого предназначено сообщение.

Если существует взаимосвязь между передавае­мыми сигнала­ми, то их можно использовать не полностью. Применяя различ­ные методы кодирования, можно уменьшить число необхо­димых для передачи сигналов, без уменьшения количества передаваемой информации. Однако избыточность информации желательна, т.к. она ведет к увеличению отношения сигнала к шуму.

Избыточность информации - это разность между макси­мально возможным и реальным количеством информации, пере­носимой ее носителем.

В рассмотренном примере об информации букв русского ал­фавита их избыточность составляет 1 бит (5 бит - 4 бита), т.е. она двукратна. Избыточ­ность снижает степень погрешностей, которые вносятся шумами или помехами. Например, нечеткость шрифта, плохая орфография, недос­таток освещения и т.д. Еще один пример. Так вместо текста: «Приеду в Омск поез­дом номер три в восемь часов, пятнадцать минут», можно пере­дать по телеграфу более короткий текст: «Приеду Омск поездом три, восемь, пятнадцать» или так: «поезд 3, 8 - 15». Вследствие наличия помех в каналах связи, одна из букв или цифр в сообщении может принята не правильно. Но если в пер­вых двух примерах это не несет никаких ошибок в понимании смысла сообще­ния, то в третьем случае может полностью его из­менить. Например: «Подъезд 3, 8—15». Поэтому, как мы уже го­ворили, избыточность информации приводит к повышению на­дежности передачи информации по каналу связи.