Основные направления медицинской кибернетики:
1. Автоматизация диагностики заболеваний.
2. Автоматизация диагностики состояния больного.
3. Моделирование физиологических процессов в норме и патологии.
4. Автоматизация труда медицинских работников.
5. Разработка плана лечения и прогнозирование хода болезни.
6. Применение диагностики в здравоохранении.
Информатика является основой кибернетики, но и представляет собой самостоятельное научное направление, самостоятельную науку.
Информатика - научная дисциплина, изучающая структуру и общие свойства научной информации, а также закономерности всех процессов научной коммуникации.
Значительную часть этих процессов составляет научно-информационная деятельность по сбору, переработке, хранению, поиску и распространению научной информации. Основная теоретическая задача информатики заключается в определении общих закономерностей, в соответствии с которыми происходит создание научной информации, ее преобразование, передача и использование в различных сферах деятельности человека. Математическая теория информации используется в информатике для обеспечения оптимального кодирования информации, ее долговременного хранения, поиска и передачи на расстояние.
Математическая теория информации - раздел кибернетики, занимающийся математическим описанием и оценкой методов передачи, хранения, извлечения и классификации информации.
Она в основном математическая дисциплина, использующая методы теории вероятности, математической статистики, линейной алгебры и др. Первоначально теория информации возникла как теория связи, обеспечивающая надежность и экономичность передачи сообщений по техническим каналам связи. Сейчас она является универсальной теорией связи для систем любого происхождения, в том числе и биологических. Недостаточное к ней внимание биологов и медиков обусловлено, вероятно, их слабой осведомленностью в этой области. Хотя, даже на первый взгляд ясно, что теория располагает неограниченными возможностями описать, дать количественную характеристику сложных биологических объектов. И не случайно поэтому, в начале медицинская кибернетика (1975 г.), а затем информатика введена в программу медицинских вузов.
Информация так же как масса и энергия является характеристикой окружающего нас мира, это философская категория, материальная субстанция, характеризующая пространственную ориентацию материи.
Информация - это совокупность каких-либо сведений, данных, знаний об изучаемом объекте, явлении, процессе.
Информация предполагает передачу этих сведений другому (воспринимающему) объекту. Сведения, передаваемые с одного объекта к другому, называются сообщениями. Сообщения информативны только в том случае, если они несут новые сведения об объекте. Предназначенные для передачи на расстояние сообщения преобразуются в сигналы. Они по своей природе могут быть дискретными (азбука Морзе, цифры, буквы, молекулы, клетки, особи ...) и непрерывными (высота тона звука, изменение давления крови, изменение концентрации веществ в биологических тканях, температура тела и т.д.). Сообщение, подлежащее передаче, в информатике называется словом. Это может быть буква, слово, фраза, сочетание слов и цифр и т.д. Составляющие сообщение элементы, называются буквами или символами.
Количество информации зависит от числа сообщений (N), точнее прямо пропорционально логарифму от N:
J = logaN
Основанием логарифма берется, как правило, число 2, т.к. в принципе, любую информацию можно представить в виде совокупности двух цифр - «0» и «1» («0» - нет, «1» - да), тогда
J = log2N.
Если в этом определении N = 2, то J = log22 = 1. '
Количество информации равно единице, когда число сообщений равно двум. Такая единица измерения количества информации получила название БИТ.
Чаще используется единица 1 байт = 8 бит.
Пример: Подсчитать количество информации, которую несет одна буква русского алфавита. Приближенно будем считать N = 32 и использование каждой буквы равновероятно. J = log232 = 5 бит.
Следовательно, каждая буква русского алфавита несет информацию в 5 бит, если считать использование всех букв равновероятным. Но сообщение, полученное от какого-либо объекта, является случайным явлением. Так, например, буква А в любом тексте встречается чаще, чем буква Ы. В медицине сообщение зависит от многих явлений и процессов, протекающих в организме человека и в окружающей среде. Поэтому для количественной оценки информации используется теория информации.
Преобразуем: J = logN = -log1/N
1/N - это вероятность появления одного сообщения Аi, поэтому, J = -logP(Ai) - информация любого сообщения (основание логарифма не ставим, всегда считая его равным двум). Если в некотором опыте возможно появление нескольких сообщений А1, А2, А3, ... Аi (симптомы, анализы) и мы проводим опыты п раз (n - больных с одним диагнозом). Причем, А1 появляется m1, раз, А2 - m2раз, А3 - m3 раз и т.д., то общая информация подсчитывается по формуле:
J = - m1logP(A1) - m2logP(A2) - m3logP(A3)-... = - ∑m1 logP(Ai),
а среднее значение информации на одно сообщение:
J = - ∑P(Ai)logP(Ai), т.к. m1/n = P(Al ), m2/n = P(А2), ..., mi/n = P(Аi)
Эту же формулу можно получить, проделав ряд преобразований:
J = - log1/N, J = - N1/N log1/N, J = - ∑P(Ai)logP(Ai)
Пример: Т.к. использование букв русского алфавита события не равновероятные и зависимые, то реальное количество информации, приходящееся на одну букву, составляет около 4 бит.
Величину H = ∑P(Ai)logP(Ai) называют информационной энтропией. Энтропия характеризует степень неопределенности системы. Т.к. J и Н имеют различные знаки (J = - Н), то получение информации от системы уменьшает ее степень неопределенности. Кроме величины информации и энтропии, в информатике введено понятие - ценность информации.
Ценность информации - это изменение вероятности достижения цели, в результате получения информации.
∆J = logP1 - logP2,
где Р1 - вероятность достижения цели до получения информации, Р2 - после. Ценность информации бывает как положительной, так и отрицательной. Это зависит от того, повысило или понизило получение новой информации вероятность достижения цели. Отрицательная информация называется дезинформацией. Ценность информации измеряется так же в битах. Любое сообщение от отдельных частей системы или от системы к системе передается по специальным путям, получивших название каналов связи. Для того чтобы сообщение можно было передать по каналу связи, его необходимо преобразовать в форму, удобную для передачи по нему, т.е. представить в виде совокупности символов или сигналов. Материальное воплощение сообщения в канале связи, как мы уже говорили, называется сигналом. Процесс преобразования сообщения в сигналы называется кодированием. Например, вся информация от внешнего мира, поступающая на наши органы чувств, кодируется в виде электрических импульсов в нейронах и в таком виде поступает в центральную нервную систему. На втором конце канала связи сигналы расшифровываются или декодируются и вновь преобразуются в сообщение. Поскольку передача сигналов в любом канале связи сопровождается помехами, то полученное сообщение будет несколько отличаться от первоначального. Американский инженер и математик Клод Шеннон, который считается основоположником теории передачи информации, в своем классическом труде « Теория передачи электрических сигналов при наличии помех « (1948 г.) предложил следующую схему передачи сигналов по каналам связи:
Как видно из данной схемы, передача информации предполагает наличие источника сообщений и получателя или адресата.
Источник сообщений - это материальный объект, основной особенностью которого является то, что он создает совокупность сведений о своем состоянии.
Получатель или Адресат - это материальный объект, для которого предназначено сообщение.
Если существует взаимосвязь между передаваемыми сигналами, то их можно использовать не полностью. Применяя различные методы кодирования, можно уменьшить число необходимых для передачи сигналов, без уменьшения количества передаваемой информации. Однако избыточность информации желательна, т.к. она ведет к увеличению отношения сигнала к шуму.
Избыточность информации - это разность между максимально возможным и реальным количеством информации, переносимой ее носителем.
В рассмотренном примере об информации букв русского алфавита их избыточность составляет 1 бит (5 бит - 4 бита), т.е. она двукратна. Избыточность снижает степень погрешностей, которые вносятся шумами или помехами. Например, нечеткость шрифта, плохая орфография, недостаток освещения и т.д. Еще один пример. Так вместо текста: «Приеду в Омск поездом номер три в восемь часов, пятнадцать минут», можно передать по телеграфу более короткий текст: «Приеду Омск поездом три, восемь, пятнадцать» или так: «поезд 3, 8 - 15». Вследствие наличия помех в каналах связи, одна из букв или цифр в сообщении может принята не правильно. Но если в первых двух примерах это не несет никаких ошибок в понимании смысла сообщения, то в третьем случае может полностью его изменить. Например: «Подъезд 3, 8—15». Поэтому, как мы уже говорили, избыточность информации приводит к повышению надежности передачи информации по каналу связи.
- Колебания, волны, звук
- Физические основы гемодинамики
- Физический смысл градиента скорости:
- Величина градиента давления зависит:
- Моделирование. Механическая и электрическая модели кровообращения
- Методы определения скорости кровотока
- Способы измерения давления крови
- Медицинская электроника
- Диагностические электронные системы
- Классификация усми
- Геометрическая оптика. Фотометрия. Фотоэффект
- Законы отражения
- I закон: Луч падающий, перпендикуляр, восстановленный к границе раздела двух сред в точке падения, и луч отраженный лежат в одной плоскости.
- Законы преломления
- I закон: Луч падающий, перпендикуляр, восстановленный к границе раздела двух сред в точке падения, и преломленный луч лежат в одной плоскости.
- I I закон: Отношение синуса угла падения к синусу угла преломления есть величина постоянная для данных двух сред и называется показателем преломления второй среды относительно первой:
- Микроскоп
- Оптическая система глаза
- Недостатки оптической системы глаза и их устранение
- Фотометрия. Фотоэффект
- Первый закон освещенности:
- Второй закон освещенности:
- Фотоэффект
- I закон: Фототок насыщения j (т.Е. Максимальное число электронов, освобождаемых светом в 1с) прямо пропорционален световому потоку ф.
- II закон: Скорость фотоэлектронов пропорционально возрастает с увеличением частоты падающего света и не зависит от его интенсивности.
- Волновая оптика
- Разрешающая способность оптических систем
- Способы уменьшения предела разрешения
- Электронный микроскоп
- Поляризация света
- Свойства обыкновенного и необыкновенного лучей
- Способы получения поляризованного света.
- Механизм оптического излучения. Оптические квантовые генераторы
- Факторы действия:
- Эффект биологического действия лучей лазера зависит:
- Рентгеновское излучение
- При этом могут возникнуть три случая взаимодействия.
- Ядро атома. Радиоактивность
- Основные свойства ядерных сил:
- Дозиметрия ионизирующего излучения
- Материя и движение. Современные взгляды на природу вещества и поля
- Моделирование. Вероятностные методы диагностики
- Моделирование состоит из следующих стадий:
- Медицинская диагностика и возможности её автоматизации
- Вероятностные методы диагностики
- Структурные основы функционирования мембран
- Основные этапы работы атф-азы:
- Электрогенез биопотенциалов
- 1. Диффузный потенциал Δφд.
- 2. Равновесный мембранный потенциал Δφм(р).
- Активно-возбудимые среды
- Биофизика мышечного сокращения
- Активные и пассивные электрические свойства органов и тканей
- Современные методы обработки информации количественные показатели в биологии и медицине
- Элементы теории вероятности
- Распределение Максвелла
- Распределение Больцмана
- Нормальный закон распределения
- Элементы высшей математики
- Производная от функции в данной точке
- Некоторые правила нахождения производных
- Производные второго и высших порядков
- Возрастание и убывание функции
- Дифференциал функции
- Некоторые свойства дифференциала
- Неопределенный интеграл
- Основные свойства неопределенного интеграла
- Основные методы интегрирования
- Определенный интеграл
- Некоторые свойства определенного интеграла
- Техника вычисления определенного интеграла
- Дифференциальные уравнения
- Дифференциальные уравнения с разделенными и разделяющимися переменными
- Задачи на составление дифференциального уравнения
- Кибернетика и информатика
- Основные направления медицинской кибернетики:
- Использование теории информации в биологии и медицине:
- Основы вычислительной техники
- К центральным устройствам относятся:
- Программное обеспечение эвм
- Примеры простейших программ:
- Техника электробезопасности при работе с электронными медицинскими системами
- Классы защиты условной безопасности