Информационный анализ иммунологических показателей пациентов.
ВВЕДЕНИЕ Для современного этапа развития биологии и медицины характерно прогрессирующее стремление к достижению строгости и достоверности точных наук, опирающихся на математический аппарат. Эта тенденция уже нашла свое отражение в статистико-вероятностных методах и принципах, получивших широкое признание в кругах медиков и биологов, а теперь находит все более прочную и глубокую основу в использовании принципов и методов кибернетики. Предметом кибернетики являются системы любой природы, способные воспринимать, хранить и перерабатывать информацию, используя ее для управления и регулирования. Кибернетика родилась в результате взаимообогащающего синтеза знаний математики, электроники и физиологии. Это новая наука, возникшая на стыке исследований живых и технических систем. Вследствие этого теория информации, возникшая одновременно с кибернетикой, хотя и порожденная своими, специально техническими целями, стала универсальной теорией связи и заняла впоследствии центральное место в кибернетике. Теория информации, не имевшая в своем генезе, в отличии от кибернетики, никакого отношения к живым организмам, в последующем стала все чаще привлекаться в сферу биологических и медицинских наук. Однако до сих пор теория информации не получила достаточной популярности и должного применения в различных областях биологии и медицины. А между тем, поскольку эта теория располагает собственным математическим аппаратом, позволяющим описывать и оценивать природу сложных объектов, она, по-видимому, может помочь медикам и биологам найти способы более строгого, математизированного описания и количественной оценки тех сложных предметов и явлений, с которыми им приходится иметь дело. Теория информации - математическая теория. Она возникла как теория связи, призванная обеспечить оптимальные условия, надежность и экономичность передачи сообщений, состоящих из сигналов, по каналам технической связи. Однако очень скоро она перешагнула рамки техницизма и превратилась в универсальную теорию связи. Она нашла способ количественного измерения и выражения информации, дала математические доказательства оптимальных условий ее передачи, накопления, хранения, переработки и использования для управления и регулирования самых разнообразных систем. Таким образом, не потеряв самостоятельной ценности, она стала неотъемлемой частью кибернетики. 1 ТЕОРЕТИЧЕСКАЯ ЧАСТЬ Изучение живых организмов и жизненных явлений в информационном аспекте представляет собой стремление наук медико-биологического профиля к математизации. Возможность математизации таких явлений, которые не поддавались этому до создания теории информации, представляет, конечно, одну из весьма ценных ее сторон. Главнейшая причина, побуждающая ратовать за информационный подход и использование теории информации в области медицины и биологии, заключается в том, что саму информацию необходимо рассматривать как фундаментальное свойство материального мира. Предметом теории информации является сообщение, представляющее собой материальную форму воплощения информации. Сообщение, подлежащее передаче, нередко называют словом, а составляющие его элементы - буквами или символами. Весь ассортимент символов, используемых для передачи сообщений или сигналов, называется алфавитом или кодом. Количество (ассортимент) элементарных символов (букв) образует основание кода (обозначается обычно буквой m), а совокупность используемых элементарных позиций – разрядность (обозначается буквой n). Основание и разрядность полностью определяют возможности данного кода, т.е. число различных сообщений, которые можно с его помощью передать. Число возможных равновероятных сообщений L можно рассчитать для данного кода по формуле: L=mn . (1.1) Чем больше число L, тем больше не только количество возможных различных сообщений, но и тем значительнее каждое из сообщений будет отличаться от остальных. Поэтому величина L может говорить о количестве информации, содержащейся в сообщении. Однако, поскольку эта величина не подчиняется правилу аддитивности, пользоваться ею как мерой количества информации неудобно. Гораздо более приемлемой мерой количества информации является величина , для которой выполнимо условие аддитивности. Эту величину, обозначаемую буквой Q, называют обычно информационной емкостью: . ( ВВЕДЕНИЕ. 5 1.Конспект лекций по курсу «Теория принятия решений в задачах контроля и управления». Похожие работы:
Поделитесь этой записью или добавьте в закладки |