Методы теории статистических решений

Медицинская диагностика на основе теории статистических решений

Постановка диагноза врачом – результат сложного процесса осмысливания и сопоставления большого количества информации. Достоверность диагноза зависит от опыта, накопленного специалистом в данной области медицины. Результаты диагностического процесса зависят также от личных качеств врача. Методы автоматической диагностики свободны от многих свойственных человеку недостатков, но уступают человеку в области творчества, интуиции. В настоящий момент для постановки диагноза с помощью компьютера применяются различные методы: вероятностные, обучения распознаванию, математической логики и др.

Вероятностные алгоритмы. Метод Байеса

В клинической практике известны симптомы, наличие которых однозначно определяет заболевания. С другой стороны, встречаются симптомы, исключающие тот или иной диагноз. Однако подобная детерминированность представляет скорее исключение, чем правило. Чаще всего кардинальных, определяющих клинику симптомов нет, и любой из них может встречаться с некоторой частотой при различных заболеваниях.

Естественным поэтому является использование вероятностных методов для постановки диагноза.

Пусть необходимо проводить дифференциальную диагностику между заболеваниями D1, D2, …, Dn. Для каждого из них характерно распределение условных вероятностей Р(S | Dj) появления у больного того или иного симптомокомплекса: S = {S1, …. Sk…..Sn}, где Si возможные значения (градации) различных симптомов. Если бы эти pacпределения, а также априорные вероятности заболеваний P(Dj) были заданы, то задача дифференциальной диагностики свелась бы к статистической задаче выбора гипотез, оптимальное диагностическое правило для которой нетрудно построить с помощью известной формулы Байеса. Последняя для апостериорной вероятности диагноза Dj дает выражение

P\left(D_{j} | S_{i}\right)=\left(P\left(D_{j}\right) P\left(S | D_{j}\right)\right) /\left(\sum_{j} P\left(D_{j}\right) P\left(S | D_{j}\right)\right) (1.47)

где P(Dj) — априорная вероятность заболевания с диагнозом Dj среди рассматриваемой группы болезней; P(S | Dj) — вероятность появления комплекса признаков при диагнозе Dj.

Если для какого-нибудь Dj* вероятность P(Dj* | S) значительно превосходит вероятность P(Dj | S) для других j ≠ j*, оптимальное правило приписывает больному заболевание Dj* . Словам «значительно превосходит» легко придать количественный смысл.

Широкому распространению такого решающего правила существенно препятствует то, что распределения P(S | Dj) и вероятности P(Dj) не заданы. И если вероятность заболеваний P(Dj) можно с достаточной точностью оценить, вычислив на достаточно большом клиническом материале частоты, с которыми рассматриваемые болезни встречаются, то определение распределения P(S | Dj) значительно сложнее. Последнее обстоятельство связано с тем, что для каждого диагноза необходимо определить условную вероятность любой комбинации признаков. Но уже для 30 двоичных клинических параметров мы имеем свыше миллиарда симптомокомплексов, составленных из принятых признаков. Разумеется, собрать клинический массив для оценки условных вероятностей P(S | Dj) совершенно невозможно. Единственным выходом в данной ситуации является использование вместо P(S | Dj) какой-нибудь аппроксимации, для оценки и запоминания которой не требуется столь больших масштабов. Вероятностные алгоритмы различаются, вообще говоря, способом аппроксимации P(S | Dj).

Наиболее распространено предположение, что события, состоящие в появлении у больных тех или иных значений рассматриваемых нами симптомов, статистически независимы. Тогда

P\left(S | D_{j}\right)=\prod_{i} P\left(S_{i} | D_{j}\right)

Теперь для задания P(S | Dj) уже нет необходимости запоминать и оценивать миллиарды чисел: достаточно иметь в памяти машины Кn чисел P(Si | Djn чисел P(Dj). Для десятков заболеваний и нескольких сотен признаков объем памяти не превысит несколько десятков тысяч чисел, что вполне доступно для современных ЭВМ. Кроме того, P(Si | Dj) легко оценить, подсчитав частоту появления значений симптома Si при заболевании Dj на достаточно большом количестве историй болезни.

Поскольку такой алгоритм, позволяющий получить достаточно хорошие результаты, широко распространен, остановимся на нем подробнее.

Медицинские сведения используются в виде диагностической таблицы, содержащей вероятности появления признаков для данной группы заболеваний. Представим для простоты, что диагностическая таблица составлена всего для трех заболеваний и содержит только 4 признака.

Обозначим условно диагнозы: D1 — тетрада Фалло; D2 — дефект межпредсердной перегородки; D3 — незаращенный артериальный проток, и признаки: S1 — цианоз; S2 — усиление легочного рисунка; S3 — акцент II гона во II межреберье слева; S4 — правограмма (ЭКГ).

Признак Sp будет абсолютно достоверным, если при данном заболевании он встречается в 100 % случаев. Вероятность такого признака принимается за единицу. В общем случае вероятность признака при заболевании Dj равна

P(Si | Dj) = nij / (njn-ij),

где nij — число больных с диагнозом Dj, имеющих признак Si; nj -общее число больных с данным заболеванием; n-ij— число больных с диагнозом Dj, нс обследованных на признак Si.

Величина P(Si | Dj) определяется на основании данных медицинской статистики, результатов обработки архивного материала и литературных данных, причем будет тем более достоверна, чем больше n.

Предположим12, что по данным статистики при D1 признак S1 встречается в 90 % случаев, S2 не встречается (0 %), S3 встречается в 5 %, S4 в 60 % случаев; при D2 признак встречается в 15 %, S2S4 — в 80 % случаев; при D3 признак S1 встречается в 100 %, S2 — в 95 %, S3 — в 90 %, S4 — в 10 % случаев.

Будем также считать, что априорная вероятность заболевания D1 равна 35 %, D2 — 15 % и D3 – 50 %.

В диагностической таблице эти данные могут быть представлены, как в табл. 1.

Таблица 1

DjP(Dj)P(S1 | Dj)P(S2 | Dj)P(S3| Dj)P(S4| Dj)
D10,350,9000,050,60
D20,150,150,800,800,80
D30.500,100,950,900,10

Апостериорная вероятность диагноза Dj при наличии комплекса признаков S определяется по приведенной ранее формуле Байса.

Предполагая признаки независимыми, будем иметь в рассматриваемом случае

P(S | Dj) = P(S1 | Dj)P(S2 | Dj)P(S3| Dj)P(S4| Dj);     (1.48)

P(S)=\sum_{j=1}^{3} P\left(D_{j}\right) P\left(S_{1} | D_{j}\right) P\left(S_{2} | D_{j}\right) P\left(S_{3} | D_{j}\right) P\left(S_{4} | D_{j}\right). (1.49)

Вычислим вероятности диагноза сначала в том случае, когда у больного проявились все четыре признака. Тогда по формулам (1.47)-(1.49) находим вероятности диагнозов P(D1 | S) = 0; P(D2 | S) = 0,73; P(D3 | S) = 0,27. При диагностике по методу Байеса предполагается, что у больного имеется одно из заболеваний, содержащихся в диагностической таблице. Таким образом, наиболее вероятным оказывается диагноз D2.

Теперь рассмотрим случай, когда у больного отсутствует признак S1 (цианоз), но имеются все остальные признаки. Вероятность отсутствия признака S1 равна

P(\bar{S}_{1} | Dj) = 1 – P(S1 | Dj).

Расчет проводится точно так же, но вероятность P(S1 | Dj) в формуле (1.47) заменяется на 1 – P(S1 | Dj). В результате получим

P(D1 | \bar{S}_{1}) = 0; P(D2 | \bar{S}_{1}) = 0,63; P(D3 | \bar{S}_{1}) – 0,37.

В табл. 2 приведены вероятности диагнозов при наличии всех признаков и при отсутствии одного из них.

Таблица 2

DjПризнаки
S1, S2, S3, S4\bar{S}_{1}, S2, S3, S4S1, \bar{S}_{2}, S3, S4S1, S2, \bar{S}_{3}, S4S1, S2, S3, \bar{S}_{4}
D1000,7500
D20,730,630,230,860,07
D30,270,370,020,140,93

Из табл. 2 видно, что наиболее четкая картина в данном примере получается в том случае, когда у больного отсутствует признак S4, но имеются все остальные признаки P(D3) = 93%.

В реальных условиях при наличии 100 200 признаков для 30 80 диагнозов подобные расчеты проводятся на ЭВМ с выдачей вероятностей каждого диагноза.

Полученные вероятности сравниваются с некоторым пороговым значением Tj, устанавливаемым в процессе обучения. Если P(Dj) > Tj), то делается вывод о наличии у больного диагноза (обычно Tj > 0,9). В случае, когда P(Dj) < Tj, требуется проведение дополнительных обследований.

Метод Вальда (последовательный статистический анализ)

Для дифференциальной диагностики может быть использован метод Вальда. Он представляет собой последовательную процедуру обследований, при которой достигается выбранный уровень вероятности диагноза. Сущность метода состоит в следующем. Предположим, что требуется установить один из двух возможных диагнозов D1 и D2. Сначала проводится обследование по признаку S1. Предположим далее, что при диагнозе D1 признак S1 имеет частот)’ встречаемости P(S1 | D1), а при диагнозе D2 — соответственно P(S1 | D2). Если у больного отмечается наличие признака S1, а при диагнозе D2 он встречается значительно чаще, чем при D1, то можно сделать вывод в пользу диагноза D2.

Таким образом, принимается диагноз D2, если

\frac{P\left(S_{1} | D_{2}\right)}{P\left(S_{1} | D_{1}\right)} >A

где A — верхняя граница, необходимая для принятия решения. В противоположном случае, когда признак S1 значительно чаще встречается при диагнозе D1,

\frac{P\left(S_{1} | D_{2}\right)}{P\left(S_{1} | D_{1}\right)} <B

где B — нижняя граница отношения, принимается решение в пользу диагноза D1. Если же отношение вероятностей, называемое отношением правдоподобия, занимает промежуточное положение

B<\frac{P\left(S_{1} | D_{2}\right)}{P\left(S_{1} | D_{1}\right)} <A

то требуется провести дополнительное обследование. Тогда проводится обследование по признаку S1 и, например при его отсутствии, вычисляется отношение

\frac{P\left(\bar{S}_{2} | D_{2}\right)}{P\left(\bar{S}_{2} | D_{1}\right)}

При

\frac{P\left(S_{1} | D_{2}\right)}{P\left(S_{1} | D_{1}\right)} \frac{P\left(\bar{S}_{2} | D_{2}\right)}{P\left(\bar{S}_{2} | D_{1}\right)}>A

ставится диагноз D2. Подобным образом используется нижняя граница В и область неопределенности. Если признаки являются зависимыми, то следует определять отношение правдоподобия с учетом результатов предыдущих испытаний (т.е. определять вероятность отсутствия признака S2 при условии, что имеется признак S1).

В последовательном анализе границы принятия решения имеют определенный физический смысл.

A = (1 – β) / α; B = β / (1 – α)

где α — вероятность ошибки, при которой больному с диагнозом D1 устанавливается диагноз D2; β — вероятность ошибки, при которой больному с диагнозом D2 устанавливается диагноз D1. Для сокращения объема обследований рекомендуется проводить сначала обследования по наиболее информативным признакам (т.е. по признакам с наибольшей диагностической ценностью). Уменьшение величины о и ft приводит к уменьшению числа ошибок диагностической системы, но одновременно увеличивает число неопределенных ответов, что на практике весьма нежелательно.

Субъективная мера вероятности

На практике часто встречаются случаи, когда вероятности каких-либо событий из-за отсутствия или очень малого объема статистических данных не могут быть оценены как соответствующие частости. В таких случаях вполне уместно применение субъективных вероятностей3, т.е. оценок, данных человеком на основании его интуиции и опыта. В жизни от врачей мы порой слышим: «вероятность летального исхода для данного пациента равна 80 %» или «для данного результата теста вероятность наличия данного заболевания составляет 30 %». Мнения разных врачей могут различаться. Возможно привлечение группы экспертов, которые оценят значения субъективных вероятностей более точно.

Если таким субъективным образом оценить P(Dj) и P(S | Dj) то, используя теорему Байеса, можно вычислить P(Dj | S) для разных заболеваний. При допущении независимости симптомов

P\left(D_{j} | S\right)=\frac{P\left(S | D_{j}\right) P\left(D_{j}\right)}{P(S)}

Footnotes

  1. Гублер Е. В. Информатика в патологии, клинической медицине и педиатрии. — Л.: Медицина, 1990.
  2. Гублер Е. В. Вычислительные методы анализа и распознавания патологических процессов. Л.: Медицина, 1978.   290 с.
  3. Ластед Л. Введение в проблему принятия решений в медицине. — М.: Мир, 1971.