.
  

© Вячеслав Дюк


Конструирование психодиагностических тестов: традиционные математические модели и алгоритмы (продолжение)

Публикуется по материалам монографии В. А. Дюка
«Компьютерная психодиагностика», (С-Пб., 1994)

Дискриминантный анализ

Если критериальный показатель z измерен в номинальной шкале или связь этого показателя с исходными признаками является нелинейной и носит неизвестный характер, для определения параметров диагностической модели используются методы дискриминантного анализа. В этом случае испытуемые, результаты обследования которых представлены в ТЭД, в соответствии с внешним критерием разбиваются на группы (классы), а эффективность диагностической модели рассматривается под углом зрения ее способности разделять (дискриминировать) диагностируемые классы.

Большая группа методов дискриминантного анализа в той или иной мере основана на байесовской схеме принятия решения о принадлежности объектов диагностическим классам. Байесовский подход базируется на предположении, что задача сформулирована в терминах теории вероятностей и известны все представляющие интерес величины: априорные вероятности P(ωi) для классов ωi(i=1,K) и условные плотности распределения значений вектора признаков Р(х/ωi). Правило Байеса заключается в нахождении апостериорной вероятности Р(ωi/х), которая вычисляется следующим образом

Решение о принадлежности объекта хk к классу ωj принимается при выполнении условия, обеспечивающего минимум средней вероятности ошибки классификации.

Если рассматриваются два диагностических класса ω1 и ω2, то в соответствии с этим правилом принимается решение ω1 при Р (ω1/х )>Р( ω2/х) и ω2 при P(ω2/x)>Р(ω1/x). Величину Р(ωi/х) в правиле Байеса часто называют правдоподобием ωi при данном х и принятие решения осуществляется через отношение правдоподобия или через его логарифм

Для дихотомических признаков, с которыми во многих случаях приходится иметь дело при конструировании психодиагностических тестов, р-мерный вектор признаков х может принимать одно из n=2р дискретных значений v1,...,vn. Функция плотности Р(х/ωi) становится сингулярной и заменяется на Р(vki) — условную вероятность того, что х=vk при условии класса ωi.

На практике в дискретном случае, как и в непрерывном, когда число исходных признаков xi велико, определение условных вероятностей встречает значительные трудности и зачастую не может быть осуществлено. Это связано, с одной стороны, с нереальностью даже простого просмотра всех точек дискретного пространства дихотомических признаков. Так, например, если использовать в качестве исходных признаков для построения диагностического правила утверждения тест-опросника MMPI, то р=550 и тем самым n=2550. С другой стороны, даже при гораздо меньшем количестве признаков для достоверной оценки условных вероятностей необходимо иметь результаты обследования весьма большого количества испытуемых.

Распространенным приемом преодоления указанных трудностей служит модель, в основе которой лежит допущение о независимости исходных дихотомических признаков. Пусть для определенности компоненты вектора х принимают значения 1 либо 0. Обозначим pi=Р(xi=1/ωi) — вероятность того, что признак xi равен 1 при условии извлечения объектов из диагностического класса ω1, и qi=Р(xi=1/(ω2) — вероятность равенства 1 признака xi в классе ω2. В случае pi>qi следует ожидать, что z-й признак будет чаще принимать значение 1 в классе ω1, нежели в ω2. В предположении о независимости признаков можно представить Р(х/ωi) в виде произведения вероятностей

Логарифм отношения правдоподобия в этом случае определяется следующим образом

Видно, что данное уравнение линейно относительно признаков xi. Поэтому можно записать

где весовые коэффициенты

а величина порога

Если L(xk)>0, то принимается решение о принадлежности объекта хk к диагностическому классу ω1, а если L(xk)<0, то ω2.

Приведенный результат аналогичен рассмотренным выше схемам лцнейного регрессионного анализа для независимых признаков. Можно выразить значения рi и qi с помощью обозначений, принятых для элементов таблицы сопряженности дихотомических признаков (см. табл. 2) Здесь в качестве одного из двух дихотомических признаков будет выступать индекс диагностического класса ωi. Подставив эти обозначения в логарифм, получим wi=log(bc/ad). To есть выражение для вычисления весовых коэффициентов в байесовской решающей функции для независимых признаков дает значения wi, монотонно связанные с коэффициентом Пирсона φ, который в ряде случаев может использоваться при определении коэффициентов уравнения линейной регрессии.

Результаты дискриминантного и регрессионного анализа для случая двух классов во многом совпадают. Различия проистекают в основном из-за применения разных критериев эффективности диагностической модели. Если интегральным показателем качества регрессионного уравнения служит квадрат коэффициента множественной корреляции с внешним критерием, то в дискриминантном анализе этот показатель, как правило, сформулирован относительно вероятности ошибочной классификации (ВОК) исследуемых объектов. В свою очередь, для вскрытия взаимосвязи ВОК со структурой экспериментальных данных в дискриминантном анализе широко используются геометрические представления о разделении диагностируемых классов в пространстве признаков. Воспользуемся этими представлениями для описания других, отличных от байесовского, подходов дискриминантного анализа.

Совокупность объектов, относящихся к одному классу ωi, образует «облако» в р-мерном пространстве Rp, задаваемом исходными признаками. Для успешной классификации необходимо, чтобы /Енюков И. С., 1986/:

а) облако из ωi в основном было сконцентрировано в некоторой области Di пространства Rp;

б) в область Di попала незначительная часть «облаков» объектов, соответствующих остальным классам.

Построение решающего правила можно рассматривать как задачу поиска К непересекающихся областей Di(i=l,K), удовлетворяющих условиям а) и б). Дискриминантные функции (ДФ) дают определение этих областей путем задания их границ в многомерном пространстве Rp. Если объект х попадает в область Di, то будем считать, что принимается решение о принадлежности объекта к ωi. Обозначим Р (ωij) — вероятность того, что объект из класса ωj ошибочно попадает в область Di, соответствующую классу ωi. Тогда критерием правильного определения областей А будет

где Р(ωi — априорная вероятность появления объекта из ωi. Критерий Q называется критерием средней вероятности ошибочной классификации. Минимум Q достигается при использовании, в частности, рассмотренного выше байесовского подхода, который, однако, может быть практически реализован только при справедливости очень сильного допущения о независимости исходных признаков и в этом случае дает оптимальную линейную диагностическую модель. Большое количество других подходов также использует линейные дискриминантные функции, но при этом на структуру данных накладываются менее жесткие ограничения. Рассмотрим основные из этих подходов.

Для случая двух классов ω1 и ω2 методы построения линейной дискриминантной функции (ЛДФ) опираются на два предположения. Первое состоит в том, что области D1 и D2, в которых концентрируются объекты из диагностируемых классов ω1 и ω2, могут быть разделены (р-1)-мерной гиперплоскостью у(х)+wo=w1x1+w2x2+...+wpxp+w0=0. Коэффициенты wi в данном случае интерпретируются как параметры, характеризующие наклон гиперплоскости к координатным осям, a wo называется порогом и соответствует расстоянию от ги­перплоскости до начала координат. Преимущественное расположение объектов одного класса, например ω1, по одну сторону гиперплоскости выражается в том, что для них, большей частью, будет выполняться условие у(х)<0, а для объектов другого класса ω2 — обратное условие у(х)>0. Второе предположение касается критерия качества разделения областей D1 и D2 гиперплоскостью у(х)+wo=0. Наиболее часто предполагается, что разделение будет тем лучше, чем дальше отстоят друг от друга средние значения случайных величин m1=Е{у(х)}, хєω1 и m2=Е{у(х)},хєω2 где Е{ •} — оператор усреднения.

В простейшем случае полагают, что классы ω1 и ω2 имеют одинаковые ковариационные матрицы S1=S2=S. Тогда вектор оптимальных весовых коэффициентов w определяется следующим образом /Андерсон Т., 1963/

где μi — вектор средних значений признаков для класса ωi. Весовые коэффициенты обеспечивают максимум критерия

где σ2у — дисперсия у(х), полагаемая одинаковой для обоих классов. Максимальное значение h2(w) носит название расстояния Махаланобиса между классами ω1 и ω2 и равно

Для определения величины порога wo вводят предположение о виде законов распределения объектов. Если объекты каждого класса имеют многомерное нормальное распределение с одинаковой ковариационной матрицей S и векторами средних значений μi, то пороговое значение wo, минимизирующее критерий Q, будет

Верно следующее утверждение об оптимальности ЛДФ: если объекты из ωi(i=l,2) распределены согласно многомерному нормальному закону с одинаковой ковариационной матрицей, то решающее правило w'x>w0, параметры которого определены, является наилучшим в смысле критерия средней вероятности ошибочной классификации.

Для случая, когда число классов больше двух (К>2), обычно определяется К дискриминантных весовых векторов (направлений)

и пороговые величины

Объект х относится к классу ωi, если выполняется условие

где gj(x) = wj'/x—woj.

В формулы вычисления пороговых значений wo и woi входят величины априорных вероятностей Р(ωi). Априорная вероятность Р(ωi) соответствует доле объектов, относящихся к классу ωi в большой серии наблюдений, проводящейся в некоторых стационарных условиях. Обычно Р(ωi) неизвестны. Поэтому при решении практических задач, не меняя дискриминантных весовых векторов, эти значения задаются на основании субъективных оценок исследователя. Также нередко полагают эти значения равными или пропорциональными объемам обучающих выборок из рассматриваемых диагностических классов. Другой подход к определению параметров линейных дискриминантных функций использует в качестве критерия соотношение внутриклассовой дисперсии проекций объектов на направление у(х)=w'x с общей дисперсией проекций объединенной выборки. Обычно используются те же предположения, что и в предыдущем случае. А именно, классы ωi(i=l,K) представлены совокупностями нормально распределенных в р-мерном пространстве объектов с одинаковыми ковариационными матрицами S и векторами средних значений μi. Обозначим С — ковариационную матрицу объединенной совокупности объектов объема , a μ0 — вектор средних значений этой совокупности. Выражение С через S и дается следующей формулой:

Дисперсия проекций всей совокупности объектов на направление у(х) составит c2у=w'Cw, а внутриклассовая дисперсия будет S2y=w'Sw. Таким образом, критерий оптимальности выбранного направления у(х) для разделения классов ωi запишется в следующем виде:

Это отношение показывает, во сколько раз суммарная дисперсия, которая обусловлена как внутриклассовым разбросом, так и различиями между классами, больше дисперсии, обусловленной только внутриклассовым разбросом. Весовой вектор w, удовлетворяющий данному уравнению, исходя из рассмотренной ранее геометрической интерпретации линейной диагностической модели, задает новую координатную ось в р-мерном пространстве y(x)=w'x (||w||=1) с максимальной неоднородностью исследуемой совокупности объектов. Новой переменной у(х)=w'x соответствует, no-существу, первая главная компонента объединенной совокупности объектов, полученная с учетом дополнительной обучающей информации о принадлежности объектов диагностическим классам ωi. Весовой вектор w, при котором достигается максимальное значение критерия оптимальности выбранного направления, определяется в результате решения обобщенной задачи на собственные значения

Всего существует р собственных векторов, удовлетворяющих приведенному уравнению. Эти векторы упорядочивают по величине собственных чисел l1>l2>...>lp и получают систему ортогональных канонических направлений w1, ..., wp.

Минимальное значение отношения

равно 1 и означает, что для выбранного направления w весь имеющийся разброс переменной у(х) объясняется только внутриклассовым разбросом и не несет никакой информации о различии между классами ωi. Для случая К=2 оценка весового дискриминантного вектора wF=S-112) является собственным вектором для (C-1S)w=0 с собственным числом lF=T2+1. Любой вектор, ортогональный wF, будет также решением (C-1S)w=0 с собственным значением равным единице. Поэтому для ответа на вопрос, какое число n<р канонических направлений необходимо учесть при К>2, чтобы не потерять информацию о межклассовых различиях, проверяют гипотезу Hо о равенстве единице послед­них р-n собственных чисел. Процедура такой проверки изложена, например, в /Енюков И. С., 1986/. Там же достаточно подробно для практического применения рассматриваются неко­торые другие аспекты дискриминантного анализа.

Рассмотренные выше методы определения дискриминантных весовых векторов приводят к оптимальным результатам при со­блюдении достаточно жестких условий нормальности распределений объектов внутри классов и равенства ко­вариационных матриц Si. В практике психодиагностических исследований эти условия, как правило. не выполняются. Но отклонения реальных распределений объектов от нормального и различия ковариационных матриц, которые в отдельных случаях хорошо теоретически изучены, не являются главными причинами ограниченного применения классических формул дискриминантного анализа. Здесь, как и при построении регрессионных психодиагностических моделей, качественный и дихотомический характер признаков, их большое количество и наличие групп связанных признаков обусловливают применение «грубых» алгоритмов нахождения дискриминантных функций. Данные алгоритмы также в основном сводятся к отбору информативных признаков с помощью эвристических процедур k — лучших признаков и последовательного увеличения и уменьшения группы признаков. Отличие указанных процедур заключается в иных критериях оптимальности признаков, чем при построении регрессионных моделей. Такие критерии в дискриминантном анализе формулируются относительно средней вероятности ошибочной классификации и часто мерой информативности признака при его добавлении в группу признаков или исключения из группы, не зависящей от объема группы, служит /Енюков И. С., 1986/

где Т2 — расстояние Махаланобиса между двумя диагностируемыми классами ω1 и ω2; с-1=N1-1+N2-1, В целом можно заключить, что для двух классов методы дискриминантного анализа во многом аналогичны методам регрессионного анализа. Расширением по отношению к регрессионной схеме в дискриминантном анализе служит представление о разделяющих границах диагностируемых классов, которое может приводить к более изощренным формам этих границ и процедурам их нахождения.

Типологический подход

Публикации, посвященные типологическому подходу, обычно рассматривают его в рамках психопрогностики (например, Ямпольский Л. Т., 1986; Кулагин Б. В. и др., 1989). Известна точка зрения, которая разделяет психопрогностику и психодиагностику /Забродин Ю. М., 1984/. В то же время с позиции формального математического аппарата психопрогностика и психодиагностика имеют много общего. И в том и в другом случае испытуемый описывается набором чисел (р-мерным вектором признаков), точно так же каждому испытуемому ставится в соответствие значение некоторого критериального показателя z, и задача состоит в том, чтобы построить математическую модель, имеющую максимальную корреляцию с z или дискриминирующую испытуемых подобно z. Конечно, чем продолжительнее временной интервал, на который распространяется прогноз, тем с более серьезными трудностями сталкивается исследователь при определении критериального показателя и тем сложнее может оказаться структура модели у=у(х). Но, так или иначе, в данном изложении не будет проводиться граница между понятиями психопрогностики и психодиагностики, а внимание будет сконцентрировано большей частью на феноменологии процедуры обработки экспериментальных данных, получившей название типологического подхода.

Целесообразность применения типологического подхода обусловлена недостаточной эффективностью линейных диагностических моделей. Так, Л. Т. Ямпольский /1986/ отмечает, что это простейший способ интеграции индивидуальных факторов в реальное поведение и что психологические факторы (исходные признаки в диагностической модели. — В. Д.) могут взаимодействовать более сложным образом. В /Кулагин Б. В. и др., 1989/ рассматриваются проблемы построения диагностических моделей в целях профотбора и указывается, что, как правило, совокупность обследуемых кандидатов идеализированно считается однородной выборкой из некоторой генеральной совокупности и модель прогнозирования успешности профессиональной деятельности оказывается усредненной для всех испытуемых, включенных в обследование. Это приводит к снижению доли совпадения прогноза с реальной профессиональной успешностью, которая в данном случае практически никогда не превышает 70-80%. Далее рассуждения приведенных выше авторов хотя и несколько различаются, но приводят к одинаковым выводам. Эти рассуждения примерно таковы.

В условиях неоднородности обучающей выборки линейные диагностические модели должны смениться нелинейными. Однако решение задачи построения нелинейных моделей затруднено из-за отсутствия априорных сведений о виде искомых функций у=у(х). В таких случаях эффективный результат может быть достигнут с помощью методов кусочно-линейной аппроксимации у=у(х). В свою очередь, успешность кусочно-линейной аппроксимации зависит от того, насколько хорошо удается разбить испытуемых на однородные группы, для каждой из которых в отдельности строится собственная линейная диагностическая модель. Это можно рассматривать как индивидуализацию диагностического правила, которая заключается в выборе одной из нескольких функций у=у(х) для каждого испытуемого с учетом его принадлежности той или иной группе.

Таким образом, процедура построения диагностической модели состоит из двух этапов. На первом этапе производится разбиение всего множества испытуемых X={хi}, i=1,N на М однородных групп Gj(X=UGj)j= 1,M На втором этапе для каждой группы Gj вырабатывается линейное диагностическое правило yj=yj(х) с помощью рассмотренных выше методов линейного регрессионного или дискриминантного анализа. Соответственно процедура собственно диагностики также осуществляется в два приема. Сначала определяется принадлежность испытуемого хi к одной из ранее выделенных групп Gj и затем для диагностики хi применяется требуемая диагностическая модель yj=yj(х).

«Слабое звено» данного подхода заключается в трудно формализуемом и нечетком определении понятия однородности группы объектов. Как известно, задаче разбиения объектов на однородные группы уделяется значительное место в общей проблематике анализа данных. Методы решения этой задачи носят разные названия: автоматическая классификация, распознавание без учителя, таксономия, кластерный анализ, расщепление смеси и т. д., но имеют одинаковую сущность. Все они в явной или неявной форме опираются на категорию близости (различия) объектов в пространстве признаков. Для решения задачи выделения однородных групп объектов исследования необходимо дать ответы на три основных вопроса:

а) какие признаки будут считаться существенными для описания объектов?

б) какая мера будет применяться для измерения близости объектов в пространстве признаков?

в) какой будет выбран критерий качества разбиения объектов на однородные группы?

На каждый из приведенных вопросов существует много вариантов ответов, и в зависимости от выбранного ответа можно получить совершенно различные разбиения объектов на однородные группы. Поэтому решение конкретной задачи выделения однородных групп объектов всегда не лишено субъективной оценки исследователя. В следующей главе будут более подробно рассмотрены возможные алгоритмы разбиения множества объектов на группы в рамках общей проблемы анализа многомерной структуры экспериментальных данных. Здесь же ограничимся рекомендациями, изложенными в /Ямпольский Л. Т., 1986; Кулагин Б. В. и др., 1989/, полезность которых подтверждена значимыми практическими результатами.

В работе /Кулагин Б. В. и др., 1989/ рекомендуется для группирования испытуемых отбирать признаки, хорошо дискриминирующие массив исходных данных и слабо коррелирующие между собой. Кроме того, набор этих признаков должен быть минимизирован. Л. Т. Ямпольский /1986/ предлагает выделять группировки объектов в пространстве общих факторов, полученных методами факторного анализа исходного пространства признаков. И в той и в другой работе важное, если не решающее, значение придается психологическому осмыслению выделяемых группировок испытуемых. Возможность четкой интерпретации полученных группировок как определенных психологических типов служит достаточно веским доводом в пользу не случайного разбиения испытуемых на группы, которое могло бы произойти под действием какого-либо иррелевантного решаемой диагностической задаче фактора (отсюда, собственно, и проистекает название «типологический подход»).

Оценка качества диагностической модели, полученной в результате применения типологического подхода, обычно осуществляется путем сравнения с обычной линейной диагностической моделью, построенной без разделения объектов обучающей выборки на группы. Например, используется следующий показатель

где σ20 — остаточная дисперсия обычной линейной регрессионной модели, а σ2T вычисляется по формуле

Здесь σ2j — остаточная дисперсия регрессионной диагностической модели уj= уj(х) для группировки Gj, определяемая из выражения

где N — общее количество испытуемых;
Nj — число испытуемых в группировке Gj;
М — число группировок.

Также для проверки гипотезы об идентичности обычной линейной регрессионной модели и набора регрессионных уравнений уj=yj(х) может быть использован F-критерий Фишера /Елисеева И. И. и др., 1977/

Эффективность типологического подхода по сугубо формальным соображениям не может быть ниже эффективности обычной линейной диагностической модели, которую можно рассматривать как вырожденный случай кусочно-линейной модели. В то же время кроме практического выигрыша типологический подход имеет определенную теоретическую ценность — он раскрывает взаимосвязь диагностики психологических черт, как группировок признаков, и психологических типов, как группировок испытуемых. Идеалом типологического подхода, замечает Б. В. Кулагин /1984/, является разработка такого метода, который позволит для каждой отдельной индивидуальности выбирать оптимальную диагностическую модель.

««« Назад  Начало  

Канал в Telegram: @PsyfactorOrg
 
.
   

© Copyright by Psyfactor 2001-2017.
© Полное или частичное использование материалов сайта допускается при наличии активной ссылки на Psyfactor.org. Использование материалов в off-line изданиях возможно только с разрешения администрации.
Контакты | Реклама на сайте | Статистика | Вход для авторов