Студопедия
Случайная страница | ТОМ-1 | ТОМ-2 | ТОМ-3
АвтомобилиАстрономияБиологияГеографияДом и садДругие языкиДругоеИнформатика
ИсторияКультураЛитератураЛогикаМатематикаМедицинаМеталлургияМеханика
ОбразованиеОхрана трудаПедагогикаПолитикаПравоПсихологияРелигияРиторика
СоциологияСпортСтроительствоТехнологияТуризмФизикаФилософияФинансы
ХимияЧерчениеЭкологияЭкономикаЭлектроника

Обобщение моделей структурных уравнений с латентной переменной и общеизвестные истины измерения

Читайте также:
  1. II. ОПИСАНИЕ УСТАНОВКИ И МЕТОДА ИЗМЕРЕНИЯ
  2. А человеческая деятельность характеризуется исторически сложившейся программой, т.е. обобщением опыта предшествующих поколений.
  3. Активность и единицы ее измерения. Удельная, объемная и поверхностная активность.
  4. Алгоритм измерения артериального давления
  5. Алгоритм измерения диагональной коньюгаты.
  6. Балансовое обобщение учетной информации
  7. Введение в макроэкономику. Макроэкономические показатели. Методы измерения макровеличин

В недавней фундаментальной работе К.Боллена [96 ] представле­ния о самостоятельном значении теоретически обоснованных моде­лей измерения были использованы для успешной попытки синтеза и обобщения подходов и методов, применяемых в психометрике, эко­нометрике и социальных науках при описании и анализе отношений между теоретическими и эмпирическими переменными. К моделям структурных уравнений (structural equation models, т.е.. моделям, состоящим из структурных уравнений) относятся и регрессионные, и эконометрические, и факторно-аналитические процедуры. Таким образом, и модели со множественными индикаторами, и модели путевого анализа, и факторные модели с латентными переменными могут быть включены в общий класс структурных моделей с латентными (или ненаблюдаемыми) переменными. Система структурных уравнений, задающих модель, в этом общем случае состоит из двух подсистем: модели латентных переменных, описывающей отношения ненаблюдаемых (неизмеряемых) одномерных конструктов, и модели измерения [96. Р. 11]. Таким образом, предложенное обобщение понятия структурной модели в явной, эксплицитной форме включает модель измерения в проверяемую теоретическую модель. Полная теоретическая модель описывает отношения между зависимыми и независимыми переменными и допускает наличие ошибок измерения и в первых, и во вторых.

Демонстрацией продуктивности этого подхода стал систематиче­ский критический пересмотр ряда "общеизвестных истин" классиче­ской теории тестов, результаты которого изложены, в частности, в работе К.Боллена и Р.Леннокса [97 ]. Так как к теме эффективности моделирующего подхода к измерению для пересмотра ряда некрити­чески принимаемых положений традиционной психометрики мы уже неоднократно обращались (например, при описании многоиндика­торного подхода к конструктной валидности), мы ограничимся лишь описанием некоторых новых результатов, полученных Болленом и Ленноксом. Эти результаты интересны для нас, прежде всего, как еще одна иллюстрация тех радикальных изменений, которые были инициированы возникновением моделирующего подхода к измере­нию. Боллен и Леннокс поставили своей целью проверить, насколько обоснованны обычные рекомендации, касающиеся отбора индикато­ров (чаще всего - тестов или анкетных вопросов) и используемые исследователями в повседневной практике. Эту проверку они осуще­ствили для двух общих моделей измерения. Первая из них - класси­ческая модель теории тестов и факторного анализа, где индикаторы



(пункты теста, вопросы) зависят от латентной переменной. Эту модель, вслед за Х.Блейлоком, часто называют моделью измерения с эффект-индикаторами, т.е. индикаторами-следствиями латентной переменной. Для этой модели принимаются все обычные предположения теории тестов, в том числе и предположение о том, что истинные значения латентной переменной определяют значения ее индикаторов. Так как латентная переменная - это чаще всего некоторый теоретический конструкт, то примерами этой общей модели могут служить и многочисленные "черты личности" (от тревожности до макиавеллизма), и способности (например, невер­бальный интеллект), и диспозиции (политическая активность).

Вторая рассматривавшаяся Болленом и Ленноксом общая модель - это модель с причинными индикаторами. Мы уже обращались к примерам причинных индикаторов латентных переменных. В каче­стве причинных индикаторов используются, например, многие кате­гориальные переменные, описывающие "жизненный путь" респон­дентов, например, образование или доход родителей (другие приме­ры можно найти на с.104-110 данной работы). Разумеется, причин­ными индикаторами они становятся лишь в том случае, если иссле­дователь предполагает, что эти переменные детерминируют значе­ние латентной переменной. Например, социолог может считать, что продолжительность обучения и доход определяют социальный статус (не вкладывая при этом в понятия "определяют" или "служит причиной" буквального физического смысла). Другими примерами могут служить "лишение пищи" как причинный индикатор "голода", "психологическая травма" как причинный индикатор "стресса" и т.п. Не входя в технические подробности (многие из которых, к тому же, обсуждались нами раньше), отметим, что даже простейшая модель латентной переменной с несколькими причинными индика­торами (последние еще называют "формативными") будет очевид­ным образом отличаться от предыдущей. Например, возрастание значения латентной переменной не обязательно будет сопряжено с возрастанием значений всех ее индикаторов.

Одним из фундаментальных понятий теории тестов является понятие внутренней согласованности пунктов теста или батареи вопросов, предназначенных для измерения одной латентной пере­менной. Это понятие составляет основу для оценки надежности-согласованности, или одномоментной надежности (см., в частности, с.61-64 данной работы), и для применения факторного анализа. Внутренняя согласованность подразумевает положительную корре­ляцию индикаторов одной переменной (разумеется, при условии, что все пункты-индикаторы сформулированы в одном направлении). Обычно рекомендуется исключать индикаторы, имеющие нулевую или отрицательную корреляцию с остальными. Обоснованность кри­терия внутренней согласованности для первой модели - с эффект-индикаторами латентной переменной - не вызывает никаких сомне­ний. При условии стандартизации латентной и наблюдаемых пере­менных, корреляция между индикаторами будет равна произведе­нию их корреляций с истинным баллом. Если корреляция индика-


торов с истинным баллом положительна, то и их корреляции друг с другом также должны быть положительны.

Совсем иной будет ситуация для второй модели с причинными индикаторами латентной переменной, так как сама модель не нала­гает никаких ограничений на попарные корреляции между индика­торами: они могут быть положительными, отрицательными или нулевыми. Скажем, связь между образованием и доходом как инди­каторами статуса в некоторых обществах может быть нулевой или отрицательной. Столь же трудно определить заранее направление и величину связи между различными причинными индикаторами стресса, например, потерей работы, смертью супруга и болезнью. Исследователь, использующий рутинные процедуры поиска макси­мальных значений в матрице корреляций, рискует пропустить самые информативные индикаторы. Таким образом, некритичное исполь­зование критерия внутренней согласованности может вести к совер­шенно ошибочным выводам.

Другим распространенным методологическим "рецептом" (не всегда, кстати, согласующимся с критерием внутренней согласован­ности) является оптимальная корреляция индикаторов. Аргумен­том в этом случае обычно является необходимость обеспечить гене-рализуемость и валидность выводов, что невозможно для чрезмерно, специфичного и узкого набора высококоррелированных индикаторов.

Однако анализ двух вышеописанных элементарных моделей ста­вит под сомнение и эту рекомендацию. Для модели с эффект-инди­каторами латентной переменной предпочтительной все же является высокая корреляция индикаторов. Если же у исследователя есть основания предположить наличие скоррелированных ошибок изме­рения между индикаторами, то он не имеет никаких оснований предпочитать индикаторы с умеренной корреляцией, так как един­ственный способ справиться с этой проблемой - это специфицировать предполагаемую модель измерения и внести следующие из нее поправки в процедуру отбора индикаторов.

В случае же модели с причинными индикаторами, как уже говорилось, величины корреляций между индикаторами никак не ограничиваются самой моделью и определяются лежащими вне модели (экзогенными) факторами. Конечно, высокие корреляции между причинными индикаторами затрудняют оценку воздействия каждого из них на латентную переменную (проблема мультиколли-неарности), и в этой ситуации низкие корреляции предпочтительнее. Однако никаких общих рекомендаций для причинных индикаторов сделать нельзя, так как оптимальное значение корреляций между индикаторами будет определяться лишь конкретной моделью изме­рения.

При выборе индикаторов одномерного теоретического конструкта часто рекомендуется выбирать индикаторы, представляющие все аспекты ("фасеты") этого конструкта, т.е. латентной переменной (ср. с.37). Боллен и Леннокс, рассмотрев две описанные элементар­ные модели, пришли к следующему выводу: "В общем итоге, реко­мендация делать выборку индикаторов для всех граней конструкта


 




может вводить в заблуждение. Для эффект-индикаторов одномерного конструкта равно надежные индикаторы в сущности взаимозаменя­емы. Если же многогранность означает многомерность, то каждое измерение (dimension) должно рассматриваться отдельно, на осно­вании своего собственного множества эффект-индикаторов. В случае же причинных индикаторов, исключение какого-то индикатора ме­няет саму латентную переменную, ее состав (и интерпретацию), и, за несколькими исключениями, важно включить каждый причинный индикатор" [97. Р.308 ]. Таким образом, стремление к максимальной представленности всех аспектов одномерного конструкта обоснован­но лишь при выборе причинных индикаторов и не имеет никакого смысла в случае эффект-индикаторов. Другие интересные результа­ты, полученные Болленом и Ленноксом при анализе общих моделей измерения с латентной переменной, мы лишь кратко суммируем, так как их изложение здесь потребовало бы привлечения достаточно специальных деталей. Первый из этих результатов относится к часто используемому правилу сравнения внутриконструктной и межкон-структной корреляции индикаторов. Суть этого правила кажется интуитивно ясной: корреляция между индикаторами одной латент­ной переменной-конструкта (например, между пунктами одного теста) должна быть выше, чем корреляция между индикаторами разных конструктов. В действительности, данное правило может вести к ошибкам независимо от типа индикаторов. Этот вывод может быть получен приблизительно тем же способом, который был исполь­зован при критике "М-М"-матриц Кэмпбелла-Фиске с позиций моделирующего подхода (см. с.82-86 данной работы).

Другой распространенной практикой является использование суммарного балла в качестве латентной переменной. Арифметиче­ская сумма значений индикаторов (или линейный сводный показа­тель) часто подставляется в качестве латентной переменной в регрессионном, дисперсионном анализе и т.п. И в этом случае обоснованность такой практики зависит от того, какого типа инди­каторы используются и какова модель измерения. Так, при исполь­зовании суммарного балла в качестве независимой переменной в регрессионной модели получаемые оценки коэффициентов могут оказываться смещенными [97. Р.309-310] (см. также: [96. Ch.5]). Использование процедуры взвешивания может несколько улучшить ситуацию.

Таким образом, уже только учет направления связи между латентным конструктом и индикатором в самых общих моделях измерения позволяет критически отнестись ко многим правилам отбора индикаторов и оценки шкал и тестов.

Разумеется, рассмотренные Болленом и Ленноксом модели изме­рения существенно упрощены: ошибки измерения в них не скорре-лированы, а между латентными переменными и индикаторами су­ществует взаимнооднозначное соответствие. Кроме того, элементар­ная модель с причинными индикаторами латентной переменной слишком проблематична и с содержательной - как интерпретировать, не вводя дополнительных факторов, латентную переменную, явля-

ющуюся следствием наблюдаемых показателей? - и со статистиче­ской точек зрения. В уже упомянутой фундаментальной работе Боллена [96 ] доказывается, что способом интерпретации и статисти­ческой идентификации модели измерения с причинными индикато­рами является ее включение в более широкую теоретическую мо­дель, где присутствуют и эффекты самой латентной переменной.

Мы можем лишь согласиться с выводом, к которому приходят Боллен и Леннокс: использование самих по себе структурных моде­лей измерения еще не ведет к правильному выбору индикаторов, однако формальная спецификация модели измерения - единственное средство понять, какие из общепринятых правил измерения подходят в данном случае [97. Р.312].

 

2. Г£ГЯАО-методология и процедуры автоматического поиска моделей

Успехи когнитивной науки и статистического моделирования, подкрепленные достижениями компьютерной революции, сделали осязаемой перспективу создания нормативной теории научного от­крытия и алгоритмических процедур, обеспечивающих поиск объяс­нительных моделей для эмпирических данных, полученных неэкс­периментальным путем. Такая перспектива вновь оживила надежды на построение строгого метода научного вывода для "нестрогих" и неэкспериментальных наук. Книга К.Глаймура, Р.Шейниса, П.Спиртеса и К.Келли [135] стала первой попыткой создать ком­пьютерные процедуры научного открытия в социологии на основе определенной методологии, которая воплотилась в нормативных критериях отбора и проверки причинных моделей, являющихся, пожалуй, самым популярным типом "мини-теорий" в общественных науках. Разработанные авторами методы и процедуры поиска при­чинного объяснения реализованы в компьютерной программе TETRAD и имеют довольно долгую и существенную для критической оценки Г/?Г7?АО-методологии предысторию. С краткого описания последней мы и начнем обсуждение возможностей и ограничений TETRAD-анализа.

С некоторой долей упрощения можно сказать, что вся история использования прикладной статистики в неэкспериментальных нау­ках сводится к попыткам заменить экспериментальный контроль статистическим, т.е. сделать возможным обоснованный причинный вывод, опирающийся на данные о частотных распределениях, там, где по практическим или этическим соображениям невозможен классический эксперимент с варьированием независимой перемен­ной, контролем иррелевантных факторов и измерением главного эффекта[41]. В основе идей регрессии и корреляции, выдвинутых Ф.Гальтоном и К.Пирсоном в XIX в., лежало стремление вы-


вести причину - генетическую наследственность - из ее статистиче­ских проявлений. У.Огберн, первым из социологов применивший частную корреляцию для анализа выборочных данных, также стре­мился выявить истинную причинную структуру, замаскированную смешивающими факторами [122. Р. 134-135].

Методы, используемые в TETRAD, как и эвристические принци­пы выбора наилучшей объяснительной модели, восходят к одной из наиболее ранних традиций в этой области, которая берет начало в работах английского психометриста Чарльза Спирмена, предложив­шего концепцию общего фактора интеллекта. Стремясь показать, что во всех тестах интеллекта наличествует общий причинный компонент, объясняющий корреляцию между ними, он открыл чрез­вычайно интересное соотношение. Во всех случаях, когда четыре измеряемые переменные х{, *2, х, х восходят к общему фактору, их корреляции будут удовлетворять следующим уравнениям:

(1.1.)

(1.2)

(1.3)

(Здесь и далее в подстрочных индексах из соображений простоты
оставлены лишь номера измеряемых переменных, т.е. вместо рxixj
стоит рij...)

Спирмену удалось показать, что предположение о наличии обще­го фактора вполне объясняет, почему эти ограничивающие условия, наложенные на значения корреляций, будут удовлетворяться в генеральной совокупности, однако, увлеченный идеей "единой ин­теллектуальной способности", детерминирующей все интеллекту­альные проявления человека, он не заметил, что эти ограничения -тетрадные уравнения, или тетрадные разности (от греч. гетрах -четыре) - будут выполняться и в некоторых других случаях, при­менительно к другим причинным моделям измерения (например, модели с двумя скоррелированными факторами[42]. Иначе говоря, Спирмен ошибался, полагая, что верен и обратный вывод: из выпол­нения тетрадных уравнений следует, что верна однофакторная мо­дель. Правда, столь незначительный "промах" нисколько не снижает значения того важнейшего и недооцененного вклада, который Спир­мен внес в понимание природы объяснения в неэкспериментальной науке. Глаймур и соавторы формулируют суть этого вклада следую­щим образом:"Ведущая методологическая идея Спирмена, ни разу не сформулированная им вполне отчетливо, видимо, заключалась в том, что наилучшим является такое объяснение, которое порождает ограничения, обнаруживаемые в мерах генеральной совокупно­сти, не предполагая при этом определенных значений параметров. Другими словами, он предпочитал те объяснения, которые являлись


бы робастными или упругими при изменениях в спецификации значений свободных параметров" [135. Р.236]. Применительно к, однофакторной модели это означало, что следующие из нее тетрад­ные разности должны быть нулевыми для генеральной совокупности вне зависимости от того, каковы конкретные значения "нагрузок" отдельных тестов по латентному фактору. Аналогичные рассуждения верны и для любого числа измеряемых переменных в модели общего фактора: если все корреляции между измеряемыми переменными действительно объясняются существованием общего латентного фактора, то все тетрадные уравнения должны выполняться незави­симо от значений линейных коэффициентов[43]. Как отмечают Глай­мур и его коллеги, Спирмен интересовался тетрадами потому, что видел' в них подтверждение своей психологической теории, но его последователей (Дж.Гарнетта, Т.Келлм и К.Холзингера) привлекла в спирменовской идее возможность разработать процедуры и крите­рии нахождения наилучшей линейной причинной модели, объясня­ющей данные. Дж.Гарнетт и Т.Келли смогли сформулировать про­блему нахождения таких ограничивающих условий для генеральной ковариационной матрицы, которые были бы необходимы и достаточ­ны, чтобы принять какую-то линейную причинную модель. При этом модель будет предполагать их выполнение для всех значений линей­ных коэффициентов, не налагая никаких иных независимых огра­ничений. В такой постановке эта проблема непосредственно связана с эвристическими поисковыми процедурами, используемыми в про­грамме TETRAD. Уже к началу 30-х годов проблема была решена для целого ряда важных частных случаев, однако вычислительные сложности при использовании моделей с большим числом измеряе­мых переменных препятствовали более быстрому прогрессу. Прекра­щение работы в этом направлении, на четверть века отсрочившее появление эвристических процедур "компьютерного открытия" и причинного анализа моделей измерения, было связано с блестящими успехами в области факторного анализа.

Выход терстоуновских "Векторов ума" (1935), содержавших эф­фективный и простой в вычислительном отношении алгоритм редук­ции данных, радикально изменил взгляды и интересы абсолютного большинства ученых, занимавшихся психометрикой и математиче­ской социологией, а также ведущие способы их исследовательской практики. Сейчас, когда критика бездумного использования эксплораторного факторного анализа в качестве волшебной машинки для обнаружения новых "латентных сущностей" становится общим ме­стом, трудно по достоинству оценить воздействие взглядов Л.Терстоуна на современников. Между тем этот гигант сделал для развития психометрики и психологии XX в. не меньше, чем его учитель Т.Эдисон для развития техники. Как мы уже отмечали выше, он придерживался определенной философии науки, согласно кото­рой основной целью науки является нахождение конструктов, мак­симально просто и экономно описывающих данные наблюдений.


Именно эта концепция стала методологической основой факторного анализа[44], и в этом смысле Терстоун действительно изобрел "почти магическую процедуру, с помощью которой можно было делать науку, открывать теории и двигать прогресс" [135. Р.242]. Спирме-новские тетрады Терстоун рассматривал как частный случай, не представляющий особого интереса: "Спирмен, посредственный мате­матик, грубый и агрессивный спорщик, человек, привязанный к одной теории и лишенный автоматического метода совершения открытий, имел мало шансов в сравнении с Терстоуном" [135.

Р.242].

Эффективность факторного анализа тесно связана с жесткостью постулируемой им причинной модели измерения. В отличие от ана­лиза вытекающих из гипотетической модели ограничений на корре­ляционную матрицу, который практиковали Спирмен и его последо­ватели, факторный анализ "отбрасывает" возможность прямого при­чинного влияния измеряемых переменных друг на друга либо латен­тную переменную. Более того, психометрические представления той эпохи (разделявшиеся, впрочем, и Спирменом) исключали возмож­ность причинного влияния латентных черт друг на друга, которая теоретически допускалась формальной моделью факторного ана­лиза. Глаймур и соавторы вполне обоснованно, на наш взгляд, свя­зывают этот факт с верой в генетическую предопределенность спо­собностей и личностных черт и укоренившейся со времен Гальтона и Пирсона ориентацией на биологические редукционистские мо­дели.

Таким образом, впервые высказанная Спирменом идея оценивать объяснительный потенциал линейных причинных моделей, исходя из их способности накладывать структурные ограничения на ковариа­ционную матрицу (вне зависимости от значений линейных коэффи­циентов в этих моделях), была надолго забыта. Глаймур, крупный специалист в области истории и философии науки, ссылаясь на свои более ранние работы[45], и в особенности на анализируемые примеры из истории естественных наук [134], приравнивает открытие Спирменом структурной взаимосвязи между статистическими моделями и причинными процессами, порождающими наблюдаемые значения, к коперниканскому перевороту в методологии социальных наук. Тер­стоун же, для которого способом выполнения ограничений на выбо­рочную матрицу ковариаций было нахождение линейных коэффици­ентов (т.е. факторных нагрузок), оказывается "Птолемеем статисти­ческого моделирования", провозгласившим главным критерием оцен­ки научной модели возможность упрощенного описания данных [135.Р.242].

Следующий ключевой персонаж в истории разработки компью­терных процедур, обеспечивающих поиск линейных причинных моделей объяснения для неэкспериментальных данных, - известный


американский ученый Герберт А.Саймон. Величина его вклада в развитие методов "компьютерного открытия" в социологии вполне соответствует многообразию его исследовательских интересов - ис­кусственный интеллект, методология науки, причинное моделирова­ние, экономика, когнитивная психология, прикладная статистика -и в значительной мере обусловлена этим многообразием. Прежде всего Саймон одним из первых применил структурные уравнения, использовавшиеся в эконометрике, для причинной интерпретации социологических моделей. Он поставил проблему вывода каузальных утверждений из статистических данных о корреляциях на основе отношений идентифицируемости переменных, возродив идеи Спирмена. Помимо этого, Саймон, начиная со второй половины 50-х годов, активно участвовал в самых значительных исследовательских программах по моделированию интеллектуальной деятельности че­ловека. Одна из первых работ в этой области - созданная А.Ньюэллом, Дж.Шоу и Саймоном программа "машина Логик-теоретик", -приобрела очень широкую известность, так как смогла воспроизвести большую честь результатов из "PrinciPia mathematica" Б.Рассела и А.Уайтхеда. В 1987 г. Саймон, совместно с П.Лэнгли, Г.Брэдшоу и Дж.Житкоу, опубликовал весьма впечатляющие результаты много­летней работы по моделированию процессов научного открытия средствами искусственного интеллекта [159]. Системы искусствен­ного интеллекта и программы для ЭВМ (семейство программ BACON, GLOUBER и др.) не только способны находить количественные законы, описывающие "поведение" физических или химических переменных, но и позволяют вводить новые теоретические концепты, фиксирующие качественную сторону процессов. Однако влияние этих разработок на создание программы TETRAD едва ли можно считать непосредственным, так как последняя основана на иных эвристических принципах. Куда более существенно влияние методо­логических взглядов Саймона и его философии науки, близкой к идеям логического позитивизма, но лишенной таких его недостатков, как крайний эмпиризм и феноменализм. Наиболее полное философ­ское обоснование вычислительного подхода к нормативной теории научного открытия дано Саймоном в книге "Модели открытия" (1977). Здесь он остро критикует К.Поппера, отстаивавшего интуи-тивистскую трактовку научного творчества и полагавшего, вслед за большинством философов науки, что попытки сконструировать нор­мативную теорию научного открытия, сопоставимую с нормативной теорией процессов проверки научных гипотез, абсолютно бес­смысленны, так как реконструировать процессы вдохновения и озарения - задача психологии, а не логики науки[46]


Аргументы Саймона весьма убедительны, если, конечно, принять его определение науки и научного открытия. Под логикой науки здесь понимается совокупность нормативных стандартов для сравнительной оценки процессов (действий), используемых в ходе открытия или про­верки теорий. Эта совокупность может рассматриваться как логика, поскольку сами нормы выводимы из целей научной деятельности, Та­кая расширительная трактовка позволяет проводить логический ана­лиз любого целенаправленного поведения (в том числе процессов ре­шения задач), которое всегда может быть описано и, следовательно - по крайней мере потенциально, - допускает формализацию в виде машинной программы. Если познавательные процессы могут быть представлены в качестве процессов вычислений, организованных как системы продукции[47], то нормативная теория (логика) научного от­крытия может быть формализована как совокупность критериев оцен­ки, используемых человеком в процессе обнаружения законов [216. Р.328-332 ]. Такие "логики" не гарантируют, что открытие состоится, они носят эвристический характер, т.е. позволяют с высокой степенью вероятности получить решение задачи или несколько решений, среди которых находится верное. С точки зрения Саймона, разделяемое многими философами предубеждение против попыток построить нор­мативную теорию открытия основано на уверенности, что любая ло­гика открытия столкнется с проблемой индукции. Однако проблема индуктивного вывода и предсказания в действительности лежит не в области теории научного открытия, а в области теории проверки и подтверждения: "Отделив выявление закономерностей от предсказа­ния, мы можем создать истинную нормативную теорию научного от­крытия - логику открытия" [216. Р.335].

Как уже говорилось, в социологии причинный анализ статисти­ческих данных приобрел популярность в 1960-е годы, прежде всего благодаря работам Х.Блейлока. В книге "Причинный вывод в неэк­спериментальных исследованиях" (1961) он продемонстрировал воз­можности статистического моделирования и причинного анализа в проверке сложных социологических гипотез, опираясь, в частности, на некоторые идеи Саймона. Блейлок фактически заново изобрел процедуру анализа ограничений, накладываемых линейной моделью на ковариационную матрицу. Модели, рассматривавшиеся им в первых работах, обычно отличались от моделей, изучавшихся в психометрике и эконометрике. Они не содержали общего фактора, поэтому ограничения накладывались на частные корреляции (этот тип моделей соответствует типу причинной связи с промежуточной переменной). Полное "возрождение" спирменовских идей в социоло­гии произошло в конце 60-х годов, после публикации статьи Г.Кос-тнера [113]. В главе II данной работы было показано, как, руковод­ствуясь предложенным Блейлоком причинным подходом к анализу ошибки измерения, Костнер показал, что тетрадные уравнения могут использоваться в качестве критерия согласованности для простейших


причинных моделей с двумя скоррелированными неизмеряемыми переменными и четырьмя или шестью индикаторами (напомним, что в статье, опубликованной в том же номере журнала, Блейлок доказал, что эти критерии пригодны для любых рекурсивных моде­лей с несколькими индикаторами латентных переменных). Идеи, лежащие в основе эмпирического контроля причинной модели изме­рения, который осуществляется посредством анализа вытекающих из модели структурных ограничений на корреляции (ковариации) наблюдаемых переменных, и составили фундамент многоиндикатор­ного подхода к оценке качества измерения (см. главу II данной книги). Еще одним важным шагом в расширении возможностей причинного анализа в социологии стало распространение методов путевого анализа на нерекурсивные модели с петлями обратной связи между переменными.

Компьютерная революция, ощутимо затронувшая социологию в конце 60-х - начале 70-х годов, упростила решение рутинных вычислительных проблем статистического моделирования. С появ­лением программ типа LISREL и EQS наметилась тенденция исполь­зовать ЭВМ не только для вычислений при оценке параметров или проверке гипотез, но и для активного поиска возможных модифика­ций предварительно заданной модели. Однако эти программы осу­ществляли лишь узкий, направленный поиск альтернативных при­чинных моделей и, кроме того, были основаны на "неспирменовской" стратегии пересмотра исходной модели.

TETRAD - первая попытка синтезировать спирменовский метод поиска наилучшего причинного объяснения для неэкспериментальных данных, неопозитивистские представления Саймона о норматив­ной теории научного открытия, моделирующий подход к социологи­ческому измерению и самые современные разработки в области искусственного интеллекта.

Проблема, стоявшая перед создателями программы TETRAD, заключалась в том, чтобы найти общий алгоритм для быстрого вычисления тетрадных уравнений (либо других ограничений, робастно предполагаемых любой линейной причинной моделью) и срав­нения этих ограничений с теми, которые приблизительно удовлет­воряются в выборочной ковариационной матрице, т.е. в данных. Такой алгоритм, будучи реализованным в компьютерной программе, позволил бы социологу вести эвристический поиск среди сколь угодно большого числа линейных причинных моделей, не ограничиваясь сравнением объяснительного потенциала двух или трех моделей, оказавшихся в поле его зрения. Удалось ли решить эту задачу?

Программа TETRAD - это "интеллектуальный партнер" исследо­вателя в построении модельных структур, описывающих поведение переменных, в проверке правильности спецификации модели и, в сущности, в обосновании причинного вывода в эмпирическом социо­логическом исследовании. Программа может быть использована лишь для определенных типов линейных причинных моделей, однако это подмножество моделей репрезентирует весьма типичные для социологии структурные гипотезы. TETRAD на основании выбороч-


ных данных и задаваемой исследователем базовой (скелетной) мо­дели позволяет получить такие ее модификации, которые наилуч­шим образом соответствуют данным с точки зрения определенных принципов. Последние и являются критериями оценки линейных моделей, т.е., по Саймону, составляют некоторую частную норма­тивную теорию открытия. К принципам, по которым производится отбор наилучшей модели (или наилучшего дополнения исходной модели), относятся принцип Спирмена, принцип Терстоуна и игра­ющий вспомогательную роль принцип простоты. Первый подразу­мевает, что предпочтительной при прочих равных является та модель, которая влечет имеющие место в генеральной совокупности ограничения для всех значений своих свободных параметров. Соглас­но второму, из модели не должны следовать ограничения, не выпол­няющиеся в выборочных данных[48]. Интуитивно ясный третий прин­цип довольно трудно поддается формализации. Авторы TETRAD интерпретируют его следующим образом: более простой является причинная модель, содержащая меньшее число связей [135. Р.94-95 ]. Применение упомянутых принципов ведет к разным альтерна­тивам. Принцип Спирмена определяет выбор более простых моделей, из которых следует большее число ограничений. Добавление же ребра или скоррелированной ошибки в ориентированный граф, пред­ставляющий причинную модель[49], уменьшает число таких ограниче­ний и, стало быть, увеличивает вероятность ситуации, когда огра­ничения, выполняющиеся в данных, не "схвачены" объяснительной моделью. Принцип Терстоуна диктует выбор более сложных моде­лей, поскольку увеличение числа связей в модели (т.е. добавление ориентированных ребер или скоррелированных ошибок) опять-таки уменьшает число подразумеваемых моделью ограничений и делает маловероятной ситуацию избыточной "строгости" модели в отноше­нии структуры данных.

Так как любые ограничивающие условия точно выполняются в конечной выборке лишь в редких случаях, минимизация числа ограничений, предполагаемых моделью, будет способствовать соблю­дению принципа Терстоуна. Что касается принципа простоты, то это своеобразное средство "оккамизации" объяснительной модели. В отсутствие каких-либо безусловных преимуществ из нескольких моделей будет выбрана та, которая содержит наименьшее количество путей причинного влияния. Модифицируя модель, пользователь получает информацию о том, как этот процесс влияет на соблюдение принципов Спирмена и Терстоуна. При этом он решает, какой "вес" следует приписать каждому из этих принципов.


При работе с программой TETRAD необходимо ввести выбороч­ную корреляционную (ковариационную) матрицу и исходную "ске­летную" модель[50], а также задать уровень значимости.чтобы прове­рить, выполняются ли ограничения в выборочных данных. TETRAD предлагает множество переработок исходной модели и таблицу, из которой видно, как каждое предлагаемое дополнение влияет на соблюдение принципов Спирмена и Терстоуна. Исследователь может выбрать оптимальное с точки зрения этих принципов дополнение и снова запустить программу для дополненной модели. Таким образом, дерево поиска решения в TETRAD начинается с самой простой причинной модели, а все более сложные "дочерние" модели прове­ряются на каждом последующем этапе. Первичные показатели, определяемые TETRAD, включают: 1) число ограничений, предпо­лагаемых исходной моделью (I), 2) число ограничений, предполага­емых выборочными данными на данном уровне значимости (Н), 3) число ограничений, следующих из модели, но не выполняющихся в выборочных данных (I — Н), 4) соответствующее число ограниче­ний, имеющих место для выборочных данных, но не предполагаемых моделью I). При сравнении исходной модели с дополненными основной мерой соблюдения принципа Спирмена является увеличение числа уравнений, которые выполняются в данных, но не следуют из модели. Лучшей считается модель с наименьшим значением этой величины / (Н — /). Для того, чтобы определить, насколько каждая из переработок исходной модели способствует соблюдению принципа Терстоуна, используются два показателя - уменьшение числа пред­полагаемых моделью ограничений, не выполняющихся в данных D (/ — Я), и уменьшение "остатков" тетрадных разностей в выборке (TTR), Программа содержит также грубую меру для оценки соот­ветствия модели (индекс Бентлера-Бонетта), используемую для принятия решения о прекращении поиска, если при дальнейших модификациях модели соответствие не улучшается.

Число ограничений, которые в принципе могут следовать из линейных причинных моделей, очень велико. В программе TETRAD анализируются лишь два типа таких ограничений: уже упоминавшиеся тетрадные разности и стремящиеся к нулю частные корреляции. Коэффициент частной корреляции будет равен нулю в случае, когда его делитель равен нулю, откуда следует ограничение Pij = PikPjk Причинная структура, соответствующая этому ограничению, достаточно очевидна: между Xi и Xj. нет никакого пути причинного влияния, помимо включающего Xk. Что же касается тетрадных разностей, то, как уже говорилось, типичными моделями, для которых выполняются такие ограничения, являются модели, где измеряемые переменные восходят к общему фактору, либо несколь­ким скоррелированным факторам, либо образуют причинную "це­почку" (такие модели обычно подразумевают ограничения на част­ные корреляции). Важная особенность рассмотренных ограничений

 

9 И.Ф.Девятко 129


заключается в том, что они могут быть выведены непосредственно из ориентированного графа, представляющего элементарную при­чинную структуру статистической модели.

Так как программа TETRAD реализует некоторую эвристику для поиска наилучшей причинной модели, а не строгую алгоритмиче­скую процедуру, эффективность которой может быть обоснована априорно, то оценка полезности этой программы существенно зави­сит от познавательной ценности и нетривиальности результатов. Авторы TETRAD подвергли вторичному анализу результаты ряда хорошо известных социологических исследований и убедительно продемонстрировали необходимость учитывать альтернативные объ­яснительные гипотезы и сомнительность некоторых некритически принимаемых допущений.

Проиллюстрируем возможности TETRAD как "орудия критики", обратившись к проведенному Глаймуром, Шейнисом, Спиртесом и Келли анализу данных, полученных М.Коном в известном исследо­вании авторитарности - конформности различных социальных групп американского общества [158 ]. Изучая отношения между социаль­ной принадлежностью, установками и чертами личности, Кон, в частности, рассматривал отношение латентной черты - фактора "Авторитарный консерватизм" - к переменным социальной страти­фикации. Измеряемыми переменными для определения показателя "Авторитарного консерватизма" были вопросы, имевшие пять вари­антов ответа (от "совершенно согласен" до "совершенно несогла­сен"). Использовались вопросы, разработанные Т.Адорно и его кол­легами для классической "Авторитарной личности", которые прошли процедуру селекции, гарантировавшую, по замыслу автора, одно­мерность каждой шкалы относительно измеряемого конструкта (кри­терием одномерности было соответствие модели гутмановской шка­лы). Кроме того, весь блок вопросов был подвергнут факторному анализу, результаты которого подтвердили специфичность отдель­ных шкал (в том числе, шкалы авторитарности) относительно раз­личных гипотетических конструктов [158. Р.265-269 ]. Таким обра­зом, Кон выделил в своем исследовании фактор "Авторитарного консерватизма" (АС), по отношению к которому отдельные вопросы служили индикаторами. В более поздних сравнительных обследова­ниях показано, что существуют "ядерные" пункты АС-шкалы, яв­ляющиеся индикаторами авторитарности для разных национальных групп. Моделью измерения всякий раз служила модель латентного фактора. Традиционная для социальной психологии интерпретация этой модели измерения предполагает, что после выделения общего фактора, объясняющего связь между пунктами шкалы, остаточные корреляции пунктов приписываются коррелированным ошибкам, возникающим при ответе. Именно так были проинтерпретированы результаты использования пяти "ядерных" пунктов.АС-шкалы в работе Дж.Миллера и соавторов [179]. Глаймур и его коллеги воспользовались данными о корреляциях этих пяти вопросов, чтобы проверить, нельзя ли скоррелировать модель и найти иное объясне­ние остаточным корреляциям. Они предположили, что "остатки"


можно рассматривать как симптом существования эффекта "закреп­ления" (anchoring effect) между ответами на вопросы интервью [135. Р.165].

Эффект "закрепления" (или "установки на якорь") известен в экспериментальной психологии и описывает механизм возникнове­ния ситуации, когда результаты одного психического процесса (оцен­ки величины стимула, решения задачи и т.п.) используются как исходная точка, база для другого процесса. Содержательная интер­претация эффекта может основываться на понятиях "уровня адап­тации", "стимульного контекста" или "сохранения когнитивного баланса". Последнее объяснение весьма убедительно, когда речь идет о порядке вопросов АС-шкалы. Их смысловая связанность и общая нацеленность обеспечены специальными процедурами (см. выше) и, вероятно, очевидны не только для исследователя, но и для респон­дента. Стремясь к тому, чтобы его ответы были согласованы и последовательны, респондент будет учитывать свои предыдущие ответы, используя их как исходную точку. Результаты применения TETRAD подтвердили преимущества модели измерения, предусмат­ривающей прямые причинные влияния между вопросами АС-шкалы, т.е. гипотезу о том, что корреляции между ответами, не связанные с их зависимостью от латентного фактора "Авторитарного консерва­тизма", объясняются причинными отношениями между самими воп­росами-индикаторами (а не необъясненными корреляциями их оши­бок измерения). На рис.14 представлены исходная модель измерения "Авторитарного консерватизма", пересмотренная модель Дж.Милле­ра с коррелированными ошибками и одна из двух переработок исходной модели, предложенных TETRAD [51]. Анализ модели измере­ния для пяти вопросов АС-шкалы проводился до того, как стала известна их временная последовательность в интервью, т.е. вопросы нумеровались условно. Поскольку две модели, найденные TETRAD, ограничивали порядок четырех вопросов из пяти (между которыми вводились прямые причинные связи), то программа фактически "выдала" определенные утверждения о реальной последовательности вопросов. Одно из них, как выяснилось позднее, действительно соответствовало тому порядку, в котором они задавались в исследо­вании Кона. Статистическая проверка предложенных TETRAD мо­делей с помощью программы EQS также подтвердила высокую степень их соответствия данным. Этот анализ, наряду с другими вторичными исследованиями, проведенными разработчиками TETRAD, позволяет очертить пределы, в которых практическую применимость программы можно считать в достаточной мере дока­занной.

 

 


1) TETRAD полезна в поисках правдоподобных и успешно проходящих статистическую проверку моделей, значительно расширяя возможности исследователя в рассмотрении множества альтернативных объяснений. При этом, работая в режиме диалога, исследователь может эффективно использовать в поиске уже имеющиеся знания, содержательные соображения, чтобы исключить противоречащие им гипотезы.

2) TETRAD может быть полезна и в поиске альтернативной исходной модели, в частности при принятии решения о необходимости введения в модель латентных переменных (хотя, разумеется, TETRAD не может подсказать социологу, какой концепт соответствует этой латентной переменной).

3) Для данной исходной модели TETRAD может быть использована с целью различения коррелированных ошибок и прямых причинных связей между переменными-индикаторами. При этом иногдаона может определить направление причинной связи последних.

4) Пространство поиска TETRAD альтернативных моделей многократно шире того, которое доступно при работе "вручную" или даже с помощью программ типа LISREL [135. Р.147].

Не оценивая пока принципы и "образ науки", лежащие в осно­вании TETRAD, обратимся к анализу наиболее очевидных недостат­ков в их техническом воплощении. Прежде всего, программа никак не использует многие виды ограничений, которые и теоретически, и практически могут быть вычислены. Существенна и ориентирован­ность программы на определенные типы моделей, что делает ее неприменимой в целом ряде случаев. Далее. Так как программа основана на постепенном усложнении базовой модели, она, естест­венно, не содержит никаких средств для автоматического перехода от одной простой базовой модели к другой, тщательное рассмотрение

всех возможных альтернативных базовых моделей зависит от добро­совестности и внимательности использующего ее исследователя. Если базовая модель с самого начала не соответствует принципу Спирмена (не содержит ограничений, имеющих место в данных), т она не может помочь в выборе другой модели, поскольку использ., емые в TETRAD ограничения не могут возникнуть в боле^ сложной дополненной модели, если они не содержались в исходной простой.

Выбор между различными дополнениями исходной модели в TETRAD основан на оценивании выполнения ограничений для вы­борочных данных о корреляциях. Как справедливо отмечает С.Хант, обоснованность такого выбора "будет решающим образом зависеть от способности TETRAD правильно оценивать тетрадные разности и частные корреляции" и, следовательно, от таких факторов, как размер выборки, форма распределения выборочных данных и выбор уровня значимости [152. Р.172]. Последнее обстоятельство особенно существенно, так как выбор уровня значимости для принятия или отвержения гипотезы о выполнении ограничений в выборочных данных не обеспечен в программе сколько-нибудь строгими прави­лами. Выбирая обычный уровень значимости (0,05), исследователь рискует столкнуться с ситуацией, когда будут тривиально выпол­няться много ограничений и любые дальнейшие переработки модели окажутся излишними. Авторы рекомендуют выбирать большие зна­чения (например 0,5), однако они не дают строгого метода для определения уровня значимости. Наконец, использование програм­мы может вызвать те же вычислительные проблемы, которые ранее возникали при многоиндикаторном подходе к оценке качества изме­рения, где тетрадные разности также использовались для проверки правильности модели измерения. Для социологии весьма типичны маленькие корреляции между переменными, произведения которых столь малы, что тетрадные разности будут очень близки к нулю, даже если это не так для генеральной совокупности.

TETRAD-aHcUiH.3 можно рассматривать как весьма успешную попытку передать машине некоторые функции исследователя в процессе идентификации причинной модели (посредством алгорит­мизации определенных эвристических стратегий решения этой зада­чи человеком). Однако помимо уже упоминавшихся технических ограничений, присущих этому типу анализа, существуют и фунда­ментальные проблемы обоснования используемых здесь норматив­ных принципов и общих представлений о возможностях и способах научного объяснения в социологии. Если даже считать бесспорной ту умеренную и осторожную трактовку возможностей искусственного интеллекта и статистического моделирования, которую дают авторы TETRAD [135. Р.15-61 ], весьма проблематичными остаются гносео­логические и, менее явно, онтологические допущения, лежащие в основании TETRAD-метоцологии.

Главная цель TETRAD-анализа - поиск альтернативных объясне­ний через вторичный (третичный и т.д.) анализ данных. В этом смысле TETRAD продолжает традиции эксплораторной статистики,

основания которой подвергались достаточно серьезной критике (см.: [185]). Глаймур и соавторы готовы согласиться с тем, что объясне­ние, найденное TETRAD, может быть объяснением "к случаю", а теория, сконструированная через поисковый анализ уже имеющихся данных, "будет сконструирована специально, чтобы объяснить эти данные" [135. Р.58]. Однако они полагают, что понятие конструи­рования теории "под данные" может иметь по крайней мере два смысла. Первый, когда исследователь действительно конструирует, "подгоняя" и "прилаживая" теорию. Найденное таким образом теоретическое объяснение действительно не может считаться под­твержденным данными, для которых оно было сконструировано. И второй, когда сами теории- можно рассматривать как некоторые идеальные объекты, находящиеся "там", т.е. в попперовском третьем мире объективного содержания мышления, и "имеющие такие логи­ческие отношения с данными, которые они имеют, независимо от того, случилось ли кому-нибудь о них подумать" [135. Р.59 ]. В этом смысле открыть теорию не означает создать ее. Теория либо нахо­дится в правильных логических отношениях к данным (и подтверж­дается ими), либо нет. И, значит, постоянная забота о разграничении поискового анализа и подтверждения теории оказывается надуман­ной, так как проверка теории основана отнюдь не на правильном предсказании и прогнозе. Реальная проблема в том, что, поскольку "специально сконструированные" теории также могут быть согласо­ваны с данными, возникает необходимость найти такую концепцию теоретического объяснения, которая требовала бы большего, чем простое соответствие статистическим зависимостям, наблюдаемым в данных.

В случае анализа линейных причинных моделей "большее" как раз и заключается в наложении дополнительных ограничений на структуру данных и проверке выполнения этих ограничений. Огра­ничения, вводимые объяснительной моделью, проверяются относи­тельно самой модели. Общая логика таких процедур носит название бутстреп-методологии[52], которая послужила основой предложенной Глаймуром оригинальной концепции проверки теорий [134 ]. Об этой концепции мы еще будем говорить дальше, здесь же ограничимся замечанием, что ее главная идея состоит в том, что гипотезы получают эмпирическое подтверждение не сами по себе, а лишь относительно вспомогательных предположений или утверждений основной теории. TETRAD-аиалт в сущности является бутстреп-процедурой поиска и проверки гипотез, т.е. гипотетических причин­ных моделей. Однако глаймуровская логическая теория относитель­ного подтверждения имеет внутренние ограничения, связанные с тем, что правдоподобие относительного подтверждения решающим образом зависит от правдоподобия вспомогательных предположений, используемых при проверке гипотезы. В TЕТRАD-анализе эпистемически привилегированным статусом пользуются причинные моде­ли, соответствующие описанным выше принципам Спирмена и Тер-

стоуна, и поэтому строгое обоснование эффективности этого подхода зависит от возможности обоснования нормативных критериев отбора и проверки моделей.

Насколько вообще оправдан эпистемический приоритет, который разработчики TETRAD приписывают линейным причинным моде­лям, накладывающим структурные ограничения на данные? Видимо, можно согласиться с продуктивностью такого подхода, когда соблю­дается условие "при прочих равных", т.е. когда в отсутствие иных содержательных, концептуально-теоретических обоснований для вы­бора предпочтение отдается "моделям, которые не предполагают ошибочных ограничений, но действительно предлагают эмпирически верные ограничения на данные" перед "моделями, которые не предполагают никаких ограничений (и, следовательно, никаких ошибочных ограничений)" [135. Р. 190]. Этот подход явно сродни интуитивно привлекательной идее предпочтительности максимально обязывающих (в смысле возможных импликаций) и содержащих наименьшее число параметров моделей, с использованием которых в определенной мере связаны успехи естественных наук, что неод­нократно подчеркивают и авторы. Однако строго обосновать приме­нимость этого принципа можно лишь основываясь на все тех же содержательных соображениях о природе социальной реальности, "генерирующей" наши данные, т.е. на некоторых уже онтологических допущениях, источником которых может быть только социоло­гическая теория.

Именно это, вероятно, имеет в виду Г.Саймон, когда в предисло­вии к "Discovering Causal Structure" пишет: "... данные сами по себе не могут помочь нам (прямо) выбрать правильные структурные уравнения! Мы должны прибавить к данным дополнительную инфор­мацию ("наложить дополнительные ограничения", как обычно гово­рят), чтобы сделать выбор. Они равнозначны эмпирическим предпо­ложениям о семантике ситуации, о природе механизмов, в действи­тельности породивших данные. Здесь не существует простой проце­дуры "поворота рукоятки", которая позволит нам делать автомати­ческую науку" [135. P.XIV]. Отметим, что существует еще одна возможность обоснования, которую, пожалуй, нельзя назвать стро­гой. Речь идет об этосе эмпирической науки, иногда определяющем "законность" процедуры или нормативного принципа не только через рациональность или практическую эффективность, но и через соответствие каким-то одобряемым "культурным образцам" и нор­мативным "стандартам поведения" (например, стандартам методи­ческой строгости, избегания "спекулятивных" либо теоретически избыточных объяснений). Эта возможность хорошо известна "после-куновской" и "послемертоновской" социологии и истории науки. Не вдаваясь в обсуждение этих известных соображений, заметим, что эмпирическая социология не только часто использовала возмож­ность обоснования своих принципов через стандарты "методической строгости" (в отсутствие строгости теоретической), но и в значитель­ной мере осознавала неизбежные пределы такого обоснования. Не столько доказать, сколько проиллюстрировать эту мысль может


небольшой и не слишком серьезный отрывок из воспоминаний П.Лазарсфельда, приведенный Дж.Конверс в качестве эпиграфа к одной из глав фундаментальной истории социологических исследо­ваний в США [109. Р.267 ]: "Рождественский скетч в Бюро[53]. Один из парней играет меня. Я вхожу и распределяю сигары, и кто-то спрашивает:"Это парень или девушка?". И этот фиктивный Лазар-сфельд останавливается и говорит: "Черт возьми! Откуда я знаю, меня интересует только метод".

3. Критика причинных моделей измерения с латентной переменной

Мы уже обсуждали некоторые существенные ограничения, возни­кающие при использовании множественных индикаторов для изме­рения латентных переменных. Ограничения, присущие моделирую­щему подходу, как было показано выше, осознаются большинством исследователей и нередко успешно преодолеваются при решении практических задач.

Однако некоторые критики причинных моделей с латентными переменными отвергают саму возможность их использования. "То­тальная" критика моделирующего подхода к измерению ставит под сомнение использование информации о наблюдаемых переменных для выводов о взаимоотношениях между социологическими показа­телями и теоретическими конструктами. По мнению радикальных критиков, этот подход вообще не может быть обоснован на почве содержательных или эпистемологических соображений.

Наиболее типична следующая аргументация. При определении на­дежности индикаторов в латентных переменных в причинных моделях измерения используются критерии согласованности, выводимые из этих моделей. Критерии согласованности включают в себя корреляции индикаторов и непосредственно измеряемых теоретических перемен­ных (примеры можно найти во второй главе данной книги). В этом случае любые выводы о наличии или отсутствии ошибки измерения в любом данном индикаторе латентной переменной оказываются за­висящими от наличия ошибок измерения в гипотетически "правиль­ных" индикаторах других переменных и от правильности теоретиче­ской модели, постулируемой исследователем. Иными словами, обос­нованность вывода о наличии или отсутствии ошибки измерения в отдельно взятом индикаторе латентной теоретической переменной за­висит от правильности спецификации модели в целом, т.е. от прав­доподобия всей совокупности допущений, касающихся остальных ла­тентных переменных и их индикаторов. Очевидно, однако, что именно идея невозможности проверки отдельной гипотезы о качестве "вот этого" индикатора составляет ядро концепции взаимосвязи теории и измерения. Как мы неоднократно подчеркивали, "теоретические" и "измерительные" гипотезы в социальных науках могут быть раз-


ведены лишь аналитически. Однако, как пишет представитель "радикальной критики" Г.Г.Хоппе: "Ошибка измерения - рог definitionem - это расхождение между наблюденным значением и соответствующим истинным значением данной переменной. Само определение логически предполагает, что наличие ошибки измере­ния в некой переменной (Y) эпистемологически не зависит от наличия или отсутствия ошибки измерения в любой другой перемен­ной, определяемой независимо от Y, и, более того, что исход <данной проверки> точно так же не зависит от существования или несуще­ствования каких-либо взаимоотношений между этими переменны­ми" [150. Р.505]. Таким образом, Хоппе представляется неприемле­мой любая стратегия вывода, для которой проверка "измерительной" гипотезы требует принятия некоторых вспомогательных допущений о том, насколько хорошо измерены другие переменные и каков характер эмпирических взаимоотношений между ними. С его точки зрения, принятие любых вспомогательных гипотез для проверки интересующей нас гипотезы о качестве измерения какой-то перемен­ной - это "эпистемологический абсурд", так как эти гипотезы не соотнесены опять же эпистемологически с интересующей нас гипо­тезой [Там же]. Однако возможен ли вообще научный вывод, абсолютно независящий от правдоподобия вспомогательных гипотез или допущений, принимаемых исследователем явно и неявно для того, чтобы сделать проверяемой его "главную" гипотезу? Ровно в той мере, в которой возможно абсолютное и беспредпосылочное знание.

Другой аргумент, используемый Хоппе в полемике с моделирую­щим подходом, также неявно основан на идеях и проблемах, впервые сформулированных в рамках этого же подхода. Как уже говорилось, после принятия эксплицитной модели измерения, включающей в себя и отношения между теоретическими переменными, и ошибки измерения, иногда становится очевидной невозможность однознач­ного "приписывания" результата содержательной гипотезе либо артефакту измерения. Для иллюстрации здесь можно обратиться к рассмотренным нами ранее примерам, в частности к модели "удов­летворенность - заработная плата" (с. 111-113) или к модели "диск­риминация меньшинства" (с. 113-116). Казалось бы, возможность идентификации таких "отрицательных образцов" (как и возмож­ность найти частное или компромиссное решение возникающих проблем) гарантирована именно использованием моделирующего подхода. Однако, с точки зрения Хоппе, сама альтернатива припи­сывания негативного результата либо "непорядку в теории", либо "непорядку в измерении" создает соблазн списывания теоретических ошибок за счет недостатков измерительной процедуры и деморали­зует исследователей. Таким образом, полагает Хоппе, критикуемый им подход неприемлем не только с логической и эпистемологической точек зрения, но также "нежелателен с психологической точки зрения: использование моделей, допускающих ошибку измерения, приводит к концу процесс проб и ошибок, необходимый для научного прогресса" [150. Р.508 ]. Даже разделяя эволюционную концепцию


науки - пусть и не в попперовской радикальной версии - мы можем лишь недоумевать, каким образом можно заменить культуру ясной и отчетливой экспликации всей совокупности теоретических и ме­тодических допущений, постепенно получающую признание в социо­логии под названием "моделирующий подход к измерению", тща­тельной проверкой данных ("переменная за переменной"), как рекомендует Хоппе [Там же. Р.509 ]. Разумеется, проверка данных чрезвычайно важна, а техника путевого анализа, рассматриваемая Хоппе как единственное орудие моделирующего подхода, имеет целый ряд ограничений, помимо справедливо указанных им. Однако методы и "инструменты", используемые социологом, столь сильно отличаются от искусственных закрытых систем, используемых в качестве инструментов физического измерения, что требование их тщательной проверки может быть истолковано лишь как полезная метафора, а не конкретная рекомендация.

Однако первый, "эпистемологический" аргумент, используемый Хоппе, все же заслуживает более подробного рассмотрения, так как адресован к фундаментальной и до недавнего времени не получавшей должного внимания черте моделирующего подхода к измерению - хо-листской трактовке логики научного исследования и проверки гипо­тез. Мы не можем здесь останавливаться на анализе новейших тен­денций в философии науки, но позволим себе кратко рассмотреть те результаты, которые непосредственно связаны с предметом нашего обсуждения. Последние работы в области логики подтверждения на­учных гипотез относятся преимущественно к проблеме относитель­ного подтверждения, т.е. подтверждения гипотез относительно вспо­могательных допущений либо "фоновой" теории. Несмотря на раз­ногласия, существующие между представителями различных концеп­ций (байесианской, гипотетико -дедуктивной и др.), большинство спе­циалистов в этой области согласятся с тем, что при ответе на вопрос о том, при каких условиях некоторое (всегда фрагментарное и част­ное) эмпирическое доказательство подтверждает теоретическую ги­потезу, нельзя изолировать "гипотезу" и "доказательство" из цело­стного "поля" фоновых знаний и допущений (и, следовательно, нельзя построить чисто логическое объяснение процесса подтверждения ги­потезы). Т.е. всякое относительное подтверждение существенно за­висит от эпистемического статуса вспомогательных допущений и те­орий. Как отмечает автор критического обзора этой области: "То, что кажется сейчас необходимым, это некое холистское объяснение под­тверждения всей системы гипотез, возможно, в терминах их подтвер­ждения относительно друг друга. То обстоятельство, что такой холизм становится неизбежен в объяснении <процесса> подтверждения на оп­ределенной стадии, не должно вызвать никакого удивления в свете работы, проделанной в философии науки за последнее столетие, хотя это значительно усложняет задачу объяснить подтверждение на языке исключительно логических отношений" [124. Р.266 ]. Этот вывод, воз­можно, покажется неутешительным сторонникам "сильной" програм­мы логики научного исследования. Но он очевидно подкрепляет наше несогласие с критикой моделирующего подхода, высказанной Хоппе.


Интересно отметить, что одна из популярных теорий относитель­ного эмпирического подтверждения, развиваемая известным истори­ком и философом науки К.Глаймуром, обнаружила в моделирующем подходе свою образцовую иллюстрацию. Более того, как мы указы­вали выше, стратегия научного открытия, предполагаемая этой тео­рией, недавно получила воплощение в компьютерной системе поиска содержательных и "вспомогательных" теоретических моделей в со­циологии. К.Глаймур разработал оригинальную и в значительной ме­ре соответствующую реальной истории научных открытий концепцию эмпирического подтверждения теорий [134 ]. Опираясь на взгляды Карнапа и раннего Рейхенбаха, Глаймур считает, что эмпирические доказательства дают примеры теоретических утверждений, которые могут быть дедуцированы из доказательств при помощи других (вспо­могательных) теоретических утверждений. Однако (в отличие, на­пример, от Рейхенбаха) Глаймур отрицает существование "привиле­гированных" утверждений теории - аналитических истин или коор­динирующих определений, - которые привязывали бы доказательство к теории. С его точки зрения, любая теоретическая гипотеза может быть использована для дедукции примера теоретического утвержде­ния из совокупности эмпирических доказательств. Т.е. доказатель­ство подтверждает или не подтверждает гипотезу по отношению к теории [134. Р.110]. В главе, посвященной методологии "неестественных" наук [134. Ch.7 ], Глаймур показывает, что используемые в ка­узальном моделировании способы проверки гипотез могут рассмат­риваться как примеры защищаемой им так называемой бутстреп-стра-тегии обоснования научного вывода. Здесь мы не будем возвращаться к тем возможностям (и опасностям), которые открываются в резуль­тате конвергенции бутстреп-стратегии проверки теорий и причинного моделирования в социологии.


Дата добавления: 2015-11-26; просмотров: 62 | Нарушение авторских прав



mybiblioteka.su - 2015-2024 год. (0.03 сек.)