Psikhologicheskie Issledovaniya • ISSN 2075-7999
peer-reviewed • open access journal
      

 

Юревич А.В., Юревич М.А. Наукометрические показатели научной продуктивности и их форсирование в российском психологическом сообществе

English version: Yurevich A.V., Yurevich M.A. Scientometric indicators of scientific productivity and their reinforcement in Russian psychological community
Институт психологии РАН, Москва, Россия
Финансовый университет при Правительстве РФ, Москва, Россия

Сведения об авторах
Литература
Ссылка для цитирования

Анализируются существующие практики количественного оценивания эффективности и вклада национальной науки в мировую. Авторы демонстрируют неадекватность этих методов, а также большое влияние социально-психологических факторов на соответствующие показатели. Демонстрируется, что форсирование наукометрических показателей получает все большее применение в современной российской науке. Описывается авторская методика, позволяющая выявлять манипулятивные стратегии повышения индекса Хирша. Приводятся данные о распространенности этих стратегий в современном российском психологическом сообществе, а также об их выраженности в различных типах научных организаций.

Ключевые слова: индекс цитирования, импакт-фактор, индекс Хирша, манипулятивные стратегии, современное российское психологическое сообщество

 

Однополярный смысл наукометрических показателей

В последние годы все чаще предпринимаются попытки количественной оценки эффективности отечественной науки с помощью таких показателей, как импакт-фактор, цитат-индекс, индекс Хирша, а адекватность результатов подобной оценки стала очередной ареной противостояния реформаторов и их оппонентов. При этом используются критерии и методики, широкое применение которых за рубежом рассматривается как гарантия их адекватности, хотя и там они имеют немало противников. В частности, «применение цитат-индексов при принятии решений о финансировании науки вызвало сильную реакцию протеста у ученых многих стран» [Иванова, 2011, с. 62–63]. Особую известность приобрели громкие акции протеста, устроенные эмоциональными французскими и в целом более спокойными германскими профессорами. Зарубежные ученые постоянно сетуют на «тиранию цитирования» (см. [Иванова, 2011]) и выпускают книги под такими показательными названиями, как «Игра в цыфирь» [Адлер и др., 2011], где демонстрируют многочисленные нелепости и в целом вредное влияние этой практики на науку.

В нашей стране соответствующие дискуссии политизированы, нередко увенчиваются обвинениями в полной неэффективности отечественной науки ввиду того, что по интегральному импакт-фактору российские статьи занимают 37-е место в мире, 55% российских работ вообще не цитируются и т.п. Ситуация усугубляется тем, что в наших российских условиях поляризация сторонников и противников наукометрических показателей носит ярко выраженный ведомственный характер. «Сторонники использования показателей публикационной активности, связанные с Минобрнауки [1], безоговорочно поддерживают применение библиометрических показателей» [Иванова, 2011, с. 64], в то время как их противники представляют, главным образом, научное сообщество.

При этом, как отмечают специалисты по данной проблеме, «расплодившиеся в последнее время в России многочисленные поклонники и пропоненты подсчета журнальных публикаций, импакт-факторов и числа ссылок не очень знакомы с содержательными характеристиками этих показателей» [Савельева, Полетаев, 2009, с. 13–14]. Однако радует то, что дискуссии начинают разворачиваться и в среде специалистов по изучению науки, способных, абстрагировавшись от политических позиций, оценить достоинства и недостатки предлагаемых подходов.

Ими отмечается, что «Анализ числа журнальных публикаций и уровня их цитируемости чаще всего проводится на материалах базы данных Web of Science (WoS), принадлежащей ныне компании Thompson Reuters Corporation» [Савельева, Полетаев, 2009, с. 3], а это подчас дает довольно-таки нелепые результаты. Так, согласно данной информационной системе, которая является старейшей и наиболее авторитетной в данной области, все отечественные философы вместе взятые в 2000-е гг. публиковали в международных журналах порядка 3–4, а социологи – 2–3 статей в год, в то время как в действительности, например, только сотрудники Института философии РАН, далеко не исчерпывающие весь корпус отечественных философов, ежегодно публикуют там от 40–50 до 70–80 статей [Мотрошилова, 2011].

Среди журналов, включенных в базы данных WoS, на основе которых принято делать выводы о величине вклада в мировую науку, от 25 до 40% (в разных дисциплинах – по-разному) издаются в США, а от 20 до 40% – в Англии [Савельева, Полетаев, 2009, с. 5]. Во многом поэтому, в частности, если суммарный вклад стран ЕС в естественные науки составляет 40 %, то в социальные – лишь 33% [Маршакова-Шайкевич, 2011].

Аналогичные расхождения реальности и баз данных WoS проявляются и в других социогуманитарных дисциплинах. Вряд ли столь респектабельное учреждение, как Корпорация Томпсона, можно заподозрить в заведомой некомпетентности или в умышленном принижении вклада российской науки. Но даже базы данных WoS неспособны учесть публикации российских ученых во всех международных научных журналах, а та подборка журналов, на основе которых формируется оцениваемая выборка, хотя и впечатляет своим размером, вряд ли может считаться репрезентативной. Россия в этой базе данных, а также в аналогичных ей, таких как SCOPUS и др., вообще представлена лишь несколькими научными журналами. Налицо проблема адекватности источников данных, имеющая много общего с хорошо известной в социогуманитарных дисциплинах проблемой репрезентативности используемых выборок. К тому же, как подчеркивают авторитетные исследователи науки, такие как С.Фуллер, если наиболее известные естествоиспытатели всего мира в основном публикуются в достаточно узкой группе журналов, которые считаются наиболее авторитетными, то в социальных науках нет согласия в отношении того, какие журналы считать наиболее значимыми [Fuller, 1997]. В данной связи следует привести и наблюдение Д.Прайса о том, что, если в естественнонаучных дисциплинах круг чтения носит концентрированный и четко очерченный характер, то в социогуманитарных науках он является дисперсным и расплывчатым [Price, 1963]. А Л.Харгенс продемонстрировал, что наиболее часто цитируемые источники в социогуманитарных науках сменяются намного чаще, чем в естественных [Hargens, 2000].

«К настоящему времени все сложилось так, что рано, оперативно и масштабно организованные базы данных по преимуществу, если не исключительно, американских фирм и институций (и, соответственно, их методы, образцы, подходы) для всего мира фактически сделались основными источниками, «поставщиками» и «законодателями» количественно-эмпирических обследований науки», – пишет Н.В.Мотрошилова [Мотрошилова, 2011, с. 134]. Трудно не признать, что «их повсеместному распространению и использованию в немалой степени способствовало то, что некоторые сегменты количественно-статистических обсчетов, обмеров (в их числе сравнительные схемы и графики) были более или менее добротными, носили именно фактический характер и могли подвергаться проверкам и уточнениям» [Там же, с. 134–135]. Тем не менее налицо явное смещение и американо-центризм [2] используемых выборок.

Известны и другие принципиальные недостатки баз данных WoS: принижение значимости работ на таких языках, как испанский, итальянский, японский, китайский, корейский и, естественно, русский, отсутствие учета прочих видов печатной научной продукции – монографий, статей в сборниках, материалов конференций и т.д. [Рогов, 2011]. Вместе с тем сведение проблемы лишь к неадекватности источников данных и способов их формирования было бы ее сильным упрощением. Существуют и другие ее стороны, обращение к которым вынуждает говорить о неадекватности самого сложившегося подхода к оценке мирового вклада национальной науки.

Прежде всего, нельзя сводить вклад в мировую науку к вкладу в мировой массив научных публикаций. Например, такие ученые, как С.П.Королев, по понятным причинам не публиковались ни в отечественных, ни тем более в международных научных журналах. Можно ли на этом основании сделать вывод о том, что они не внесли никакого вклада в мировую науку? Или задать другой, не менее нелепый, вопрос: к какому количеству публикаций можно приравнять запуск первого в мире космического аппарата? А в социогуманитарных дисциплинах аналогичной нелепостью была бы оценка вклада таких мыслителей, как, например, М.К.Мамардашвили, по количеству их публикаций (вообще дифференциация «говорящих» и «пишущих» мыслителей актуальна со времен Сократа).

Подобные ситуации иллюстрируют, что необходимо различать мировую науку и мировой мейнстрим научных публикаций, русло которого сформировано на Западе. Мировая наука – не этот мейнстрим, а совокупность национальных наук, какими бы непохожими на англо-американскую науку они ни были. В нее вносит вклад каждый, кто занимается наукой и делает в ней что-либо существенное, вне зависимости от того, в какой стране он живет и в каких научных изданиях публикуется. В нее внесла вклад и так называемая традиционная восточная наука, развивавшаяся в Индии, Китае, странах арабского Востока задолго до появления США. Российская же наука вносит вклад в мировую по определению, являясь ее частью, а отрицать это так же нелепо, как не считать нашу страну частью человечества.

В данной связи следует упомянуть и о том, что вообще одна из главных функций социогуманитарной науки – сделать человека и общество лучше, причем не столько все человечество, сколько общество в той стране, в которой та или иная национальная наука развивается. В результате совершенно естественно, что социогуманитарная наука всегда имеет «национальную привязку» – в основном изучает те проблемы, которые характерны для данного общества. Приведем примеры названий статей, публикуемых одним из наших ведущих социологических журналов: «Психографика: к описанию стиля жизни россиян», «Идеология потребления в советском обществе», «Самоубийства в Ивановской области: анализ временных трендов», «Биографическое обследование российской социологии: предварительные теоретико-методологические замечания», «Принцип иерархии в представлении россиян о власти», «Отношение к богатству и бедности современных россиян», «Нравственность в современной России», «Программа дополнительного лекарственного обеспечения России: интересы и поведение основных участников», «Национальные аспекты российского социологического дискурса» и т.п.

Далеко не всякий международный научный журнал примет публикации на внутрироссийские темы, а если и примет, то в очень ограниченном количестве – дабы не загружать читателей из других стран не слишком интересными для них проблемами, скажем, отношения россиян к богатству и бедности или самоубийств в Ивановской области. Налицо и очевидная несостыковка «национальной привязки» наших статей с тематическим америкоцентризмом журналов, включенных в базы данных WoS. Например, в нее включен 221 журнал по истории, из которых 76 издаются в США. Из этих 76 журналов 15 – журналы по различным аспектам истории США, а 18 посвящены истории отдельных американских штатов или регионов США [Савельева, Полетаев, 2009].

Большая часть наших статей в области социогуманитарных наук не годятся для международных журналов, но не в силу своих содержательных недостатков, а вследствие национальных особенностей своей тематики. Приблизить же свои исследования к тематике международных журналов и, соответственно, удалиться от наиболее злободневных проблем нашей страны означало бы для отечественных социогуманитариев вызвать в нашем обществе массовое ощущение, что деньги налогоплательщиков тратятся учеными впустую. Подчас наши социогуманитарии вынуждены выбирать между повышением своего цитат-индекса в международных журналах и, например, тем, как найти пути уменьшения безработицы или беспризорности в России, а выбор ими последнего свидетельствует не об их неэффективности, а об их патриотичности. Совершенно справедливо отмечается, что «российское научное сообщество в первую очередь должно работать на свою страну, а цитирование в англоязычных, прежде всего американских, журналах вряд ли должно быть главным критерием» [Рогов, 2011, с. 581].

Следует отметить также явное рассогласование нашей общегосударственной и нашей научной политики. Если первая в последнее время строится на противостоянии Западу, импортозамещении и т.д., то вторая предполагает, как сказали бы в прежние годы, «преклонение» перед ним и приоритет публикаций в западных научных журналах. Очень странно, что органы управления отечественной науки этого не замечают.

По убеждению ряда исследователей, по индексу цитирования и другим подобным показателям корректно сравнивать лишь научные организации одной страны [Романовский, 2010], при этом и сравнение разных научных дисциплин вызывает большие сложности ввиду различий существующих в них традиций цитирования, соавторства и т.п. На этой в целом правильной идее основана разработка национальных индексов научного цитирования, таких как РИНЦ (Российский индекс научного цитирования). Аналогичные национальные базы данных созданы в Китае, Японии и в других странах.

Уместно обратить внимание и на неадекватность общего образа науки, стоящего за практикой подсчета цитирований. Согласно этому образу, цитирование научных статей – это норма науки, а нецитирование или низкое цитирование – патология, за которой стоит их «ненужность». Вынеся за скобки такие факторы, как латентное признание значимости научных работ, многие из которых воспринимаются научным сообществом не сразу, а спустя определенное время, лишь по прошествии которого начинается их активное цитирование, подчеркнем, что вообще потребление научной информации научным сообществом устроено совершенно по-другому. Так, по данным Института научной информации США, около 40% мирового массива опубликованных научных статей          вообще никогда не цитируются, а из цитируемых 70% цитируются один раз в год, 24% – 2–4 раза, около 5% – от 5 до 9 раз, и менее 1% – 10 [3] и более раз в год [Гусев, 2009]. То есть нормой для науки является нецитирование или редкое цитирование научных статей, а их частое цитирование – напротив, своеобразной «патологией». Но можно ли из приведенного распределения сделать вывод о том, что не- и низкоцитируемые научные статьи науке «не нужны», являясь бесполезными «отходами» научного производства? Это было бы столь же нелепо, как и признать «научными» только исследования, приводящие к научным открытиям, отказав в статусе научности всем поискам научной истины в ошибочных направлениях.

В общем трудно не заметить, что используемые ныне показатели вклада в мировую науку имеют достаточно выраженный однополярный смысл. Если ученый имеет много публикаций и высокий индекс цитирования в международных научных журналах, то, действительно, есть весомые основания считать, что он вносит ощутимый вклад в мировую науку. Но нет оснований констатировать, что ученые, не преуспевшие по подобным показателям, вклада в нее не вносят. Делать выводы об их низкой продуктивности, а тем более начислять им зарплату в соответствии с этими показателями означает искажать достаточно очевидный (но, к сожалению, не для всех) логический смысл последних [4].

Социально-психологические факторы научного цитирования

В последнее время все чаще акцентируются негативные последствия манипулятивного использования показателей научного цитирования, что порождает не слишком честные стратегии целенаправленного повышения подобных показателей: «ученые характеризуют эти способы как изощренное лукавство» [Иванова, 2011, с. 64].

Достаточно известны и механизмы обретения известности в мировой науке. Упрощенное отношение к ней предполагает рассмотрение этих механизмов исключительно в когнитивной плоскости. Дескать, ученый создает новое научное знание, которое тут же становится известным его коллегам во всем мире, и он обретает заслуженное признание. Такое, действительно, случается, причем не всегда предполагает публикации именно в англо-американских научных журналах, а, например, публикации в Интернете, как в случае Г.Перельмана. Однако гораздо чаще, особенно в социогуманитарных науках, бывает по-другому: обретение ученым мировой известности предполагает различные социально-психологические механизмы, в т.ч. и механизмы «социализации» самого произведенного им научного знания.

Известный исследователь науки У.Корнхаузер разделил всех ученых на два типа – «местников» и «космополитов». Первые, в силу их личностных особенностей, преимущественно обитают в своих исследовательских организациях, редко покидают родные пенаты, нечасто выезжают за рубеж, публикуются в основном в национальных научных журналах и т.п. Вторые ориентированы на международные научные контакты, а их научная деятельность протекает в основном за пределами организаций, в которых они работают. Корнхаузер не оставляет сомнений в том, что и те, и другие нужны мировой науке и вносят в нее вклад, но деятельность «местников» менее публична, а их достижения становятся известными в мировой науке благодаря органически дополняющим их «космополитам» [Юревич, 2001].

Близкий характер носит классификация Ю.М.Плюснина, акцентирующего, что в современной науке отчетливо различимы два типа ученых – «цеховики», научное знание производящие, и «презентаторы», его распространяющие [Плюснин, 2007], а также другие подобные классификации ученых [Юревич, 2001]. Естественно, основные «дивиденды», в том числе и такие, как международное признание, достаются преуспевающим в пиаре «презентаторам», однако без куда менее заметных «цеховиков» им было бы нечего «презентировать».

В данной связи представляют интерес данные о том, что сейчас примерно четверть своих статей российские авторы публикуют в соавторстве с зарубежными коллегами, причем такие совместные статьи цитируются намного чаще, чем индивидуальные статьи российских авторов [Иванова, 2011] (не потому ли, что зарубежные коллеги выступают в очень полезной роли «толкачей» научных статей?). Но еще более любопытно наблюдение о том, что инициатива в публикации таких статей исходит от иностранцев, а ключевые идеи, на которых основаны статьи, – от наших соотечественников, которые при этом «почти всегда выступают в роли бедных родственников» [Цит. по: Иванова, 2011, с. 70].

В целом же проживающие в России ученые имеют куда худшие шансы обретения известности в мировой науке, чем их коллеги, живущие в западных странах. К тому же действуют хорошо известные в социологии науки принцип «снежного кома», описанный Р.Мертоном «эффект Матфея» и т.п. В результате научные журналы предпочитают публиковать статьи хорошо известных авторов, обретение же известности предполагает не только научные заслуги ученого, но и упомянутые социально-психологические механизмы.

Возвращаясь к У.Корнхаузеру, подчеркнем, что он разработал свою классификацию применительно к мировой, а не к какой-либо национальной науке. Но в отношении российской науки она приобретает особый смысл и не только в связи с длительным существованием «железного занавеса» и его последействиями. Материальные трудности поездки российских ученых за рубеж и бюджеты наших научных учреждений общеизвестны. Общеизвестно и значение языкового фактора [5], а также другие социальные проблемы адаптации отечественных ученых к контексту мировой, преимущественно англоязычной и американоцентристской, науки. Но и там обретение ученым признания предполагает его активное включение в систему социальных связей, нередко – активный пиар его деятельности, наличие влиятельных покровителей, необходимость попасть на глаза и произвести хорошее впечатление на так называемых привратников (gatekeepers), которые выносят и распространяют в научном сообществе суждение о других его членах [Fuller, 1997]. Один из наиболее авторитетных исследователей научных коммуникаций Д.Прайс акцентирует, что «весь фронт исследования занят «глыбами» авторов, размером примерно в 100 чел., а в пределах каждой такой «глыбы» действует немногочисленное ядро ученых, которые связаны друг с другом сильным взаимодействием» [Цит. по: Петров, 2006, с. 105]. Во многом поэтому С.Фуллер формулирует «норму мафиозности» как один из главных неформальных регулятивов научной деятельности и противопоставляет ее «норме коммунизма» (или «коммунализма»), сформулированную Р.Мертоном [Fuller, 1997].

Следует упомянуть также то, что американоцентризм современной науки не сводится только к языковому фактору. Так, и российские ученые, и ученые – выходцы из других стран, подолгу живущие в США или Англии и прекрасно пишущие на английском языке, часто сетуют на доминирование в международных социогуманитарных журналах американцев и англичан, которые очень неохотно принимают туда статьи, не выдержанные в русле англо-американских парадигм, а тем более им противоречащие. Например, российский психолог Е.В.Субботский, ныне работающий в Университете Ланкастера, пишет, что «свободомыслие» в западных культурах вовсе не означает свободы публикации теоретических статей, противоречащих взглядам британских и североамериканских теоретиков, которые доминируют в редакционных советах психологических журналов [Subbotsky, 2009]. А эстонский психолог А.Тоомела выражает уверенность в том, что последние 40 лет развития психологической науки прошли впустую (дословно: «были выброшены в пепельницу») из-за того, что она развивалась по американскому пути [Toomela, 2007].

Следует отдать должное и разнообразию мотивов научного цитирования, которые активно изучались еще в 60-е гг. прошлого века. В этих исследованиях отчетливо обозначился так называемый школьный эффект – цитирование учеными преимущественно представителей своей научной школы, а также такие феномены, как «свой-чужой» («свои» – друзья, коллеги и т.д. при прочем равенстве цитируются намного чаще), почти обязательное упоминание своего начальника, других лиц, которых, в силу политических соображений, нельзя не упомянуть, и т.п. Яркие образцы в этом плане поставляла советская наука, где цитирование классиков марксизма-ленинизма и лидеров государства носило обязательный характер во всех науках, даже имевших к тем и другим весьма отдаленное отношение. Но в ней в экстремальном виде проявлялось то, что характерно для всей мировой науки, где за ссылками стоят не только признание научного вклада, но и самые различные, социально-психологические и политические, факторы. Следует учитывать и такой феномен, как негативное цитирование, упоминание авторов научных работ с целью их опровержения, а то и вообще довольно откровенного издевательства над ними.

Вероятно, может сложиться впечатление, что все вышесказанное выражает позицию «обиженных»: мы, российские ученые, не можем похвастаться обильным представительством в международных журналах, высоким импакт-фактором отечественных журналов, впечатляющими индексами цитирования и т.д. и поэтому ищем удобные для нас оправдания этой ситуации. Возможно, подобный мотив действительно имеет место. Но приведем оценки существующей практики количественных оценок зарубежными исследователями проблемы, которых трудно отнести к числу «обиженных» ею.

– «Использовать лишь только импакт-фактор при оценке журналов – это все равно, что при оценке здоровья человека учитывать только его вес» [Адлер и др., 2011, с. 7].
– «Данные цитирований дают лишь ограниченное и неполное представление о качестве научных исследований, а статистики, полученные на основе данных цитирований, порой неправильно понимаются и используются. Научные исследования слишком важны, чтобы измерять их ценность только одним грубым инструментом» [Там же, с. 8].
– «Соблазн простого способа и несложных чисел (еще лучше – одного числа), кажется, побеждает здравый смысл и трезвый расчет» [Там же, с. 11].
– «В некоторых случаях h-индекс (индекс Хирша – А.Ю., М.Ю.) или его варианты используются государственными органами, оценивающими исследования. Это не что иное, как использование данных не по назначению» [Там же, с. 25].
– «Ученых стали вынуждать отойти от общепринятых целей научного исследования, заменив стремление совершать открытия на желание публиковать как можно больше статей, пытаясь при этом помещать их непременно в журналах с высоким импакт-фактором. Как следствие, научная деятельность деформировалась, а полезность, качество и объективность статей ухудшились» [Там же, с. 39].
– «Меня, как главного редактора журнала Nature, беспокоит имеющаяся среди академической администрации тенденция сосредоточиваться на импакт-факторе журнала при оценке значимости научного вклада исследователя, влияющая на его продвижение и прием на работу и, в некоторых странах, на финансовые вознаграждения за каждую статью» [Там же, с. 46].
– «Огромное влияние на импакт-фактор может иметь деятельность всего лишь нескольких заинтересованных людей, причем для разоблачения этой деятельности требуются значительные усилия» [Там же, с. 61].
– «Эта плачевная ситуация имеет огромные последствия. Неверным способом присуждаются награды, научная литература и предметные области деформируются, вокруг всего этого растет уровень скептицизма» [Там же, с. 61].
– «Администраторы, финансирующие организации, библиотекари и все прочие, кому требуются такие оценки, должны отказаться от упрощенных подходов и принимать важные решения на основе вдумчивости, здравого смысла и экспертизы» [Там же, с. 62].

Обращают на себя внимание названия статей, из которых взяты приведенные цитаты: «Потерянное при публикации: как измерение вредит науке», «Бегство от импакт-фактора», «Гнусные цифры» и т.п. [Адлер и др., 2011], а также выраженная эмоциональность приведенных высказываний. Подчеркнем и то, что в некоторых из них прорисовывается ставший очень характерным для российской науки сюжет – противостояние мнения научной общественности, в первую очередь специалистов по изучению затронутых проблем, позиции «академической администрации», то есть, в нашем понимании, органов руководства наукой.

Следует подчеркнуть и то, что даже корпорация Thomson Scientific, являющаяся цитаделью распространения импакт-фактора и других подобных показателей, предостерегает от его неосторожного использования: «Импакт-фактор не может быть использован без учета многочисленных показателей, влияющих на цитируемость, например среднего числа ссылок в одной статье. Импакт-фактор должен быть дополнен компетентной экспертной оценкой» (Цит. по: [Адлер и др., 2011, с. 18]).

Манипулятивные стратегии в современной российской психологии

Один из наших, российских, способов освоения приходящих с Запада социальных нововведений состоит в том, что мы их сначала категорически отвергаем, а затем осваиваем, изменив до неузнаваемости, и начинаем воспринимать как свои.

Подобную траекторию проделало и отношение нашего научного сообщества к наукометрическим показателям научной продуктивности. Сначала мы их категорически отвергали, в посвященных им дискуссиях постоянно акцентируя их вред для науки, что было вполне обоснованным. Однако в дальнейшем стадия отвержения, например, индекса Хирша, показывающего, сколько высокоцитируемых работ имеет ученый [6], сменилась стадией его освоения, многие наши ученые с увлечением занялись «накачиванием» своего Индекса и сопоставлением его с показателями коллег. Появилась даже соответствующая услуга, оказываемая некоторыми организациями и выражаемая объявлением: «повышаем индекс Хирша».

При этом, как водится у нас, и первоначально высказывавшиеся аргументы против внедрения подобной практики оказались подзабытыми, и истинный смысл наукометрических показателей сейчас мало кого волнует, и практика их вычисления, а также форсирования, оказалась далекой от той, которая характерна для мировой науки.

Прежде всего, наши ученые «играют» в наш внутренний Хирш, вычисляемый в рамках Российского индекса научного цитирования (РИНЦ) – базы данных, причем далеко не полной, о публикациях и цитируемости отечественных ученых, а их соответствующий показатель в мировой науке не пользуется популярностью. Это и понятно: основная часть отечественных ученых публикуются на русском языке, имеют приличные показатели цитирования в отечественной науке, а цитированием зарубежными коллегами не могут похвастать, словом, предпочитают следить за своими показателями там, где они выше. Вообще же РИНЦ – это наш достойный «ответ Чемберлену», напоминающий органическое дополнение чемпионата мира чемпионатом России, где голы забивать проще.

С наступлением стадии освоения наукометрических индексов произошло и изменение их содержания. До ее начала внутренний индекс Хирша наших ученых был «девственным», а с ее наступлением приобрел «окультуренный» характер, теперь Индекс многих из них можно охарактеризовать как «искусственно выращенный». При этом так называемые китайские технологии его наращивания, такие как перекрестное цитирование и др., у нас пока не приобрели широкого распространения, хотя тоже начинают внедряться. Активнее используется другая стратегия: ввиду существенной неполноты статистики РИНЦ, наши ученые стремятся «улучшить» свою статистику, оказывая давление на его составителей, прикрепляя свои публикации и т.п. А в большинстве научно-образовательных организаций появились штатные повышатели наукометрических индексов, которые повышают их своим маститым коллегам – дабы улучшить показатели организации, если сами маститые коллеги не в состоянии это делать ввиду своей компьютерной безграмотности.

Отследить искусственное повышение индекса Хирша достаточно просто: резкое, стремительное повышение этого показателя выдает его форсированный характер. Уместна аналогия со спортом: если мышечная масса какого-либо спортсмена резко нарастает, его начинают подозревать в применении искусственных стимуляторов.

Правда, в отличие от спорта в распространении подобной практики можно не усматривать ничего плохого: мол, усеченные показатели, вычисляемые РИНЦ, приближаются к более полным показателям, которые более адекватны, чем усеченные. Но при этом равно урезанная для всех ученых выборочная картина, формируемая «девственными» показателями, подменяется искаженной картиной, отражающей разную активность в их повышении, в результате чего они утрачивают даже свой исходный, весьма сомнительный смысл. Корме того, в отечественной науке воспроизводится то, что характерно для мировой науки: значительная часть ученых тратит основные усилия не на подготовку новых публикаций, а на «разыгрывание» уже имеющихся в соответствии с принципом: «ученым можешь ты не быть, но Хирш большой иметь обязан». Можно предсказать и другие негативные последствия перехода нашего научного сообщества к активному освоению наукометрических показателей, в т.ч. «хиршемании», которые дадут о себе знать в ближайшем будущем.

С целью оценки распространенности манипулятивных стратегий, позволяющих целенаправленно повышать индекс Хирша, нами была разработана методика [7], которая может быть применена к различным дисциплинарным сообществам, в том числе и к психологическому.

В основе методики лежит категория «хиршеобеспечивающие» публикации, то есть те первые h публикаций ученого в перечне всех его работ, расположенных в порядке убывания количества ссылок на них, которые и образуют Индекс Хирша, равный h. Графически это понятие иллюстрируется на рис. 1.



Рис. 1. Индекс Хирша и «хиршеобеспечивающие» публикации.


С учетом характера искажения наукометрических показателей выделяется три группы искажений: зеленая, желтая и красная. В первую категорию попадают ученые с некоторой нетрадиционной спецификой публикационной активности, во вторую – исследователи с излишней степенью «коллективизма» научного труда, и, наконец, к третьей группе относятся психологи с признаками искусственного увеличения своих показателей. Цвет группы присваивается согласно самому серьезному из нарушений (например, если ученый попал и в зеленую, и в красную группы, то он классифицируется в красную группу).

Психолог относится к зеленой группе, если:

1) доля самоцитирований в общем объеме цитирований превышает 40%;
2) доля цитирований соавторами в общем объеме цитирований превышает 70%;
3) доля таких трудов, как статистические сборники, словари, учебные пособия и т.п., в массиве хиршеобеспечивающих материалов превышает 50%.

Психолог относится к желтой группе, если:

1) доля трудов с 4 и более авторами в массиве хиршеобеспечивающих материалов превышает 70%;
2) в массиве «хиршеобеспечивающих» материалов присутствует менее 3 публикаций без соавторов, если индекс Хирша больше 30; менее 2 публикаций без соавторов, если индекс Хирша больше 15, но меньшее 31, и менее 1 публикации без соавторов, если индекс Хирша менее 15.

Психолог относится к красной группе, если:

1) присутствуют серии цитирований – как минимум на 2 работы автора (без соавторов) в перечне «хиршеобеспечивающих» материалов ссылаются не менее 3 раз из одного источника (одного выпуска журнала, сборника тезисов конференции). Для каждой из 2 работ автора источники ссылок могут различаться;
2) доля публикаций в «сомнительном» журнале, не входящем в число ведущих психологических изданий, превышает 25%. К таким журналам относятся издания, имеющие систематические серии цитирований или не менее 12 выпусков за год со статьями небольшого объема (3–5 страниц).
Исключаются из выборки (серая группа) ученые, в массиве хиршеобеспечивающих материалов которых присутствует не менее 20% публикаций в зарубежных и российских журналах непсихологического профиля. Например, психолог имеет ряд высоко цитируемых статей по медицине или геодезии. Как правило, это связано с ошибками в системе РИНЦ, вызванными некорректным переносом информации из зарубежных баз научных публикаций (игнорирование однофамильцев и полных тезок) или с несовпадением тематики высокоцитируемых работ автора с областью специализации, которую указывает в личном профиле сам автор.



Рис. 2. Распределение первой сотни психологов по группам.


Приведенные на рис. 2 данные позволяют судить о распространенности манипулятивных стратегий, позволяющих целенаправленно повышать индекс Хирша, в современном российском психологическом сообществе – 18 психологов из обследованной сотни имеют явные признаки недобросовестного повышения наукометрических показателей.



Рис. 3. Распределение первой сотни психологов по группам и типу организаций.


Более активное стимулирование публикационной активности в секторе высшего образования по сравнению с академическими организациями явно отразилось на распределении ученых по группам манипулирования (рис. 3). Симптоматично, что 30% психологов из вузов попали в красную группу.



Рис. 4. Распределение первой сотни психологов по группам в координатах «Индекс Хирша – Число цитирований».


«Черные ромбы» и линия тренда для красной группы на рис. 4 демонстрируют вполне рациональную стратегию «манипуляторов»: обеспечить максимальный индекс Хирша при минимальном количестве цитирований своих работ. Иными словами, акцент делается на достаточно равномерное повышение числа цитирований на массив «хиршеобеспечивающих» публикаций.

Представленные данные свидетельствуют о том, что большинство отечественных психологов такие стратегии пока не используют, однако доля применяющих их все же достаточно существенна и, если не будут приняты адекватные «антимунипулятивные» меры, по всей видимости, будет нарастать.


Финансирование
Исследование выполнено при поддержке Российского гуманитарного научного фонда, проект 14-03-00326а.


Литература

Адлер Р., Эвинг Дж., Тейлор П. Статистики цитирования. В кн.: Игра в цыфирь или как теперь оценивают труд ученого. М.: МЦНМО, 2011.

Гусев А.И. Российская наука и уральские ученые в зеркале цитирования. Вестник Уральского отделения РАН, 2009, 4(30), 50–59.

Иванова Е.А. Использование показателей публикационной активности ученых в практике управления наукой (обзор обсуждаемых проблем). Социология науки и технологий, 2011, 2(4), 61–72.

Маршакова-Шайкевич И.В. Научное сотрудничество России со странами ЕС: библиометрический анализ. Вестник РАН, 2011, 80(2), 124–130.

Мотрошилова Н.В. Недоброкачественные сегменты наукометрии. Вестник РАН, 2011, No. 2, 134–146.

Петров М.К. Философские проблемы «науки и науке». Предмет социологии науки. М.: РОССПЭН, 2006.

Плюснин Ю.М. Эпистемология и стратегия научного поиска. В кн.: Наука. Инновации. Образование. Выпуск 2. М.: Языки славянской культуры, 2007. С. 74–95.

Рогов С.М. Россия должна стать научной сверхдержавой. Вестник РАН, 2011, 80(7), 579–590.

Романовский М.Ю. Публикационная активность организаций естественнонаучного профиля в России и за рубежом. Вестник РАН, 2010, 80(12), 1059–1063.

Савельева И.М., Полетаев А.В. Публикации российских авторов в зарубежных журналах по общественным дисциплинам в 1993–2008 гг.: количественные показатели и качественные характеристики. М.: Высшая школа экономики, 2009.

Юревич А.В. Социальная психология науки. СПб.: РХГИ, 2001.

Fuller S. Science. Birmingham: Open University Press, 1997.

Hargens L. Using the literature: Reference networks, reference contexts, and the social structure of scholarship. American sociological review, 2000, Vol. 65, 148–163.

Price D. Little science, big science. New York: AP, 1963.

Subbotsky E. Moving from Russia to the UK: Challenges for a developmental psychologist. Bulletin of the British and East European Psychological Group, 2009, Vol. 28, 6.

Toomela A. 60 Years in Psychology Has Gone Astray. Integrative Psychology and Behavioral Science, 2007, 41(1), 75–82.


Примечания

[1] Среди сторонников следует упомянуть и НИУ «Высшая школа экономики», выступающий, по крайней мере на уровне своего руководства, в качестве одного из главных идеологов проводимых в нашей науке и системе образования реформ. Отметим и то, что аналогичное противостояние сейчас наблюдается по поводу количественных методов оценки вузов, где инициативы Минобрнауки тоже наталкиваются на сопротивление научно-образовательного сообщества.

[2] Подчеркнем, что американоцентризм создает в мире искаженную картину не только российской науки, но и науки других стран. Например, как пишет Н.В.Мотрошилова, «Мы дожили до того, что «европоцентризм», некогда господствовавший в философских оценках, все больше становится «американоцентризмом», причем такой центризм имеет отношение не только к США, но объективно дискриминирует, например, интересную и интернационально замеченную философскую мысль стран Южной Америки» [Мотрошилова, 2011, с. 10].

[3] На подобной статистике, в частности, основана шутка о том, что научные журналы существуют не для читателей научных статей, а для их авторов, давая им возможность воплощать в жизнь сформулированное Р.Мертоном кредо: «Публикуйся или гибни».

[4] В этой связи уместно вспомнить предысторию наукометрии, основателем которой по праву считается Ю.Гарфилд – ученик известного социолога Р.Мертона. Мертона однажды спросили, как он относится к новому увлечению своего ученика, на что он ответил, что в целом положительно, а предлагаемые Гарфилдом методы могут быть полезны в исследовательских целях, но не дай бог, если кому-нибудь придет в голову оценивать ученых, а тем более начислять им зарплату на этой основе. Мертон как в воду глядел…

[5]
Научную статью на английский язык, конечно, можно перевести и с помощью переводчика, но не у всякого российского ученого есть на это свободные 500 долларов.

[6] Более точное определение индекса Хирша выглядит так: ученый имеет индекс h, если h из его Np статей цитируются как минимум h раз каждая, в то время как оставшиеся (Np – h) статей цитируются не более, чем h раз каждая.

[7] Впервые данная методика в несколько измененном виде была использована автором при составлении рейтинга академической активности и популярности экономистов России (http://nonerg-econ.ru/cat/9/57/).

Поступила в редакцию 20 января 2016 г. Дата публикации: 30 апреля 2016 г.

Сведения об авторах

Юревич Андрей Владиславович. Член-корреспондент РАН, доктор психологических наук, заместитель директора, Институт психологии РАН, Ярославская ул., д. 13, корп. 1, 129366 Москва, Россия.
E-mail: Этот адрес электронной почты защищен от спам-ботов. У вас должен быть включен JavaScript для просмотра.

Юревич Максим Андреевич. Младший научный сотрудник, Институт экономической политики и проблем экономической безопасности, Финансовый университет при Правительстве РФ, Ленинградский проспект, д. 49, 125993 Москва, Россия.
E-mail: Этот адрес электронной почты защищен от спам-ботов. У вас должен быть включен JavaScript для просмотра.

Ссылка для цитирования

Стиль psystudy.ru
Юревич А.В., Юревич М.А. Наукометрические показатели научной продуктивности и их форсирование в российском психологическом сообществе. Психологические исследования, 2016, 9(46), 11. http://psystudy.ru

Стиль ГОСТ
Юревич А.В., Юревич М.А. Наукометрические показатели научной продуктивности и их форсирование в российском психологическом сообществе // Психологические исследования. 2016. Т. 9, № 46. С. 11. URL: http://psystudy.ru (дата обращения: чч.мм.гггг).
[Описание соответствует ГОСТ Р 7.0.5-2008 "Библиографическая ссылка". Дата обращения в формате "число-месяц-год = чч.мм.гггг" – дата, когда читатель обращался к документу и он был доступен.]

Адрес статьи: http://psystudy.ru/index.php/num/2016v9n46/1265-yurevich46.html

К началу страницы >>