Nequality of Scientists — New Feature of the Russian Science

Elena A. Volodarskaya,

Institute for the History of Science and Technology named after Sergey I. Vavilov,

Russian Academy of Sciences,

Moscow, Russia e-mail: eavolod@gmail.com

Vtktorta V. Kiseleva

National Research University — Higher School of Economics Moscow, Russia e-mail: vkiseleva@hse.ru

The given work is devoted the analysis of factors which brake development of personnel potential of a modern Russian science. In connection with necessity of transition to active use of knowledge as source of growth for the answer to a question on why the efforts undertaken by the state, don’t solve a personnel problem in a science, attempt to use the approaches useful in an explanation of the new phenomena in real sector of economy, but earlier inapplicable to specificity of scientific activity is made.

Keywords: personnel potential of a science, inequality of scientists, the state scientific policy, statistics of a science

Иванова Елена Александровна

кандидат исторических наук, заведующая сектором социологии науки и инноваций Учреждение Российской академии наук Социологический институт РАН, Санкт-Петербург, Россия

e-mail: eivanova@spbrc.nw.ru

Использование показателей публикационной активности ученых в практике управления наукой (обзор обсуждаемых проблем)1

В статье содержится анализ отечественных публикаций по проблеме использования библио-метрических показателей в управлении наукой. Выделены основные дискуссионные проблемы: что отражают цитат-индексы, можно ли на базе международных информационных систем делать заключения об эффективности науки различных стран, какие факторы нужно учитывать при проведении этих сопоставлений.

Ключевые слова: публикационная активность, цитат-индекс, импакт-фактор

1 Исследование выполнено при финансовой поддержке РФФИ, грант № 11-06-00410а «Ресурсно-ориентированное исследование этапов модернизации науки в России».

В последние годы в практику управления развитием научных исследований вводятся показатели публикационной активности ученых, цитат-индексы и импакт-факторы журналов. Осенью 2009 года Министерство образования и науки России (Минобрнауки) утвердило своим приказом Типовую методику оценки результативности деятельности научных организаций, выполняющих научно-исследовательские, опытно-конструкторские и технологические работы гражданского назначения. В число показателей, используемых при оценке результативности, включены: число публикаций работников научной организации в Российском индексе научного цитирования (РИНЦ), отнесенное к числу исследователей; цитируемость работников научной организации в РИНЦ, отнесенная к численности исследователей; число публикаций работников научной организации в базах реферативной информации (Web of Science, Scopus, Medline, Metadex, Compedex, Pascal, Biosis и др.), отнесенное к численности исследователей; цитируемость работников научной организации, отраженная в указанных базах реферативной информации. Принятие Типовой методики означает, что в практику управления в сфере науки в нашей стране настойчиво вводятся показатели, измеряющие публикационную активность ученых и цитируемость их статей. В ряде университетов и научных организаций России за публикационную активность научным сотрудникам и преподавателям установлены надбавки. Проект Положения о порядке установления работникам СПбГУ доплат стимулирующего характера «за публикационную активность» обсуждался в Интернете (Положение...). При обсуждении проекта этого Положения было получено 133 комментария. Как отмечено в Положении, «информация о вышедших публикациях вносится работником СПбГУ в соответствующую базу данных ИАС НИД, либо самостоятельно (с последующей верификацией внесенной информации, включая аффиляцию авторов, библиографом соответствующего отраслевого отдела Научной библиотека! им. Горького), либо путем автоматического обновления данных, имеющихся в базе данных ИАС НИД при обновлении баз данных Web of Science, Scopus или РИНЦ». Как видно, оценку деятельности ученых университета предполагается проводить на основе международных баз данных. Дискуссию вызвал один из принципов оплаты. В проекте Положения предполагается, что за статью на английском ученый получает больше баллов, чем за статью на русском языке: «Для международного издательского дома устанавливается коэффициент 2, для российского издательства, печатающего научную литературу более 10 лет — коэффициент 1,5, для издательства вуза, являющегося федеральным университетом или имеющего статус исследовательского университета — 1, для прочих издательств — 0,5».

Сторонники использования индексов цитирования при реформировании отечественной науки о применении показателей публикационной активности уже говорят как о признанном методе управления в научной сфере, используемом в других странах. «Сфера применения наукометрических методов достаточно широка. Так, во многих странах они используются для формирования научно-технической политики, а также для принятия решений о финансировании отдельных научных коллективов и исследовательских программ» (Наука о науке, 2008).

Действительно, в США и некоторых других странах при приеме ученого на работу или при предоставлении ему финансирования используются показатели цитируемости его работ, в частности индекс Хирша, и импакт-индексы журналов, в которых публиковались эти работы (см., напр., Медведев, 2010). Однако применение цитат-индексов при принятии решений о финансировании науки вызвало сильную реакцию протеста

у ученых многих стран. Обращения математиков и статистиков в свои международные профессиональные союзы стимулировали эти общества к созданию Комитета «Количественной оцени! исследований». Комитет, образованный Исполкомом Международного математического союза (1М11), Международным советом по промышленной и прикладной математике (1С1АМ) и Институтом математической статистики (1М8), подготовил доклад «Статистики цитирования» (Адлер Р., ЭвингДж, Тейлор П., 2011). Доклад посвящен возможности использования и злоупотреблениям данными цитирований при оценке научных исследований. В докладе приведены примеры лукавых приемов, которыми пользуются ученые и издатели журналов из-за того, что показатели цитирования играют важную роль в карьере ученых и получении финансирования на научные проекты, в определении импакт-факторов журналов.

Дискуссия о применяемости показателей публикационной активности развернулась и в нашей стране. Важное значение библиометрических методов для изучения истории науки, тенденций ее развития, межстранового и территориального анализа, наконец для прогнозирования возможных и наиболее перспективных направлений практически не отрицаются никем. «Цитат-анализ позволяет выявлять тенденцию развития и состояния науки, изучать межличностные отношения — информационные связи между учеными» (Наука о науке, 2008). В числе достоинств индексов цитирования обычно называют их прозрачность, доступность, объективность. Имеются также расчеты, которые показывают высокую степень корреляции между индексами цитируемости и другими формами признания ученого.

Столкновение позиций наблюдается в случаях, когда, исходя из отдельных показателей или кои креп I их расчетов, делаются далеко идущие выводы о необходимости коренных изменений в организации пауки или при финансировании проектов научных исследований.

И. Стерлигов высказал мнение, что «библиометрия очень полезна для стран, находящихся в положении догоняющих. Им трудно самим организовать нормальную научную экспертизу, а библиометрия позволяет вынести оценку на аутсорсинг. Если у ученого есть публикация в ведущем мировом журнале, значит работа прошла анонимную содержательную экспертизу у двух-трех ведущих мировых специалистов. Это особенно важно в условиях упадка собственных экспертных систем, например, ВАКовских степеней, в эпоху расцвета кумовства и групп влияния. Конечно, у библиометрии масса недостатков, и панацеей она быть не может. Тем не менее, ее применение нужно всячески развивать. Главное — делать это грамотно, иначе все достоинства нивелируются приспособленцами. Чем строже требования, тем больше польза, и наоборот» (Стерлигов, 2011а).

Отмечая увлечение российского Минобрнауки индексом цитирования, академик В. В. Козлов пишет: «Властные структуры — я имею в виду, прежде всего, Министерство образования и науки РФ — прямо-таки настаивают, что российская наука, особенно фундаментальная, якобы, не так котируется на Западе, поскольку у наших ученых нет таких высоких индексов цитирования, а у наших отечественных журналов нет высоких импакт-факторов. А отсюда вывод: с этим надо что-то делать, то есть в частности, надо активно приглашать ученых с Запада — пусть, мол, они “поднимают” российскую науку. Это странный подход, и основан он на необъективной информации» (Индекс цитирования, 2011).

В основе признания цитат-индекса одним из основных показателей эффективности работы ученого лежит простая мысль: если другие ученые ссылаются на статью,

значит ценят проведенное исследование. Но при этом возникают вопросы: что означает цитируемость? кого больше цитируют? в чем смысл цитат?

Сторонники использования показателей публикационной активности, связанные с Минобрнауки, безоговорочно поддерживают применение библиометри-ческих показателей. Ученые подходят более взвешено. Они отмечают достоинства этих показателей, подробно анализируют их содержание, границы применения, возможные злоупотребления и ошибочные интерпретации этих показателей.

Все эти аспекты, связанные с применением индексов, отражающих публикационную активность ученых, отражены в уже упомянутом докладе «Статистики цитирования». Такой подход мы встречаем и в статье Е. Д. Свердлова, увидевшей свет в 2006 г., то есть за несколько лет до доклада «Статистики цитирования». Академик согласен с мнением западных ученых, несколько ранее столкнувшихся с «тиранией цитирования» (Altbach, 2006), что некорректное распространение данных библиометрии в несвойственные ей области несправедливо по отношению к тем, кого ранжируют. Сопоставляя такие понятия, как прогресс науки, качество исследований и импакт (влияние), он приходит к выводу, что «взятый в отдельности от других составляющих, импакт показывает только, что публикация имеет какое-то влияние, но ничего не говорит о том, прогрессивное это влияние или оно приводит к сдвигу внимания научной общественности в неверном направлении и препятствует научному прогрессу» (Свердлов, 2006: 1074).

Индекс цитирования назван индексом индивидуальной «известности» в кругу научных работников, занимающихся определенной научной проблемой, и в статье члена-корреспондента РАН Ю. С. Попкова и доктора физико-математических наук Г. С. Осипова (Попков, Осипов, 2011). По их мнению, о результативности научной деятельности по этому индексу судить нельзя, так как ссылка на какую-либо статью может быть связана не с ее научной значимостью, а, наоборот, со стремлением указать на допущенные ошибки.

Перед публикацией своей статьи академик Е. Д. Свердлов обратился к коллегам с просьбой высказать замечания по рукописи статьи. При публикации замечания двенадцати его коллег с их согласия были напечатаны в постскриптуме статьи. Коллеги академика отметили, что цитирование позволяет ограничить возможности сделать карьеру в науке людям, никак в науке не проявившимся. Но при этом в большинстве отзывов сквозит скептическое отношение к использованию цитат-индексов. По их мнению, они годятся для чиновников, но не должны применяться в качестве основного инструмента при принятии решений о финансовой поддержке каких-либо направлений научных исследований или при принятии ученого на работу. Придание этому показателю таких функций влечет за собой развитие неблаговидных способов повышения индивидуальных цитат-индексов и импакт-факторов журналов. Ученые характеризуют эти способы как изощренное лукавство. Но ученые отмечают и объективные причины интереса к этим индикаторам — невозможность читать все журналы по своей области пауки, выходящие в мире, поэтому многие ограничиваются только теми журналами, которые имеют высокий ими акт-фактор. Тот, кто напечатает статью о своих результатах в местном журнале на языке коренной национальности, рискует, что его просто не заметят.

С 2001 года на сайте Scientific.ru начал функционировать проект «Кто есть кто в российской науке». Его автор — Б. Е. Штерн, который на основе данных Web of Science ежегодно обновляет списки цитируемых российских ученых. С осени 2009 года

этот проект был объединен с проектом «Корпус экспертов», и они «функционируют совместно, используя общую базу данных, в которой обновляются сведения о цитировании» (Междисциплинарный научный сервер, новый сайт). В объявлении, размещенном на этом сайте, дано предупреждение, что на индекс цитирования кроме научного уровня работ влияет множество посторонних факторов, и поэтому данный индекс не следует использовать как прямой показатель научного уровня. В предупреждении также указывается на то, что учитываются ссылки на работы из реферируемых журналов после 1985 года, не учитываются ссылки на книги и труды конференций, а также на все публикации до 1986 года, если автор не является первым в списке, а также то, что списки являются неполными (Междисциплинарный научный сервер, архивная версия).

Многие ученые отмечают, что нельзя сравнивать индексы по разным научным направлениям из-за большой разницы в специфике этих исследований. «В силу ряда причин существующие указатели цитирования не всегда полно отражают публикации ученых определенных стран. В этой связи в некоторых странах проводятся работы по формированию национальных индексов научного цитирования. Так, в 1989 г. в Китае была создана национальная база данных (Chinese Science Citation Database), насчитывающая более 1000 наименований изданий на немецком, французском, итальянском, испанском и других европейских языках. Япония и Тайвань осуществляют аналогичные проекты. В России в 2005 г. при поддержке Министерства образования и науки Российской Федерации начато формирование Российского индекса научного цитирования» (Наука о науке, 2008).

В настоящее время наблюдается широкое использование цитат-индексов при определении международных рейтингов различных организаций, в том числе вузов. В условиях борьбы за студентов, за образовательный рынок эти рейтинги имеют огромное значение. Е. Задереев обращает внимание на то, что при анализе показателей нужно обращать внимание не только на показатели всей страны, но и на показатели отдельных регионов. Некоторые регионы России, по его расчетам, показывают динамику, сравнимую с мировыми лидерами (Задереев, 2010).

Особенно острая дискуссия развернулась при обсуждении места российской науки в мировой науке. Статья доктора биологических наук А. И. Кафанова так и называется «Почему так мало цитируют российских ученых?» (Кафанов, 2007). Автор отмечает доминирование англоязычных журналов в международных информационных системах, по которым и определяются цитат-индексы и импакт-факторы, различия в гуманитарных и естественнонаучных исследованиях, национальные особенности цитирования, отличия в научных парадигмах, которых придерживаются ученые разных стран.

Большое расхождение между формальными показателями вклада российских философов в мировую науку с реальной практикой их присутствия в жизни мирового философского сообщества отмечает доктор философских наук Н. В. Мотро-шилова (Мотрошилова, 2011). «Отклонения на целые порядки цифр, которые приходится фиксировать применительно к целостной реальной картине, — указывает Н. В. Мотрошилова, — ставят под сомнение если не саму ценность расчетов WoS, то, во всяком случае, правомерность основанных на них содержательных обобщающих выводов» (Мотрошилова, 2001:141).

О неприменимости показателей, основанных на международных системах, к безапелляционной оценке состояния национальной науки пишет и А. В. Юревич

(Юревич, 2010). Он замечает, что «такие ученые, как Игорь Васильевич Курчатов и Сергей Павлович Королев, по понятным причинам, не публиковались ни в отечественных, ни тем более в международных научных журналах. Можно ли на этом основании делать вывод о том, что они не внесли вклада в мировую науку?» По его мнению, «Необходимо различать мировую науку и мировой мейнстрим научных публикаций, русло которого сформировано на Западе. Мировая наука — не этот мейнстрим, а совокупность национальных наук, какими бы не похожими на англо-американскую науку они ни были» (Юревич, 2010: 14).

В случае, когда речь идет об использовании показателей публикационной активности для оценки состояния науки в России и ее места в мировой науке, авторы многих статей привлекают внимание к техническим особенностям подсчета этих показателей. К ним относятся: приписывание индекса цитируемости только к первому автору статей, необходимость сверю! однофамильцев, различные варианты написания фамилий и названий организаций, наличие авторов, которые «забывают» указать организации, где проводились исследования или их принадлежность к государственным академиям или их отделениям (Богатов, 2006). В своей статье доктор биологических наук В. В. Богатов перечисляет еще ряд факторов, которые влияли и влияют на цитат-индексы отечественных ученых в базе данных 8С1: отсутствие средств (особенно в 1990-е гг.) на оплату публикаций и ведение переписки с издательством, традицию цитировать в основном зарубежных авторов, издательские ограничения на общее количество ссылок в статье. Этот же автор возражает против вывода, что падение доли российских публикаций в мировом потоке научных статей требует коренного реформирования, как это утверждают чиновники из Минобрнауки России. Он пишет: «Например, за период 1993—2003 гг. Япония, занимавшая 3-е место в мире по числу публикаций (а по уточненным данным — 2-е, поЧЦ [числу цитирований] оказалась на 21-м месте, Южная Корея (16-е место по числу публикаций) — на 43-м, а Китай (9-е место) оказался в предпоследней десятке среди 100 стран с наибольшим количеством статей. Отметим, что, в отличие от России, в перечисленных странах никто не сделал выводов о слабости и ненужности национальной научной сферы деятельности. Напротив, в Японии, Южной Корее и Китае государственная поддержка научных исследований лишь усилилась» (Богатов, 2006: 152).

В статье доктора экономических наук Л. М. Гохберга и кандидата экономических наук Г. С. Сагиевой так же, как и во многих других статьях, подчеркивается, что, несмотря на ряд недостатков, базы данных 8С1/88С1 являются наиболее полным и надежным библиометрическим инструментом измерения результатов научной деятельности в отдельных странах и межстрановых сопоставлений, так как содержат не только стандартные библиометрические данные мирового потока публикаций, но и проиндексированную пристатейную библиографию (Гохберг, Са-гиева, 2007). В этой же статье обращается внимание на то, что библиографические показатели ученых нашей страны в международных профессиональных изданиях имели неблагоприятную динамику уже в 1980-е годы, которая затем продолжилась и в 1990-е годы. В то же время в ряде стран, особенно в Китае, наблюдались высокие темпы роста научных публикаций, отраженных в международных информационных системах.

Острые столкновения мнений происходят при обсуждении конкретных данных о публикационной активности и цитат-индексах российских ученых. Один из

тезисов — несмотря на большой рост расходов на науку, публикационная активность российских ученых не растет такими же темпами. «Иными словами, только в РФ рост расходов на науку не ведет к росту ее продуктивности», — пишет И. Стерлигов (Стерлигов, 2008). По его мнению, расходы на науку в России выросли за 10 лет более чем в два раза, и подобную же динамику демонстрируют другие страны. Сравнивая динамику расходов на науку и динамику продуктивности, он приходит к выводу, что деньги расходуются неэффективно. И причина этого, по его мнению, заключается не только в плохом управлении системой, а в ее размерах, в том, что ученых слишком много, поэтому на каждого приходится совсем чуть-чуть. От этого и продуктивность низкая.

Часть разногласий в данных о публикационной активности ученых связана с тем, что используются разные информационные ресурсы: кто-то берет данные из более ограниченной выпорки журналов, которые используются при подготовке Указателей цитирования — Science Citation Index (SCI) и Social Science Citation Index (SSCI), а кто-то работает с базами данных SCI-Expanded и Essential Science Indicators (ESI) (Варшавский, Маркусов;), 2009). Имеются разногласия и в оценке числа исследователей в России. В некоторых публикациях число исследователей по полной занятости превышает число исследователей по головам. Ученые из ЦЭМИ полагают, что, как и в других странах с переходной экономикой, в России первый показатель должен быть меньше второго почти в 1,7 раза. (Варшавский, Маркусова, 2009).

Эти же авторы в своих статьях отмечают также то, что Россия с точки зрения учета публикаций ее авторов в международных базах данных фигурирует только с 1993 года. Большое значение имеет и то, что в области гуманитарных наук Россия в базе данных Social Science Citation Index (SSCI) представлена всего несколькими журналами (Марьсусова, Иванов, Варшавский, 2009).

В своем блоге STRF И. Стерлигов опять повторяет, что денег на науьсу государство тратит все больше, а эффективность, измеренная в публикациях, остается низкой. Но при этом он уточняет, что не меньше половины статей в серьезные научные журналы поставляет РАН, до которой доходит не так много финансов (Стерлигов, 20116).

Для того чтобы оценить эффективность российской науки, ряд авторов предлагает рассчитывать показатели публикационной активности в сравнении с затратами на науку. В ЦЭМИ РАН была разработана методика оценки результативности российской науки с учетом этого подхода (Маркусова, Иванов, Варшавский,

2009). Расчеты этих авторов, проведенные на базе последовательного пересмотра вручную 1055 наиболее высокоцитируемых статей, показали, что в 2008 г. доля РАН в массиве наиболее цитируемых отечественных статей составила 74,9 %, а по цитируемости в списке ведущих научных организаций мира Академия занимает 32 место. Те же авторы приводят данные и по международной базе Scopus, в которой рейтинге стран Большой восьмерки и КНР по количеству опубликованных статей и цитируемости за 1996—2007 годы практически совпадают с данными ESI. По их мнению, «Россия по количеству публикаций занимает 10-е место (по БД ESI — 9-е), а по цитируемости — 17-е (по БД ESI — 18-е)» (Маркусова, Иванов, Варшавский, 2009: 490).

В статьях некоторых авторов общие расходы на науку в России сопоставляются с общими данными о публикационной активности российских ученых. На этом основании делается вывод о низкой эффективности затрат на науку в России.

Но основной вклад в публикационную активность российских ученых вносят сотрудники Российской академии наук, а в затратах на научные исследования в России доля РАН и ее региональных отделений составляет всего 13,6 % (в 2008 г.). Как отмечает А. Варшавский: «В последнее время особенно много говорят о низкой продуктивности фундаментальной науки. Отметим, что затраты на ИР в РАН с региональными отделениями составили в 2008 г. примерно 55,9 млрд руб. или 13,6 % всех затрат на науку. В пересчете по ППС это меньше 3 млрд долл. Напомним, что затраты на ИР в академическом секторе США, с которым обычно сопоставляют нашу академическую и вузовскую науку, составляли в 2008 г. 51,9 млрд долл.» (Варшавский, 2011). Ученые не против применения этих показателей, но с существенными оговорками: «Если оценивать результативность науки непосредственно на выходе сферы ИР, то для прикладной науки и разработок она определяется по числу патентов, а для фундаментальной науки, хотя и не для всех ее направлений — по числу статей и ссылок. К сожалению те, кто предлагает использовать индексы цитирования и количество статей для оценки результативности науки, не соотносят их с затратами на науку» (Варшавский, 2011).

Многие авторы отмечают объективную потребность в количественных показателях для измерения результатов научной деятельности. Связано это с тем, что в XX веке занятие наукой стало массовым явлением, требующим больших материальных вложений. Док тор физико-математических наук А. И. Еусев в своей статье ссылается на данные Института научной информации (США): около 40 % мирового массива опубликованных научных статей никогда не цитируются, а из цитируемых около 70 % статей цитируются 1 раз в год, 24 % статей — 2—4 раза, около 5 % статей — от 5 до 9 раз, менее 1 % статей — 10 и более раз в год. В этой же статье приводится сравнение данных об импакт-факторах японских и российских журналов. В 1995 году из 120 японских журналов, включенных в базу данных 8С1, только 14 имели импакт-фактор от 1 до 2, а импакт-фактор остальных журналов был таким же, как у большинства российских (Еусев, 2009: 51).

В своей статье член-корреспондент РАН В. Л. Кожевников и доктор химических наук Б. В. Полякова замечают, что «низкая эффективность не является проблемой только для исчезающе малой, относительно общего количества трудоспособного населения в России, группы “работников умственного труда”» (Кожевников, Поляков, 2010: 3). Сохраняющиеся устаревшие способы и методы производства приводят к тому, что производительность труда даже в наиболее продвинутых секторах российской экономики в целом сегодня составляет лишь четверть от уровня США. Для российской науки дополнительным и постоянно действующим фактором является ее низкое финансирование. В своей статье авторы приводят данные, доказывающие, что величина числа публикаций является монотонной функцией бюджета научной организации. Для этого они сравнивают Российскую академию наук, Китайскую академию наук, Общество Макса Планка и Национальный центр научных исследований Франции. Авторы замечают, что в отличие от академий Франции и Китая в РАН значительная часть научных исследований ведется в области гуманитарных наук. Но гордиться «экономической эффективностью», по мнению авторов статьи, не стоит, так как низкое финансирование РАН сопровождается сокращением численности исследователей, особенно молодежи, старением приборов и оборудования, ветшанием зданий.

Корректно сравнивать лишь публикации научных организаций одной страны, полагает доктор физико-математических наук М. Ю. Романовский (Романовский, 2010). Он считает, что достоверность прямых методов сравнения не вызовет нареканий, если сравнивать организации одной страны. Он провел анализ всех статей российских авторов в журналах «Natur» и «Physical Review Letters» за периоды 1981—1990, 1991—2000, 2001—2010 годов. В ходе анализа всех статей ученых США и Германии им выявлялась доля статей авторов, работающих в университетах. В российских статьяхдоля университетских авторов с 1981-го по 2001 год постоянно увеличивалась, в 1981—1990 годах эта доля составляла менее 10 %, но даже в последнем периоде эта доля составляла лишь около 20 %. Причем основной вклад в долю университетов вносит Московский университет им. М. В. Ломоносова, в котором работают около 300 членов РАН. В середине 1990-х годов в США произошло значительное (иногда более чем в 2 раза) сокращение финансирования и численности исследователей гослабораторий, что привело к увеличению доли статей, представленных авторами из университетов: с 60 % в 1980-е годы почти до 70 % в 2000-е. В Германии также доля статей университетских авторов стала увеличиваться в 1990-е годы, а в 2000-е впервые превысила (ненамного) долю статей сотрудников остальных научных организаций. М. Ю. Романовский задается вопросом: оптимальна ли структура фундаментальных научных исследований, когда доля университетов в них преобладает? С точки зрения широты охвата, считает М. Ю. Романовский, это хорошо. Но, добавляет он, крупные научные проблемы всегда эффективней решались специализированными научными организациями.

Интересные сопоставления приводятся в статье О. А. Виноградова (Виноградов, 2009). Он так же, как и ряд других авторов, задается вопросом: почему рост расходов на науку в России не приводит к росту доли публикаций в международных информационных системах, отражающих научные публикации? О. А. Виноградов приводит данные о росте ссылок на статьи ученых всех стран: на английские работы их стало больше на 41 %, на американские — на 33 %, бельгийские — на 68 %, украинские — на 54 %, испанские — на 88 %. Он делает вывод, что ученые стали больше уделять внимания цитированию, то есть в каждой статье увеличилось число ссылок. Отставание темпов роста российских научных публикаций по отношению к росту расходов на научные исследования, считает О. А. Виноградов, обусловлено в значительной степени тем, что в России значительную часть исследований составляют гуманитарные (в том числе, которые проводятся в институтах госакадемий) и военные. Более справедливыми представляются автору расчеты «стоимости» одной публикации. Но и в этих расчетах нужно учитывать уже упомянутые особенности российских исследований. Публикационная активность зависит, по его мнению, не столько от роста заработной платы, сколько от общих расходов, включающих и расходы на оборудование, обслуживание и инфраструктуру.

В статье математика В. Аджиева сжато сформулированы те соображения, которые нужно учитывать, проводя сравнение данных публикационной активности по разным странам: в разных научных областях средняя цитируемость типичной статьи может различаться на порядок; что есть пути искусственного завышения и количества публикуемых статей и их цитируемости; что сравнивать развитие науки в «малых» странах, могущих себе позволить сконцентрировать ресурсы на отдельных ударных областях и темах, и в «больших», вынужденных развивать весь спектр наук,

надо с осторожностью; что, конечно же, англоязычные авторы имеют преимущество; что одна статья, на которую в свое время и внимания не обратили, в долговременной перспективе может оказаться более значимой, чем сотни других с более высокой цитируемостью (Аджиев, 2010). Но, в то же время, по мнению В. Аджиева, есть показатели, которые показывают неблагополучное положение в науке России: по данным информационной системы Thomson Reuters за 2005—2009 годы на 55 % опубликованных работ российских ученых не было ссылок, что ниже средних показателей по 40 странам. По интегральному импакт-фактору российские статьи занимают 37-е место.

Интересное рассуждение корректности расчетов об эффективности работы российских ученых мы встречаем в статье А. Крушельницкого (Крушельницкий, 2010). Он приводит такие данные — примерно четверть статей российские ученые публикуют в соавторстве с зарубежными коллегами. Зная реальную ситуацию, пишет А. Крушельницкий, можно сказать, что в подавляющем большинстве случаев совместные работы сделаны на базе западных коллег. «Очень часто, — отмечает А. Крушельницкий, — постановки задачи, ключевые решения в совместных исследованиях исходят от россиян, но при этом россияне почти всегда выступают в роли бедных родственников». Автор делает из этого вывод: «если мы хотим учитывать статьи и цитирования, которые были получены благодаря сотрудничеству с ведущими западными странами, то тогда нужно учитывать и деньги, которые они вложили в эти российские статьи и цитирования» (Крушельницкий, 2010: 1). Он отмечает также, что совместные статьи цитируются намного чаще, чем статьи только российских авторов.

Е. Онищенко полагает, что при расчете эффективности работы российских ученых нужно рассматривать структуру финансирования науки в России (Онищенко,

2010). Он обращает внимание на то, что те российские организации, которые получают в последние годы большую часть выделяемых на науку средств, имеют невысокие показатели публикационной активности. Так, в 2009 году два федеральных университета (Сибирский и Южный), ежегодно получавшие по 3 млрд руб., опубликовали около 490 статей в журналах, индексируемых Web of Science. «Не только МГУ и СПбГУ, но лидеры по публикациям из числа академических институтов — Физико-технический институт им А. Ф. Иоффе РАН и Физический институт им П. Н. Лебедева РАН — публикуют больше статей — за двумя последними институтами Web of Science насчитывает 810 и 570 статей соответственно. При этом каждый федеральный университет опережает любой из названных институтов и по объему закупок дорогостоящего оборудования, финансированию НИР, и по числу научнопедагогических работников» (Онищенко, 2010: 8). Что активно развивается в федеральных университетах, по мнению Е. Онищенко, так это «малокомпетентная, но хорошо оплачиваемая бюрократия». Далее автор констатирует, что «ситуация с публикациями в Курчатовском институте даже хуже, чем в среднем по России: в последние 10 лет происходит постепенное падение числа статей, публикуемых сотрудниками института».

Дискуссия о применении показателей публикационной активности ученых в практике управления наукой, очевидно, будет продолжаться. И, вероятнее всего, многие ее участники останутся при своем мнении. Развитие библиометриче-ских методов является объективной потребностью современной науки. Главное, чтобы эти методы не стали препятствием в ее развитии.

Литература:

Аджиев В. G7 и Россия на мировой карте науки. Показатели эффективности и качества научной продукции разных стран в 2005—2009 гг. // Троицкий вариант. 2010. 3 авг. (№ 59). С. 10-11.

Адлер Р., Эвинг Дж., Тейлор П. Статистики цитирования // Игра в цыфирь, или Как теперь оценивают труд ученого (сб. ст. о библиометрике). М., 2001. С. 6—38.

Богатов В. В. Можно ли доверять Science Citation Index? // Вестник ДВО РАН. 2006. № 6. С. 149-155.

Варшавский А. Проблемы науки и ее результативность // Вопросы экономики. 2011. № 1. С. 151-157.

Варшавский А. , Маркусова В. Результативность научного труда в России выше, чем в Америке // Поиск. 2009. 27 мая. (№ 21). С. 14.

Виноградов О. А. Место России в глобальной публикационной активности // Совет ректоров. 2009. № 4. С. 55-58.

ГохбергЛ. М., Сагиева Г. С. Российская наука: библиометрические индикаторы // Форсайт. 2007. №1(1).

Гусев А. И. Российская наука и уральские ученые в зеркале цитирования // Вестник Уральского отделения РАН. 2009. № 4 (30). С. 50-59.

Задереев Е. Библиометрия в оценке научной активности регионов и ряд мер по стимулированию научной активности // Президент России молодым ученым и специалистам : [сайт]. 22 сентября 2010 г. URL: http://www.youngscience.ru/includes/periodics/news_left/2010/0922/ 00005868/detail.shtml (дата обращения: 05.12.2011)

Индекс цитирования — инструмент, а не цель // Движение за возрождение отечественной науки : [сайт]. 14 апреля 2011 г. URL: http://www.za-nauku.ru/index.php?option=com_content& task=view&id=4067 (дата обращения: 05.12.2011)

Кафанов А. И. Почему так мало цитируют российских ученых? // Вестник ДВО РАН. 2007. №1. С. 143.

Кожевников В. Д., Поляков Е. В. Сравнительная эффективность научного труда в некоторых национальных академиях наук //Вестник Уральского отделения РАН. 2010. № 4 (34). С. 3—8. Крушельницкий А. Поделить статью на доллар // Троицкий вариант. 2010. 13 апр. (№ 51).

С. 1.

Маркусова В. А. , Иванов В. В., Варшавский А. Е. Библиометрические показатели российской науки и РАН // Вестник Российской академии наук. 2009. Т. 79. № 6. С. 483—491.

Междисциплинарный научный сервер Scientiflc.ru — http://www.expertcorps.ru/science/ whoiswho/ (новый сайт); http://www.scientiflc.ru/whoiswho/whoiswho.html (архивная версия сайта).

Мотрошилова Н. В. Недоброкачественные сегменты наукометрии // Вестник РАН. 2001. Т. 81. №2. С. 134-146.

Медведев Ю. Кому прописать Хирша // РАН. СО РАН. Сибирь. Дайджест прессы. № 14. 19.10-08.11.2010. URL: http://www.prometeus.nsc.ru/science/digest/2010-212.ssi (дата обращения: 05.12.2011)

Наука о науке : беседа Д. Мисюрова с заместителем руководителя Института статистических исследований и экономики знаний Государственного университета — Высшей школы экономики, директором Международного научно-образовательного Форсайт-центра, кандидатом физико-математических наук А. С. Соколовым и кандидатом педагогических наук, старшим научным сотрудником Форсайт-центра Н. А. Слащевой //В мире науки. Март. 2008. № 3. URL: http://www.sciam.rU/2008/3/tendation.shtml (дата обращения: 05.12.2011)

Онищенко Е. Модернизация и наука // Троицкий вариант. 2010. 30 марта (№ 50). С. 8. Положение о порядке установления работникам СПбГУ доплат стимулирующего характера. 1 марта 2011 г. URL: http://csr.spbu.ru/archives/28335 (дата обращения: 05.12.2011).

Попков Ю. С., Осипов Г. С. Мифы и реалии РАН // Вестник Российской академии наук. 2011. Т. 81. №3. С. 237-243.

Романовский М. Ю. Публикационная активность организаций естественнонаучного профиля в России и за рубежом // Вестник Российской академии наук. 2010. Т. 80. № 12. С. 1059-1063.

Свердлов Е. Д. Миражи цитируемости //Вестник Российской академии наук. 2006. Т. 76. № 12. С. 1073-1085.

Стерлигов И. Россия в зеркале научной публикационной активности // Экспертный канал «Открытая экономика». 14 марта 2008. URL: opee.ru>628896.html (дата обращения: 05.12.2011) Стерлигов И. «Стратегия 2020»: ученым некогда // Московские новости. 2011. 20 мая. URL: http://www.mn.ru/newspaper_opinions/20110520/302005867.html (дата обращения: 05.12.

2011). (а)

Стерлигов И. Где в России пишут лучшие научные статьи по физике // Ivan Sterligov : блог 4 октября 2011 г. URL: http://blogs.strf.ru/blog/142.html (дата обращения: 05.12.2011). (б).

Юревич А. В. Вносить или выносить? К проблеме оценки вклада российской науки в мировую // Независимая газета. 2010. 27 окт. С. 14.

Altbach P. G. The Tyranny of Citations. 8 мая 2006 г. URL: http://insidehighered.com/views/ 2006/05/08/altbach. (дата обращения: 05.12.2011).

The use of indicators of publication activity of scientists in the practice of science management (review of the issues discussed)

Elena A. Ivanova

PhD

Department of Sociology of Science and Innovations: Department Head Sociological Institute of the Russian Academy of Sciences, St Petersburg, Russia e-mail: eivanova@spbrc.nw.ru

The paper contains an analysis of national publications on the use of bibliometric indicators in the management of science. Discussion highlights the main problem: what reflect citation indexes, whether on the basis of international information systems to draw conclusions about the effectiveness of science in different countries, what factors should be considered in making these comparisons.

Keywords: Publication Activity, citation index, impact factor

ИЗ АРХИВА НАУКОВЕДЕНИЯ

С любезного разрешения Гали Дмитриевны Петровой, хранительницы архива Михаила Константиновича Петрова, редакция продолжает публикацию статей из архива. Предлагаем вниманию читателей работу М. К. Петрова, открывающую цикл ранее не публиковавшихся науковедческих статей исследователя, который будет опубликован в ближайших номерах.

Петров Михаил Константинович (1924-1987)

Постулаты человекоразмерности, теоретическая интерпретация истории и информационное значение источника

То, что мы называем историей, будь то всемирная или разнесенная по «дисциплинарным профилям» история живописи, философии, кибернетики, химии, наука!, имеет парную объективно-субъективную размерность.

С одной, объективной стороны, история выступает как некоторое множество событий, отмеченных координатами пространства и времени: Пруссия под пятой Наполеона; случайная встреча Александра Гумбольдта с Юстусом Либихом в Париже; бедность мини-государства Гессе-Кассель, не позволявшая выделить кафедре химии в университете Гиссена более одной комнаты-аудитории; раздраженные письма Ольденбурга претендентам на публикацию в «Философских записках», — все это, бесспорно, было, если не подводит человеческая память, если не врут документы и изучающие их историки.

С другой, субъективной стороны, любая преподанная нам история есть нечто связное, объясняющее, что из этого, вот, и этого, случившегося тогда-то и там-то, произошло вот это. Формируя наши представления об историческом процессе, историки волей-неволей придают ему черты человекоразмерности, укладывают пестроту и многообразие объективных событий эпохи в прокрустово ложе субъективной ментальной «вместимости» — целостности, единства апперцепции, полноты представления, непротиворечивости, оценок на значимость, актуальность, информативность, доказательность. И хотя большинство историков ревностно исповедует научность, стремится свести к минимуму субъективность, снять следы своего авторского присутствия в предлагаемых исторических картинах, реальное соотношение объективного