Проходимцам станет легче набрать публикационные баллы, в то время как качественные научные работы останутся недооцененными? Анна Абалкина, Андрей Заякин, Андрей Ростовцев и вольное сетевое сообщество «Диссернет» рассказывают о том, почему, на их взгляд, оценка эффективности научной работы сделана в интересах нечестных ученых. С ними дискутируют Аскольд Иванчик и Ольга Богомолова.
Приставленный к российской науке чиновник нашел в свое время простое решение задачи повышения эффективности работы ученых. Вместо того, чтобы дать побольше денег и не мешать профессионалам, чиновник решил измерять результаты научной деятельности. И добро бы это делалось по уму — с независимой экспертной оценкой результатов, с учетом их востребованности мировой наукой. К сожалению, чиновник до такой тонкой мысли додуматься не может. В итоге чиновник решает мерять эффективность ученого валовым «урожаем» научных статей.
В майских указах президента и государственной программе РФ «Развитие науки и технологий» в основу критериев было положено увеличение доли публикаций российских ученых в международной базе цитирования Web of Science и число публикаций в журналах наукометрической базы Scopus. Не предполагалось учитывать ни специфику научной дисциплины (где-то принято писать больше статей, где-то — монографий), ни характер коллабораций (в экспериментальной физике высоких энергий нормальны коллаборации в сотни человек; в гуманитарных науках более типичны индивидуальные статьи), ни уровень журнала, в котором опубликованы работы.
В материале «Новой газеты» «Пиши, Емеля» [1] подробно рассказано, как бездумная наукометрия привела к возникновению рынка фальшивых публикаций — через госзакупки заказывались статьи по количеству печатной площади, квадратным метрами. Публиковались эти статьи в так называемых «хищных» журналах — то есть изданиях, которые публикуют тексты за плату и без должного рецензирования. Эти журналы издаются, как правило, в развивающихся странах, попадают в международные базы цитирования и тем самым извлекают выгоду, публикуя множество некачественных статей. В итоге казенные деньги тратились на издание статей с плагиатом и научным подлогом.
Александр Герцен писал в «Былом и думах» по тому же поводу: «Подряды статей делаются в министерствах так, как подряды на дрова и свечи, только без переторжки; недостатка в общих отчетах, выдуманных цифрах и фантастических выводах не бывает». Банальным будет замечание, что в России за два века ничего не поменялось.
Однобокую наукометрию неоднократно ругали в профессиональных кругах. Ее пытались модифицировать — скажем, вводить коэффициенты, учитывающие уровень научного журнала. Такую шкалу удобнее всего привязать к так называемым «квартилям» базы Web of Science. Лучшие журналы из этой базы разделены по научным направлениям на 3 научных индекса (списка): SCIE, SSCI, AHCI (соответственно: естественные, социальные и гуманитарные), а журналы по естественным и социальным наукам также разделены на 4 набора — «квартиля» в зависимости от того, насколько активно статьи в этих журналах цитируются другими учеными. Журналы по гуманитарным наукам (они входят в индекс AHCI) не ранжируются по квартилям.
Не самые сильные журналы не получают никакого квартиля. Связано это иногда с их недавним существованием на рынке и отсутствием сложившейся репутации — такие журналы входят, в частности, в индекс Emerging Sources Citation Index (ESCI), покрывающий издания в основном из развивающихся стран. Помимо вышеперечисленных, Web of Science создает отдельные индексы для национальных журналов различных стран, в частности, такие индексы были введены для Росcии (RSCI), Китая, Южной Кореи и ряда других стран. Для этих журналов квартиль также не рассчитывается.
В шкале Минобрнауки, по которой до недавнего времени предлагалось оценивать эффективность работы ученых, публикация в журнале I квартиля наукометрической базы Web of Science (WoS) оценивалась в 19 раз выше, чем в журнале IV квартиля (т. е. квартиле «худших» журналов, «худшие» здесь в кавычках, так как издания, которым Web of Science присваивает хоть какой-то квартиль, — это уже, повторим, неплохие журналы). Россия представлена среди качественных журналов Web of Science, которым присвоен какой-либо квартиль, около 150 журналами из примерно 9 тысяч.
Этой спущенной из Минобрнауки шкалой, которая дает хорошие баллы только за журналы высокого квартиля, возмущались представители гуманитарных и социальных наук. Лишь единицы отечественных журналов по этим направлениям имеют присвоенные Web of Science квартили. Почему это происходит?
В социальных науках Россия значительно отстает от мирового уровня, и, как показывает многолетний анализ Диссернета, именно социальные науки лидируют по количеству диссертаций и статей с плагиатом в России. Помимо этого, в редколлегии целого ряда российских журналов присутствуют представители диссеродельного бизнеса. На сегодняшний день всего три российских журнала смогли пробиться в индекс социальных наук и получить в нем квартили: два журнала по психологии и один — по социологии.
Что же касается журналов гуманитарной направленности (история, филология, философия), то таких журналов, которые входят в соответствующий индекс Arts & Humanities Citation Index, около десяти. Но к нему не привязаны квартили и никогда не будут привязаны — не из-за качества журнала, а по определению тематики базы.
Поэтому возмущение гуманитариев и людей из общественных наук имеет разную природу: одних действительно дискриминировала система, которая не была предназначена для оценки гуманитарных дисциплин, другие так угробили свое поле деятельности, что России нечего предъявить международному научному сообществу. В итоге ни те, ни другие не могут набрать баллов в «квартильных» журналах.
На прошлой неделе эта ситуация наконец-то изменилась. 23 апреля 2020 года на онлайн-заседании рабочей группы с участием Минобрнауки, РАН и других организаций были приняты новые критерии оценки публикации ученых. Для гуманитарных и общественных наук была введена отдельная шкала баллов, более плоская в отличие от остальных направлений. Проиллюстрируем на примере оценки журналов (мы не будем рассматривать оценку монографий).
Если раньше от «общественников» и гуманитариев требовали недосягаемых высот — попадать в квартильные журналы, то теперь практически за любые статьи они получают по 3 балла, включая статьи в иностранных «хищных журналах» (их надо искать в строчке «WoS без импакт-фактора» или Scopus). То есть 7 раз заплатив по 500 долл. за сплагиаченную статью, переведенную гуглопереводчиком, можно получить балл лучший, чем биолог или физик получит за претендующую на уровень мирового открытия работу в Nature (см. табл. 1).
Таблица 1. Оценка комплексного балла публикационной результативности
Журналы |
Все направления, кроме гуманитарных и общественных наук |
Гуманитарные и общественные науки |
---|---|---|
Q1 WoS |
20 |
3 |
Q2 WoS |
10 |
3 |
Q3 WoS |
5 |
3 |
Q4 WoS |
2,5 |
3 |
WoS без импакт-фактора |
1 |
3 |
Scopus (не входящий в WoS) |
1 |
3 |
RSCI |
1 |
3 |
ВАК |
0,12 |
1 |
В отличие от оценки публикаций ученых естественнонаучного направления, где баллы пропорциональны научному весу журнала, в гуманитарных и общественных науках планируется ввести плоскую шкалу оценки научных публикаций, независимо от квартиля журнала и базы цитирования, к которой журнал принадлежит. Так, публикация в I квартиле WoS, куда входят самые высокоцитируемые и сильные иностранные журналы, приравнивается к статье в каком-нибудь венесуэльском журнале из Scopus, который за 500 долл. публикует тексты, переведенные гуглопереводчиком. И даже более того, три короткие статьи в журналах ВАК, могут быть приравнены к статье в Science, где также публикуются гуманитарии и «общественники».
Итого — увы, в гуманитарных науках нет возможности автоматического выделения «хороших» и «плохих» журналов. В социальных науках такие способы в принципе есть, но многим нашим ученым сложно попасть в «хорошие».
Отметим, что для естественников балл за статью в ВАКовском журнале, не входящем в WoS, оценен в принципе разумно — мы знаем, что механизм формирования списка ВАК в значительной степени коррупционен и, строго говоря, публикации в нем надо было бы оценивать сильно ближе к 0, чем к 1. Некоторые из авторов настоящей статьи многократно получали свидетельства о том неприличном напоре, с которым руководство ВАК продавливало через Президиум ВАК решения о внесении в этот список явно негодных журналов, руководимых представителями диссеродельных фабрик и их покровителями в экспертных советах.
Новая шкала комплексного балла публикационной результативности, к сожалению, неадекватно учитывает реальный вклад сильных ученых общественного или гуманитарного направлений и открывает множество возможностей для проходимцев от науки. Так, недобросовестные ученые могут беспрепятственно публиковаться в журналах-«хищниках», которые принимают статьи без должного рецензирования. Журналы в свою очередь берут плату за публикацию.
Такие иностранные журналы-«хищники», как правило, индексируются в Scopus и базе ESCI WoS. На сегодняшний день существует множество компаний-посредников, которые не только помогут разместить статью в таком журнале-«хищнике», но и продать соавторство в уже готовой статье. Это достаточно выгодный бизнес как для журналов и компаний-посредников, так и российских ученых, которые могут получать соответствующие надбавки за публикации в журналах, индексируемых в международных базах данных.
Проиллюстрируем применение данного инструмента оценки на нескольких примерах (см. табл. 2).
Таблица 2. Количество публикаций в журналах, индексируемых в Scopus
|
Институт проблем рынка РАН |
ЦЭМИ РАН |
||
№ п/п |
Журналы, индексируемые в Scopus |
Количество статей |
Журналы, индексируемые в Scopus |
Количество статей |
1 |
Economy Of Region |
10 |
Biomedical Engineering |
34 |
2 |
Programming And Computer Software |
10 |
Applied Econometrics |
28 |
3 |
Iop Conference Series Materials Science And Engineering |
8 |
Вопросы экономики |
27 |
4 |
Matec Web Of Conferences |
5 |
Mathematical Notes Of The Academy Of Sciences Of The USSR |
20 |
5 |
International Journal Of Civil Engineering And Technology |
4 |
Theory Of Probability And Its Applications |
19 |
6 |
International Journal Of Recent Technology And Engineering |
4 |
Mathematical Social Sciences |
18 |
7 |
Studies On Russian Economic Development |
4 |
Journal Of Mathematical Economics |
17 |
В таблице сравниваются входящие в базу данных Scopus журналы, на которые приходится максимум совокупной многолетней публикационной активности каждого из двух институтов РАН: Института проблем рынка (ИПР) и Центрального экономико-математического института (ЦЭМИ). Если сотрудники ИПР РАН в основном публикуются в сборниках конференций, а также «хищных» журналах (например, International Journal Of Civil Engineering And Technology), то сотрудники ЦЭМИ РАН выбирают журналы значительно более высокого научного уровня.
Однако в соответствии с новой методикой публикациям двух институтов будут присваиваться одинаковые баллы за каждую статью, несмотря на очевидный разрыв в уровне журналов. Это не будет стимулировать публикации в более престижных изданиях, с одной стороны, а также будет способствовать перераспределению бюджетных денег в сторону недобросовестных практик — с другой.
Другой пример касается образовательных организаций. В таблице 3 сравниваются публикации сотрудников Казанского федерального университета (КФУ) и Московского государственного университета (МГУ) в области социальных и гуманитарных наук по 12 журналам, лидирующим в числе изданий, которые выбирают сотрудники данных университетов для публикации.
Таблица 3. Оценка публикаций в журналах, индексируемых в WoS
|
Казанский федеральный университет |
Московский государственный университет |
||
№ п/п |
Журналы, индексируемые в WoS |
Количество статей |
Журналы, индексируемые в WoS |
Количество статей |
1 |
Modern Journal Of Language Teaching Methods |
364 |
Вопросы философии |
279 |
2 |
Turkish Online journal Of Design Art And Communication |
234 |
Вопросы психологии |
259 |
3 |
Revista Publicando |
170 |
Психологический журнал |
218 |
4 |
Tarih Kultur Ve Sanat Arastirmalari Dergisi Journal Of History Culture And Art Research |
168 |
Социологические исследования |
215 |
5 |
Revista Genero Direito |
152 |
Вопросы истории |
112 |
6 |
Dilemas Contemporaneos Educacion Politica Y Valores |
126 |
Вопросы теории и практики журналистики |
75 |
7 |
Revista San Gregorio |
116 |
Филологические науки. Научные доклады высшей школы. |
67 |
8 |
Journal Of Research In Applied Linguistics |
111 |
Psychology In Russia State Of The Art |
66 |
9 |
Amazonia Investiga |
78 |
История. Электронный научно-образовательный журнал. |
65 |
10 |
Turismo Estudos E Praticas |
68 |
Вопросы экономики |
63 |
11 |
Eurasia Journal Of Mathematics Science And Technology Education |
36 |
Отечественная история |
52 |
12 |
European Journal Of Science And Theology |
27 |
Российская история |
50 |
|
Итого баллов |
4950 |
|
4563 |
Казанский федеральный университет (КФУ) известен массовой закупкой «слотов», т. е. мест для публикаций в «мусорных» журналах. Анализ журналов по гуманитарным и социальным наукам, в которых публикуются сотрудники КФУ, показывает, что они в основном «хищные». В данных журналах содержится множество недобросовестных публикаций российских авторов. Такие журналы в основном зарегистрированы в Латинской Америке и Турции.
Заметим, что в данном списке нет ни одного российского журнала. В отличие от КФУ сотрудники МГУ публикуются в основном в российских журналах, которые индексируются в RSCI или SSCI и которые, несомненно, выступают журналами с более высокой научной репутацией. Однако оцениваться такие публикации будут одинаково. Этот пример красноречиво показывает, к чему может привести создание финансовых стимулов за публикации низкого качества в низкосортных журналах.
Именно социальные и гуманитарные науки являются лидерами по количеству недобросовестных диссертаций и статей в России. Причем это характерно и для институтов РАН. По нашим даже самым скромным оценкам, число публикаций российских авторов в иностранных «мусорных» журналах (не считая сборников конференций) оценивается примерно в 5000 статей в год. Равная оценка журналов разного научного потенциала дает преимущество научным проходимцам и не создает стимула публиковаться в сильных журналах.
Распространение журналов-«хищников» в журнальных базах требует вводить более специфические фильтры для оценки публикаций российских ученых. То есть помимо дифференцированной балльной оценки для социальных и гуманитарных наук следует вводить нулевой балл для публикаций в «мусорных» журналах и таким образом ликвидировать стимулы в них публиковаться.
Коль скоро состояние науки в стране не позволяет подключить широкое экспертное сообщество к формированию профессиональной оценки публикационной активности, то очевидна необходимость «фильтра» поверх международных научных баз данных, чтобы исключить возможность массовой закупки баллов для «Комплексного балла публикационной результативности» в иностранных и российских хищных журналах.
- «Пиши, Емеля» // «Новая газета», № 45 от 24 апреля 2019 года.
«Лекарство не должно быть хуже болезни»
С просьбой прокомментировать данную статью мы обратились к докт. ист. наук, члену-корреспонденту РАН Аскольду Иванчику. Публикуем его отзыв.
Я не могу согласиться с тем, что ситуация с оценкой публикационной активности в гуманитарных науках в новом варианте методики, предлагаемой Минобрнауки, ухудшилась по сравнению с прежним. Наоборот, если прежняя система для гуманитарных наук не подходила совершенно, то новая вполне может использоваться. Авторы статьи сами пишут, что гуманитарным журналам в WoS квартили не присваиваются в принципе и, соответственно, с точки зрения этой базы все они равны между собой. Поэтому, если опираться на эту базу, использование плоской шкалы неизбежно.
Scopus ранжирует гуманитарные журналы по квартилям, и, на мой взгляд, эти данные можно было бы учитывать. Однако этой базе, насколько я понимаю, не доверяют представители естественных наук, что мешает использовать ее наравне или вместо WoS. Впрочем, и тут есть свои сложности, прежде всего нестабильность ранжирования по Scopus: некоторые журналы могут за год переместиться из третьего квартиля в первый и наоборот.
В статье ничего не говорится о другом важном отличии нового варианта системы оценки от старого. В старом практически игнорировались монографии, главный для гуманитарных наук вид публикаций: монография ценилась в 20 раз меньше, чем любая статья в первом квартиле WoS, что совершенно абсурдно. В новом же предлагается относительно адекватная их оценка (один лист приравнивается к одной статье). Правда, вопрос о том, как отделить автоматически монографию хорошего уровня от псевдонаучной, не решен, но он, на мой взгляд, и не имеет убедительного решения. Предложенный вариант экспертной оценки монографий силами РАН представляется единственно возможным в нынешней ситуации. Как бы то ни было, адекватная оценка именно монографий жизненно важна для гуманитарных наук.
Существенным недостатком этой статьи, на мой взгляд, является то, что в ней постоянно смешиваются гуманитарные и социальные науки. Это, к сожалению, типично и для научных чиновников, и для ученых, представляющих точные науки. В то же время ситуация в них совершенно разная, что находит отражение и в разном отношении к ним составителей WoS. Если для гуманитарных журналов квартили не рассчитываются в принципе, то для представляющих общественные науки это делается так же, как и для журналов по естественным наукам.
Во время моей работы в Совете по науке при прежнем Минобрнауки, который, к сожалению, так и не был воссоздан при новом министерстве, его члены, представлявшие гуманитарные и социальные науки, постоянно боролись против этого смешения.
В частности, коллеги, представлявшие социальные науки, замечали, что с точки зрения публикационной активности и ее оценки социальные науки гораздо ближе к естественным, чем к гуманитарным, и для них следует использовать те же методы, что и для естественных. Эта позиция нашла отражение и в документе об особенностях оценки научной работы в гуманитарных науках, принятом Советом и опубликованном на его сайте [1]: в нем специально оговорено, о каких дисциплинах идет речь, и социальные науки, по настоянию их представителей, в этот список включены не были. Не будучи специалистом в области социальных наук, не берусь судить о том, насколько такой взгляд является общепринятым, но приводившиеся тогда аргументы мне показались вполне убедительными.
Главным возражением авторов статьи против новой методики является присутствие в «нижних» строках WoS и Scopus «хищнических» журналов, в которых за деньги публикуются жульнические статьи: плоская шкала не позволяет их автоматически отличать от журналов «верхних» строк рейтинга, где таких журналов нет. Но в действительности не позволяет их различать не плоская шкала, а сами особенности учета в WoS: для гуманитарных журналов в этой базе никаких верхних и нижних строк нет, так что плоская шкала просто отражает эту особенность.
Это возражение, впрочем, не относится к социальным наукам, для которых учет квартилей в WoS, возможно, уместен. Кроме того, само наличие «хищнических» журналов в базах WoS и Scopus, пусть и на нижних строках, должно быть большой проблемой для этих баз, и именно они должны заниматься очищением своих данных от них. Если этого не происходит, единственный выход — отказаться от их использования как дающих недостоверную информацию, по крайней мере для гуманитарных наук. Замечу все же, что число гуманитарных журналов низкого уровня, попадающих в WoS и Scopus, не так уж велико (хотя они, безусловно, есть), во всяком случае по сравнению с теми, что включены в список ВАК. Разница в учете журналов из WoS и Scopus, с одной стороны, и из списка ВАК — с другой, в новом варианте методики сохранена, и это правильно.
В заключение скажу еще, что никакие меры по борьбе с жуликами не должны делать невыносимой жизнь честных ученых — в противном случае лекарство становится хуже болезни. А первый вариант обсуждаемой методики ставил гуманитарных ученых именно в такое невыносимое положение. Поэтому новый вариант, которого удалось добиться, насколько я знаю, главным образом усилиями Историко-филологического отделения РАН, представляет собой безусловный прогресс. Вопрос же о том, насколько новая методика хороша для оценки социальных наук, лучше прокомментируют специалисты в этой области, каковым я не являюсь.
«Наукометрия — лишь инструмент, а не универсальный критерий»
С просьбой прокомментировать данную статью мы обратились к советнику вице-президента РАН, члену рабочей группы по установлению единых требований к порядку формирования и утверждения госзадания Минобрнауки России Ольге Богомоловой.
Конечно, наукометрия — это всего лишь инструмент, а не универсальный критерий. Да, практически любой инструмент может быть использован во зло и не по назначению, но это не значит, что им в принципе не надо пользоваться.
Независимая экспертная оценка результатов научной деятельности — это очень хорошо, но требует значительных временных и финансовых ресурсов. А востребованность наукой — как отечественной, так и мировой — практически невозможно оценить на коротком промежутке времени. Использование наукометрии и, в частности, грубого определения качества научной статьи по уровню цитируемости журнала, в котором она опубликована, перекладывает часть нагрузки с плеч организации, вынужденной оценивать результаты (в данном случае — Минобрнауки), на плечи редколлегий журналов и рецензентов статей.
Дело не в том, что цитирование — абсолютный признак качества (это не так), а в том, что высокоимпактные журналы в среднем имеют больший выбор, что печатать. Если статья была отобрана из множества поданных, прошла рецензирование и была опубликована в хорошем журнале, можно предположить, что она хорошая. Бывают исключения, но на больших масштабах это работает неплохо.
Тот самый «приставленный к науке чиновник» существует в рамках нашего государства, с его законами, государственными программами, указами Президента и пр., а также — с прописанными в этих документах требованиями к отчетам и срокам их подачи (в частности — за финансирование в рамках государственного задания).
Методика, обсуждающаяся в статье, относится к расчету «комплексного балла публикационной результативности» (КБПР) научных организаций, качественного показателя отчета по государственному заданию. Речь идет о том, как считать плановый показатель, и о том, как научным институтам его потом выполнять. Рассчитывается он в любом случае по данным прошлого года (прошлых лет), а разница в балльной «стоимости» разных типов публикаций призвана не столько отразить реальную разницу между ними, сколько склонить чашу весов при выборе между количеством и качеством публикаций в сторону качества. Так, по крайней мере, в естественных науках, опубликовать статью в первом квартиле значительно сложнее, чем в четвертом — как правило, для этого нужно больше времени, больше экспериментов, больше материалов, больше методов, больше соавторов, владеющих этими методами. Поэтому если есть некий результат и стои́т выбор — публиковать его сейчас и в журнале пониже квартилем или еще обдумать, доработать и отправить в журнал повыше квартилем — большие баллы за публикацию в высококвартильном журнале, по логике, должны стимулировать выбор в пользу «доработать».
Разница между абсолютными значениями количества баллов, присваиваемых публикациям того или иного типа для «естественников» и «гуманитариев», не имеет значения, потому что при расчете плановых значений КБПР институтов учитываются средние показатели по области науки. То есть химические институты сравниваются с химическими, а исторические с историческими, никогда и никто не сравнивает напрямую биологов и филологов.
Что касается «хищных» журналов, конечно, проблема недобросовестных изданий, попадающих в международные базы данных стоит очень остро, и ее необходимо решать. Конечно, было бы хорошо их отфильтровать, но это большая и сложная задача, требующая усилий множества людей. Будем надеяться, что это удастся сделать.
Что же касается вузов — в этом году формула расчета КБПР их не касается, а к следующему, будем надеяться, она будет доработана с учетом их специфики и уже накопленного опыта.
Можно только приветствовать изменение позиции Миннауки по оценке публикационной активности. Благодаря усилиям историко-филологического отделения РАН. Близорукое высокомерие авторов «основной» статьи по отношению к ученым гуманитарного профиля, непонимание специфики исследований историков, филологов и др. вызывают неприятие. Позиция Аскольда Иванчика выглядит куда более убедительной. Для отбраковки иностранных хищнических журналов можно было бы составлять «черные» списки, используя наработки «Диссернета» и АНРИ, разумеется.
А не пора ли создать «народный» рейтинг научных журналов? Или он уже есть, но не все представители этого самого народа знают о его существовании? Но я говорю именно о доступе каждого представителя научного сообщества к оцениванию изданий, а не о создании формируемых по непонятным принципам «групп экспертов» по направлениям, которых и сейчас полно.
elibrary.ru когда-то проводил опрос пользователей для оценки качества российских журналов https://elibrary.ru/titles_compare.asp
То был опрос не пользователей, а экспертов, чтобы наполнить и затем корректировать участников RSCI. Экспертов выбирали по неясным критериям публикационной активности. В результате в отдельных областях звездили журналы Вышки, которая за счет пропихивания в RSCI своих журналов успешно выполняет задание на публикационную активность. Например, в области экономики в RSCI из 27 журналов у МГУ -1, у РАН — 2, у СПБГУ -2, а у Вышки там сразу 5 журналов. Т.е. Вышка прямо контролирует пятую часть таких журналов, несоразмерно доле ее преподавателей-экономистив в сравнении с несколькими другими ведущими университетами. По аналогии со статьей Диссернета «ВАК в плену у ФСБ», вполне нужна статья «RSCI в плену у ВШЭ».
Поскольку я тогда попал в «эксперты», видимо единственный раз в жизни, то планка была невысока.
У меня также пара коллег попала в эксперты, но знакомые из Вышки говорили о более половины их преподавателей с составе экспертов. Вроде критерием попадания в эксперты было количество публикаций в журналах верхнего дециля по импакт-фактору. Также говорили об устном указании голосовать за свои журналы и никак не голосовать за журналы ближайших конкурентов. Например, очень низкие баллы почему-то получил журнал «Финансы и кредит» одноименного издательского дома, который имеет намного более длинную историю и более интересные публикации, чем вышкинские «Корпоративные финансы». У Вышки получается самовоспроизводящийся мультипикатор: статьи ее авторов охотно берут наши ведущие журналы, поскольку цитирование таких статей в других ведущих журналах другими преподавателями Вышки вполне ожидаемо, а значит импакт будет хорошим именно за счет цитирований ядра РИНЦ. Вот было бы интересно посмотреть процент самоцитирований Вышки в RSCI и Scopus в сравнении с другими — если не ошибаюсь, когда то такой показать выводили и по организациям.
У экономистов всё не как у обычных людей.
Народный рейтинг давно создан. Называется импакт-фактор. Все представители «народа» постоянно участвуют в голосовании по вопросу о том, в каких изданиях больше полезных статей, которые стоит цитировать.
Какая однако горячая дискуссия … частично правда напоминает ситуацию как если бы в камере смертников обсуждали как лучше когда вешают — на намыленной пеньковой веревке, или на современной синтетической. Понятно но же, что обсуждаемый сюжет — вопрос выбора решения «лучшего их худших», и что все это вторично — от политического режима в стране и от экономической ситуации.
Ссылки на политический режим суть просто оправдание ничегонеделания. Политический режим сам по себе не сменится. И от смены политического режима дельцы и разгильдяи не испарятся волшебным образом.
Лично мне кажется актуальнее при первом возможном случае пищать о парадоксе Ферми, самоуничтожении, статистике вируса, авторитаризме и тоталитаризме, а не по поводу деталей учета квартилей … впрочем, это мои личные «пристрастия»
Да, личные пристрастия у нас отличаются. Я предпочитаю вкладываться в наведение порядка вокруг себя. В лаборатории, институте… В той зоне, на которую я могу хоть как-то ощутимо влиять. Таково мое понимание опыта 90х годов. Изменение политического режима именно потому и провалилось с треском (по моему разумению), что напоминало картину «ветер в лесу». Ветры шумят, шишки падают, верхушки качаются, а внизу — тишина… Много пищали о парадоксе Ферми, авторитаризме и тоталитаризме, но не обращали внимание на то, что непосредственно вокруг творится. В результате, если сравнивать с поздним СССР, то область науки поменялась чуть ли не меньше всего (на правах ИМХО). А ведь ученые — далеко не самые отсталые и консервативные люди (по идее).
Ну, по поводу тишины внизу … это Вы сгоряча. Да, был такой анекдот, но он НЕ к 90-ым, а ко второй половине 80-х. В 90-х «трещало» на всех уровнях. И, кстати, и в научном мире изменения весьма значительные. Все же до 90-х и в научном мире «де юре и де-факто» всем распоряжались дирекция и администрация. Вы даже статью не могли послать без ее — хоть формального — одобрения. Согласитесь, что сейчас совсем не так. И это пришло в 90-х. Самостоятельность резко выросла — для успешно работающих по грантам-проектам — лишь часть зарплаты в хоть какой зависимости от администрации. И даже в 90-х этого было больше … все же госмонополия и бюрократия взявшая реванш в стране пришла и в науку.
Оценивать масштаб произошедших изменений — дело неоднозначное. В чем-то есть перемены, в чем-то все осталось как было. И везде по-разному. Но точно знаю одно. Произошедшие перемены — не от тех, кто пищал про парадокс Ферми. А от тех, кто делал конкретное дело. В меру разумения и возможностей.
Кстати, Вы помните великие баталии при создании РФФИ? Как академия старалась подмять этот источник под себя? И сколько стоило отстоять независимость (весьма условную) от генералов?
Независимость полковников…
Step by step… Дого и кропотливо. Иначе быть не может (ИМХО).
Да нет. Там образовалось многочисленное болото — богадельня со смешными деньгами на каждого
Это про РФФИ? Согласен. Но я как раз о том, что все встало. А надо развивать систему грантов, рецензирования, независимой оценки. Долго и кропотливо. Это не дом, который можно построить ударными темпами. Это дерево, которое надо постоянно растить, поливать, подстригать, защищать от паразитов.
Согласен. Но сейчас проходят следующие методы:
ночью свинтить табличку с кабинета и сменить замок
Замечание, конечно, остроумное. Но когда говорят про независимость, всегда подразумевают независимость от тех, кто сейчас выше ровно на 1 ступеньку, а не за облаками.
Дело хуже. Нормальным людям, не комплексующим из-за копеек, противно бороться за них с коррумпированными стариками, которые к тому же норовят приравнять звание соросовского профессора к ордену Леннона
«Ссылки на политический режим суть просто оправдание ничегонеделания. Политический режим сам по себе не сменится.» Мне кажется, что для людей в лаборатории политический режим именно может смениться только «сам собой». Насчет «ничегонеделания» замечу, что это скорее полемический прием, когда надо уйти от обсуждения проблемы. Вам наверняка приходилось иметь дело с таможней, особенно когда надо провозить живой материал — проблема практически не решается в приемлемые сроки (да и цены таможня выставляет запретительные). Выход только ехать «за бугор» и делать эксперименты там. Совместные исследования, если речь идет об участии в западных грантах, тоже зависят от разрешения московского начальства, а это политика. Что до разгильдяев, то разговоры о них, как мне кажется, тоже из области полемики (т.е. в значительной мере надуманная проблема), в моей практике балбесы отсеиваются еще на стадии курсовых/дипломных работ.
Я вот о чем:
«Господи, дай мне спокойствие принять то, чего я не могу изменить, дай мне мужество изменить то, что я могу изменить. И дай мне мудрость отличить одно от другого. «
Коллеги, большое спасибо за интересную статью. Разумеется, таблица №3 — со списком потенциально хищнических журналов, чьи публикации есть в Web of Science — не могла нас не заинтересовать. Могу точно сказать, что верхняя троица (Modern Journal Of Language Teaching Methods, Turkish Online journal Of Design Art And Communication и Revista Publicando) исключена из Core Collection примерно в 2018 году, как и Eurasia Journal Of Mathematics Science And Technology Education, ещё один — Dilemas Contemporaneos Educacion Politica Y Valores — исключён в 2019, про остальные — не скажу, поскольку лично я не участвую в процессе ни оценки, ни переоценки журналов, но знаю, что некоторые из них сейчас пристально рассматриваются.
https://m.polit.ru/article/2020/05/27/sir/
http://pandemicsciencemaps.org/ru/
Вот, оказывается, зачем на самом-то деле нужны ныне и присно наукометрические типа блоги.
Л.К.
Думается, что, дай-то Бог, что хоть для этого что-то из так наз наукометрии сгодится!
Хоть таким кривым путем — но для пользы дела.
К.
https://yandex.ru/news/story/Galkin_sparodiroval_dialog_Putina_s_Sobyaninym_o_progulkakh_v_Moskve—6ad6b8df2c91f5021c8d6bc49216508f?from=main_portal&lang=ru&lr=213&mlid=1590748279.glob_225.6ad6b8df&msid=1590749432.39958.97837.175666&persistent_id=98917143&stid=wWOa23ibHtSU8oQ6md9K&t=1590748279&utm_medium=topnews_index&utm_source=morda_touch&wan=1
А вот, имхо, весьма талантливая пародия на очередной вопиющий пример так называемого «технократического идиотизма». Такого же как и вне/квазинаучные «квантили-квентили» и пресловутые хиршИ.
Л.К.
https://novayagazeta.ru/articles/2020/05/29/85607-parallelno-ekvatoru
Л.К.
https://www.mk.ru/politics/2020/05/31/pandemiya-koronavirusa-stala-luchshim-vremenem-dlya-rossiyskoy-vlasti.html
Л.К.
[…] изданиях, поскольку эта деятельность привязана к дополнительной оплате исследователей, которая может в разы превышать должностной оклад. […]