Традиционно самые значительные свои результаты учёные публикуют в научных журналах. Традиционный же научный журнал — это довольно специфический вид бизнеса. Издатель такого журнала, разумеется, хочет максимизировать прибыль, которую он получает от библиотек, журнал выписывающих. Для этого ему нужно каким–то образом раскрутиться: сделать так, чтобы именно у него печатались лучшие работы лучших авторов. Автору тоже выгодно печататься в раскрученных, «приличных» журналах, но об этом позже. Далее, в традиционной схеме сотрудничества между журналом и автором деньги отсутствуют: никто никому не платит. Автор посылает статью в журнал исходя из своих карьерных интересов, а журнал из своих интересов статью публикует. В старые времена журналов было немного, и «гамбургский счёт» был всем известен. Были журналы локального масштаба, были гранды вроде Science и Nature. Но когда науку стали кормить, учёные бросились печататься, и количество журналов стало расти:
Это довольно старые данные, сейчас журналов ещё больше. Оно и неудивительно — старые журналы просто физически не могут столько печатать, а если есть спрос, будет и предложение. Вот только учредить журнал легко, а как его раскрутить? Да и как понять, какой журнал реально крут, а какой лишь уважаем в силу своего возраста, а на самом деле уже давно скатился в УГ? Тогда начали изобретать всякие псевдонаучные «метрики». А поскольку здесь каждый второй — веб–дизайнер, мне не надо объяснять, что любую метрику можно подкрутить, хотя и не в десять раз. Например, считается, что хороший журнал не будет публиковать всё подряд. Если из ста присланных работ напечатать только двадцать, можно на сайте журнала гордо написать: в результате рецензирования отбираются лишь 20% лучших работ. Это хорошо. Особенно если в журнал идёт поток работ, и реально есть из чего выбирать. Новый журнал ещё не столь популярен, чтобы разгребать лопатой входящие письма. Поэтому главный редактор кидает клич среди друзей: ребята, шлите что есть, и друзей попросите. Как, у них там интеграл всё никак не сходится? Да наплевать, мы их письмо сразу в корзину выбросим, а у себя пометим, что выбросили в результате рецензирования. И через год–другой такой деятельности можно также вывесить у себя двадцатипроцентный показатель качества.

Другой метод — «профилирование». Ну конечно, Nature это хорошо, но это же общий журнал, они печатают и про космос, и про ленточных червей, а зачем вам черви, если вы занимаетесь системами статистического машинного перевода? А у нас вот как раз журнал подоспел — посвящённый именно статистическому и именно машинному переводу! Только статьи по вашей специальности. Ну да, отбор не столь суровый, но вы всегда сможете объяснить, что печатаетесь в профильном издании, а не абы где, и вероятность того, что вашу статью прочтут именно ваши коллеги, а не абы кто, возрастает! (И это, кстати, правда; сам я Nature не читаю).

Неудивительно, что на журнальном поприще особенно отличились наши друзья китайцы. Как вы догадываетесь, обеспечить планку в 20% или даже в 5% для них не проблема. Ну а что вы хотите, страна на подъёме, им тоже хочется иметь приличные научные журналы. Нынешние китайцы же не виноваты, что в те годы, когда в Британии готовились издавать Nature, в Китае шла гражданская война, унёсшая 20 миллионов жизней, и конкурировать на равных с Европой как–то не получалось.

Получается, что процент отсева годится как необходимая метрика, но не годится как достаточная. Издатели почесали затылок (или затылки?..) и придумали новую метрику: индекс цитирования. Впрочем, не уверен, что её придумали именно издатели, а не другие служители Сатаны, но факт остаётся фактом: эти ребята выпустили джинна из бутылки, открыли ящик Пандоры и стартовали гонку вооружений. На первый взгляд, логика проста и незатейлива: важен не сам факт публикации, важна степень воздействия статьи на умы других учёных. Короче говоря, количество «лайков» — ссылок на твою статью в других научных статьях.

Дальнейшая история развивается всё чудесатее и чудесатее. Роман в нескольких частях. С самого начала к этой системе были претензии. Мы все знаем, что на ютюбе любят котиков, и хоть ты тресни, котика не обогнать. В науке та же история — конечно, количество цитат некоторым образом отражает полезность статьи, но говорить о прямой зависимости между вкладом учёного в мировую науку и количеством цитат нельзя. Скажем, самая цитируемая (с большим отрывом) научная статья в мире описывает «метод Лоури» для количественного определения белков в растворе. Сам Лоури честно писал, что многим людям надо было измерять белки, вот они его и цитировали. Метод, наверно, хорош, но всё–таки не теория относительности и не структура ДНК. Часто встречающаяся задача — куча цитат. У «метода Лоури» более двухсот тысяч цитат. У самой цитируемой статьи в computer science — шесть тысяч, у следующей по счёту — три тысячи.

На эту тему уже проводили изыскания. Астрофизики и физики любят друг друга цитировать. Чтобы попасть в верхний 1% наиболее цитируемых физиков, надо набрать две тысячи ссылок на себя любимого, а чтобы добиться того же в computer science, хватит всего полутора сотен ссылок.

Конечно, любую сломанную вещь можно починить синей изолентой, то есть поправочными коэффициентами. Если надо выяснить кто круче — этот журнал по физике или этот журнал по математике, давайте разделим их коэффициенты цитирования на среднее по каждой из дисциплине, ну или ещё как–нибудь поиграем с цифрами. Но здесь начинают уже мелко вредить сами учёные. Ведь не только журналы, но их самих предлагают оценивать по индексам цитирования! Значит, надо побольше публиковаться. Побольше дружить со всеми подряд — а давайте мы напишем совместную статью, а потом ещё по отдельности, а потом друг друга процитируем? А давайте разобъём нашу статью на две, а затем во второй статье сошлёмся на первую? (Ссылка на свою собственную старую работу тоже считается). То есть люди начинают сознательно направлять свои усилия на рост индекса. Сейчас стало совсем просто — Google Scholar ввёл у себя «пузомерку», где любой учёный может сразу увидеть свои показатели «библиометрии» и прикинуть, как их быстренько улучшить. В книгах можно встретить и совсем уж экзотические рекомендации: «Активнее цитируйте тех своих коллег, кто может оказаться потенциальным рецензентом вашей статьи в журнале! Не увидев ссылки на себя, он может обидеться и написать негативную рецензию!» (Здесь надо заметить, что журналы не сами решают, кого напечатать, а кого отлупить. Журнал собирает базу данных по учёным с указанием специализации, и статьи рассылаются на рецензию подходящим людям из базы. Рецензирование чужих работ — занятие не самое интересное, но мы относимся к нему с пониманием. В конце концов, наши труды тоже кто–то вынужден читать.) Даже если не заниматься откровенной политикой, можно слегка переориентироваться. Ну кому, в конце концов, нужна эта дебильная теорема Пуанкаре? Давайте я лучше займусь котиками, и меня сразу начнут цитировать. Или ещё менее резко. Можно попытаться разработать свой метод чего–нибудь (долго, трудно, результат непредсказуем), а можно накропать статью в стиле «обзор методов для X», и если обзор удастся, его с большой вероятностью процитируют те, кто решает задачу X.

 

Tagged with →  

Добавить комментарий

Ваш e-mail не будет опубликован.