Проблемы грантово-статейной системы и пути развития научного процесса.
В мае-июне 2015 года вокруг одной публикации в престижном научном журнале Science разгорелся настоящий скандал. Речь идет о статье американского политолога Майкла Лакура (Michael LaCour), опубликованной в декабре 2014 года, в которой он анализировал эффективность различных видов агитации за официальное разрешение гей-браков. Ключевой вывод работы прост: эффективнее всего персональная агитация в стиле, знакомом жителям нашей страны по свидетелям Иеговы и другим сектантам. Только вместо «у вас не найдется времени поговорить об Иисусе?» гей-агитатор, стучась в каждую дверь, должен красочно повествовать о том, как важно для общества внедрить, наконец, полную свободу заключения браков. Особое впечатление на научное сообщество произвело то, что социологические данные Лакура прямо указывали — после такого персонального сеанса гей-агитации его жертвы начинали не менее успешно агитировать своих домочадцев в том же направлении и с тем же успехом.
Воспроизводимость результатов научных исследований
К сожалению, политологией дело не ограничивается. Еще в 2012 году на ежегодном съезде Американского общества клеточной биологии была обнародована неутешительная статистика: результаты 47 из 53 медицинских исследований оказались невоспроизводимыми.
Воспроизводимость результатов — едва ли не главный критерий достоверности работы: если у одного ученого яблоко падает вниз с ускорением 9,8 метра на секунду в квадрате, то примерно то же должно получаться и у другого. Как лечить людей, если в отдельных исследованиях в области медицины яблоко летит вверх? Но самое удручающее в другом: когда авторов этого заявления («47 из 53») попытались проверить, то воспроизвести их результат также не удалось: доступа к необработанным данным они предоставить так и не смогли. То есть утверждение группы ученых о невоспроизводимости чужих исследований также оказалось невоспроизводимым.
В 2012-2015 годах другая группа ученых попробовала подойти к тому же вопросу более основательно — они стали собирать чужие первичные данные и проводить по ним те же эксперименты, которые указывались в исходных статьях. Эта инициатива, Reproducibility Initiative: Cancer Biology, была нацелена на то, чтобы, по крайней мере, в лечении рака отделить, наконец, реальные многообещающие результаты от невоспроизводимых — то есть ненаучных.
Исследование касалось только публикаций в предельно авторитетных журналах, таких как Nature, Cell и Science. Все они требуют от авторов готовности в любой момент предоставить свои первичные экспериментальные и наблюдательные данные. Однако когда попытались на практике сделать это в отношении 50 работ по лечению рака, то смогли получить доступ к данным лишь 31 из них. С остальными процесс еще идет, а четыре группы авторов по неизвестным причинам предпочли вообще отказаться от общения с Reproducibility Initiative, породив естественные сомнения в состоятельности своих работ. Сейчас редакторы журналов пытаются воздействовать на эти четыре необщительные группы, напоминая им об ответственности за опубликованные статьи. Пока безрезультатно.
Культ журналов
Ключевой элемент драмы фальсификаций — то, что научные достижения сегодня оцениваются только по публикациям в рецензируемых журналах. Чем престижнее журнал, тем больше шансов у исследователя получить грант на новую работу, а значит, исследователя мотивируют на максимальное количество таких публикаций. В итоге ученые, работающие в западных странах, «примерно 70-80% своего времени… тратят на написание статей, а вовсе не на проведение экспериментов, обработку результатов или расчеты. Российские ученые делают наоборот», — с укором в адрес отечественных исследователей сообщает пособие «Как написать и опубликовать статью в международном научном журнале».
Титанические усилия, затрачиваемые на создание таких текстов, приносят результаты. По данным Национального научного фонда США за 2001-2011 годы ежегодное количество публикуемых статей выросло с 629 тысяч то 838 тысяч. Особенно выделяются Китай, за десять лет увеличивший вчетверо количество публикаций в международных журналах, и Иран (в 8 раз). Разумеется, есть и страны-исключения. В России число публикаций снизилось, и мы по этому показателю пропустили вперед Голландию, Индию, Испанию и Тайвань. Всего за десятилетие наша страна опустилась в рейтинге с 9-го на 15-е место.
Возникает вопрос: как китайцы сумели вчетверо повысить результативность своих ученых за десять лет и не стоит ли нам у них поучиться? Действительно, поучительного в китайской истории научного успеха немало. Журнал Sciеnce настаивает: китайский черный рынок научных статей — самый большой и организованный в мире. Публикации там покупают даже врачи скорой помощи — просто потому, что иначе начальство, озабоченное развитием отечественной науки, уволит нерадивого доктора. Не отстают и ученые: надбавки за статьи достигли 43 процентов зарплаты китайских университетских профессоров уже в 2004 году. В итоге берут одну и ту же работу, переставляют местами несколько слов и несут «клонов» сразу в несколько зарубежных журналов.
Как этого не замечают рецензенты? Дело в том, что культ публикаций формирует положительную обратную связь: чем больше статей выходит в год, тем труднее их охватить одному рецензенту. Даже если он внимательно прочитает хотя бы только то, что касается его темы, хотя бы тысячную часть 600-800 тысяч статей, публикуемых ежегодно, то времени на остальное у него уже не останется. А ведь он и сам хочет написать статью — ведь без этого ему не видать ни гранта, ни престижной университетской позиции…
Конечно, и китайцам непросто. При такой загруженности статьями им не хватает времени на научную работу. Родился даже специальный термин «китайская наука», означающий исследования, чьи результаты чрезвычайно трудно воспроизвести. Старший научный сотрудник ИФХЭ РАН, рецензирующий статьи китайских коллег в западных журналах, однажды прямо написала: «Хуже китайских теоретиков только… только нет ничего». Вывод: стоит нам начать увольнять работников скорой помощи за отсутствие публикаций, и мы в кратчайшие сроки сделаем рывок, сравнимый с китайским.
Изоляция россии
Увы, качество российских научных работ также зачастую не коррелирует с их попаданием в престижные научные журналы — или хотя бы просто в международные. Пожалуй, самой нашумевшей публикацией российского ученого в XXI веке было доказательство Перельманом гипотезы Пуанкаре. Однако ни одна из его работ на эту тему не была опубликована ни в одном научном журнале — ни в престижном, ни в международном, ни даже в отечественном. Причины очевидны: рецензируемый журнал должен иметь рецензента, который согласился бы с научной адекватностью статьи или отверг бы ее. Однако сделать это было просто некому: доказательства Перельмана были очень непростыми для понимания даже ведущими математиками мира. Чтобы их в конце концов проверить, нескольким группам ученых пришлось работать одновременно несколько лет подряд. Отправь он статью в журнал, математическое сообщество узнало бы о ней намного позже, поскольку ни один журнал не стал бы нанимать десяток рецензентов сразу.
Не лучше складывается ситуация, если работа вначале была опубликована в отечественном журнале. Еще в советское время работники Института кристаллографии установили, что графит при определенных условиях становится прозрачным, и их работа вышла в «Журнале экспериментальной и теоретической физики». После этого опубликовать ее в западном издании уже невозможно. Казалось бы, что плохого — работа значимая, за рубежом, наконец, начнут цитировать наши журналы. Увы, на практике заинтересовавшиеся темой японцы воспроизвели результат в Science, указав на ЖЭТФ как на первоисточник, а вот все последующие зарубежные цитирования вели только на Science — как на более известный журнал. Индекс цитируемости исходной статьи так и застыл около ноля.
Вот как описывает ситуацию в своей отрасли антрополог Станислав Дробышевский (МГУ): «За рубежом наша антропология почти неизвестна. В немалой степени из-за того, что западные журналы не принимают наши статьи из принципа, только потому, что они из России. Единственный способ издаться нашему человеку на Западе — провести там много времени, перезнакомиться с их специалистами, а потом, лично написав статью, отдать ее этим специалистам, поставив себя не на первое и даже не на второе место в списке авторов. Понятно, что такого никто из наших не хочет. Замкнутый круг — на Западе не берут к публикации наши статьи и поэтому считают, что у нас антропологии нет, и поэтому не берут наши статьи».
Доходит до абсурда: шесть лет назад группа российских ученых обнаружила на острове Сокотра следы олдувайской культуры, исчезнувшей на континенте 1,4 миллиона лет назад. Налицо древнейшая находка следов человека на изолированном архипелаге. Казалось бы, мировое научное сообщество ждет дискуссия: были Homo erectus мореплавателями или же неведомым геологам образом архипелаг на столь большом удалении от берега все же мог соединяться с сушей. Можно было ожидать публикации в журналах из первой пятерки, а затем — нарастающего вала цитирований в других научных журналах. Как уже догадался читатель, ни публикаций (за пределами России), ни упоминаний открытий в научных журналах не последовало. В итоге далеко не все западное научное сообщество вообще в курсе этого открытия.
Проблемы китайцев Запад не волнуют?
Как видим, если китайские ученые и врачи скорой помощи даже слишком хорошо наладили массовый выпуск статей для западных журналов, то у нас в этой области массового производства успехи пока умеренные, хотя отдельные энергичные личности все же нашлись. Наверное, на Западе ситуация лучше, и западные ученые не злоупотребляют своими журналами, а журналы не пренебрегают учеными?
К сожалению, и здесь не все гладко. Анонимные рецензенты, определяющие, будет опубликована статья или нет, часто сами пишут статьи на смежные темы. Даже если ваше исследование не содержит грубых ошибок, которые позволили бы другим претендентам на грант легко обойти его в журнальной гонке, то рецензенты в США часто просто «режут» статью потенциального конкурента.
Напротив, многие влиятельные в научных кругах авторы, хорошо знакомые со многими рецензентами, могут опубликовать даже работы, которые в других случаях подверглись бы тщательной проверке. Уловившие этот нюанс молодые исследователи часто «садятся на хвост» тем своим именитым коллегам, у кого нет времени лично писать все статьи, и, прикрываясь их именами, публикуют исследования на сфальсифицированных данных. Именно так сотрудник лаборатории «Белл» Ян Шен (Jan Schön) фабриковал десятки «научных» статей, успешно проходивших систему рецензирования. Прикрываясь авторитетом старших соавторов, он описывал в статьях эксперименты в области нанотехнологий — причем всегда с выдающимися результатами. А когда те же опыты с теми же наноструктурами пытались воспроизвести коллеги, их результаты неизменно были совсем другими, уже не такими выдающимися. Сообразительный молодой человек, позже ставший героем книги «Мусорная наука», успел получить за пару десятков своих «работ» ряд престижных премий по физике и материаловедению, прежде чем неудачные попытки воспроизведения его опытов все же привели к разоблачению
Отметим, что разоблачение Шена стало возможным благодаря тому, что в микроэлектронике и нанотехнологиях эксперимент, описанный автором, можно воспроизвести за сравнительно короткое время. Однако, скажем, в фармацевтике и клинических медицинских исследованиях на воспроизведение порой требуется много лет. В таких условиях у иных исследователей возникает соблазн затруднить доступ к исходным данным, а в результатах сделать выводы посенсационнее.
Неизбежное зло?
Подведем итоги: из схемы «публикация — грант — публикация» часто выпадает звено «научный результат». Судьбу исследователя решает только количественный фактор (число статей — число грантов), что провоцирует выпускать не вполне научные статьи. Сразу оговоримся — этот недостаток вряд ли можно приписать одной только западной науке и некритическому копированию ее грантовой системы, в последние годы ведущемуся в нашей стране. В конце концов, советский химик Юрий Стручков в свое время получил Шнобелевскую премию как раз за то, что за 1980-1991 годы опубликовал 948 научных работ (по одной в четыре дня). В глубоко советское время был написан и диалог в романе братьев Стругацких «Улитка на склоне»: «У кого меньше пятнадцати статей, все пройдут спецобработку… — Да ну? — сказал Квентин. — Дрянь дело, знаю я эти спецобработки, от них волосы перестают расти и изо рта целый год пахнет». Один из братьев вышел из научной среды, так что этому диалогу из серии черного юмора можно доверять: «статеепоклонство» возникло в нашей стране задолго до министра Ливанова.
Проблемы грантово-статейной системы очевидны, а ориентация на количество научных публикаций как главный критерий развития науки неадекватна. Однако кое-что эта система фиксирует верно. Факт снижения количества публикаций российских ученых за рубежом в 2001-2011 годах действительно отражает объективный процесс падения продуктивности нашей науки. Вряд ли это ее вина: в нулевые годы науку у нас не столько финансировали, сколько продолжали реформировать. Лечить этот дефицит публикаций можно по-разному. Например, по несовременной советской схеме, раздавая научным работникам служебное жилье, или хотя бы просто повысив им зарплату. Впрочем, есть и менее затратные методы. В указах президента России уже прозвучали слова «увеличение к 2015 году доли публикаций российских исследователей… до … процента». Так что за длительным периодом спада в числе научных публикаций вскоре может последовать количественный подъем. И тогда перед российскими учеными в полный рост встанет вопрос о том, как нам не сделать из публикаций в зарубежных журналах очередной китайский карго-культ.