Подписанное премьер-министром Владимиром Путиным постановление Правительства РФ от 25 апреля 2012 г. о признании Россией зарубежных дипломов о высшем образовании, ученых степеней и званий вновь привлекло внимание к рейтингам мировых университетов. Дело в том, что одним из критериев признания качества документов, выдаваемых зарубежной образовательной организацией, стало вхождение этой организации в первые 300 позиций одного из этих рейтингов: академический рейтинг университетов мира (Academic Ranking of World Universities), всемирный рейтинг университетов (QS World University Rankings) и рейтинг университетов мира Таймc (The Times Higher Education World University Rankings). Валерий Аджиев, старший научный сотрудник Британского Национального Центра Компьютерной Анимации при Университете Борнмута, подробно рассказывает о рейтинге THE и о том, насколько профессионально чиновники от образования комментируют низкие позиции российских университетов в этом списке лучших. Первая версия статьи была опубликована в газете "Троицкий вариант - Наука" (№102, 24 апреля 2012 г.), а на "Полит.ру" публикуется с некоторыми изменениями и добавлениями.
15 марта 2012 года авторитетный британский еженедельник Times Higher Education (THE) опубликовал «репутационный рейтинг» университетов мира («THE World Reputation Rankings 2012»). В списке 100 самых престижных вузов не оказалось ни одного российского. Мы по старой памяти привыкли высоко оценивать свою систему высшего образования, по крайней мере, в лице его флагманов, таких как МГУ. И результат выглядит особенно обидным, ибо речь идет о «рейтинге мнений» – он составлен путем опроса специалистов со всего мира, и в нем не учитываются формальные показатели, такие как «цитируемость», к которым у многих в России идиосинкразия.
Мы еще можем признать, что недостаточно адаптировались к глобальной системе публикаций в международных изданиях, и что соответствующие метрики с трудом приживаются на отечественной научно-образовательной почве. Но уважение коллег к нашим ведущим вузам, многие выпускники которых успешно работают в тех самых университетах из «топ-списка» – оно же вроде всегда было?!
Наверное, именно уязвленная национальная гордость заставила российскую прессу на удивление широко откликнуться на публикацию рейтинга. Мнения разделились: некоторые авторы считают, что рейтинг достаточно точно отражает не самое лучшее состояние дел даже в ведущих российских университетах. Другие (показательно, что это в основном статусные и влиятельные фигуры российского образовательного истеблишмента) называют рейтинг несправедливым и этого самого состояния дел и близко не отражающим.
Давайте и мы посмотрим на этот рейтинг через призму некоторых наиболее характерных высказываний российских экспертов. Возможно, уровень содержательности и глубины этих комментариев, особенно тех, что демонстрируют специфический профессионализм и информированность их статусных авторов, как-то (пусть опосредованно) соотносится и с уровнем системы российского высшего образования и уж точно – с уровнем менеджмента этой системы?
Но сначала – краткое изложение основных результатов репутационного рейтинга, который журнал THE готовит совместно с агентством Thomson Reuters и при участии социологической службы Ipsos Media, проводившей опрос экспертов.
Таблица 1. Топ-10 Мирового репутационного рейтинга 2012
2012 рейтинг репутации | 2011 рейтинг репутации | 2011-12 Мировой рейтинг | Университет | Страна | Научная репутация | Учебная репутация | Итоговая репутация |
1 | 1 | =2 | Гарвадский | США | 100.0 | 100.0 | 100.0 |
2 | 2 | 7 | МТИ | США | 90.0 | 81.7 | 87.2 |
3 | 3 | 6 | Кембриджский | Великобритания | 79.7 | 82.7 | 80.7 |
4 | 5 | =2 | Стэнфорд | США | 74.5 | 67.5 | 72.1 |
5 | 4 | 10 | Калифорнийский - Беркли | США | 74.8 | 65.0 | 71.6 |
6 | 6 | 4 | Оксфордский | Великобритания | 69.3 | 75.0 | 71.2 |
7 | 7 | 5 | Принстонский | США | 38.6 | 36.5 | 37.9 |
8 | 8 | 30 | Токийский | Япония | 36.6 | 33.6 | 35.6 |
9 | 12 | 13 | Калифорнийский – Лос-Анжелес | США | 35.8 | 29.9
| 33.8
|
10 | 9 | 11 | Йельский | США | 32.3 | 32.8 | 32.4 |
Таблица 2. Национальное представительство в репутационном рейтинге 2012
Страна | Кол-во в топ-100 | Университет с наивысшим рейтингом (УНР) | Место УНР |
США | 44 | Гарвадский | 1 |
Великобритания | 10 | Кембриджский | 3 |
Япония | 5 | Токийский | 8 |
Нидерланды | 5 | Делтфский Технический | 51-60 |
Германия | 4 | Людвига-Максимилианса в Мюнхене | 42 |
Австралия | 4 | Мельбурнский | 43 |
Франция | 4 | Сорбонны в Париже | 71-80 |
Канада | 3 | Торонтский | 16 |
Швейцария | 3 | Высшая Техническая Школа Цюриха | 22 |
Гонконг | 3 | Гонконский | 39 |
Швеция | 3 | Каролинский Институт | 51-60 |
Сингапур | 2 | Национальный Сингапурский | 23 |
Китай | 2 | Циньхуа | 30 |
Ю. Корея | 2 | Сеульский Национальный | 51-60 |
Израиль | 2 | Еврейский в Иерусалиме | 61-70 |
Бразилия | 1 | Сан-Пауло | 61-70 |
Тайвань | 1 | Национальный Тайваньский | 61-70 |
Бельгия | 1 | Левенский Католический | 81-90 |
Турция | 1 | Ближневосточный Технический | 91-100 |
Данные для университетов, вошедших в первую десятку рейтинга, приведены в Таблице 1 (более полную информацию для университетов, составивших список «топ-100», можно найти в свободном доступе на специальной странице Ranking Home сайта THE). Таблица 2 показывает рейтинг в разрезе стран, университеты которых вошли в топ-100. Подробный анализ результатов (если этот, вообще говоря, не самый изощренный рейтинг вообще заслуживает такого анализа) – за пределами этой статьи, обращу внимание читателя лишь на некоторые факты:
Обращает на себя внимание, что и состав топ-100, и порядок расположения в нем университетов, далеко не полностью совпадает с результатами мирового рейтинга “THE World University Rankings 2011-12”, который рассчитывался на основании не двух «субъективных», а 13-ти, в основном «объективно-формальных», показателей.
Победитель «основного» рейтинга – California Institute of Technology (Caltech) – в репутационном оказался только на 11 месте. Выиграли в репутационном рейтинге, в частности, представители Японии (Токийский скакнул с 30 на 8 место) и Бразилии (Университет Сан-Пауло занимает 178 место в «основном»), а турецкий Ближневосточный Технический в основном рейтинге делит (в числе прочих – с МГУ!) 276-300 места.
Отсутствие наших вузов в топ-100 репутационного рейтинга послужило стимулом для российских экспертов поставить под сомнение как методологию, так и процедуру его составления. Вызванное прискорбным итогом недоумение усугубил факт, что флагманский российский вуз МГУ в аналогичном рейтинге-2011 занимал достаточно высокую 33-ю позицию и оказался единственным представителем прошлогодней первой полусотни, покинувшим список топ-100.
На первый взгляд, резонным выглядит удивление ректора МГУ Виктора Садовничего, который в специально данном по этому поводу интервью сказал: «Если судить здраво, это выглядит недоразумением, поскольку репутация вуза – вещь достаточно консервативная, и ее довольно трудно за год настолько сильно ухудшить». И он, и другие российские эксперты предложили свои ответы на вопрос о причинах «недоразумения», и далее я прокомментирую эти ответы, увы, несущие в себе все признаки плохой информированности, если не мифологии, о том, как устроены и как работают западные рейтинги.
Заодно мы, насколько позволяют опубликованные создателями рейтинга данные, обнародуем те детали методологии и процедуры, которые почему-то в российских материалах о рейтинге не звучали.
Начну, впрочем, с констатации, что в некоторых публикациях этот рейтинг именовался «рейтингом Times» или того пуще – «рейтингом газеты Times», и практически везде журнал “Times Higher Education” назывался «приложением газеты Times». Между тем, журнал THE c 2005 г. – совершенно независимое издание и не имеет никакого отношения к “Тimes”, как и к издающей эту знаменитую газету группе News International, принадлежащей американскому магнату Руперту Мэрдоку. Я, кстати, припоминаю одно обсуждение c российскими коллегами, где доминирование американских университетов в производимом британским изданием рейтинге как раз и объяснялось этим «фактом».
Это, конечно, мелочь, но очень характерная, ибо нежелание вникать в детали почему-то оказалось присуще почти всем, кто высказывался о данном рейтинге. Еще одной такой деталью является и факт, который, кажется, почти никто из наших экспертов не осознавал: обсуждаемый репутационный рейтинг вовсе не является неким самостоятельным продуктом, произведенным в 2012 году.
На самом деле, все относящиеся к нему данные были собраны и уже опубликованы в рамках упоминавшегося выше мирового рейтинга “THE World University Rankings 2011-12”. Соответственно, опрос экспертов о репутации проводился еще весной 2011 года, и его результаты вошли в качестве основы для расчета двух (из 13) показателей «основного» (или интегрального) рейтинга, но в комментариях его создателей эти «репутационные» индексы (ответственные за 34.5% всего рейтинга) тогда не акцентировались.
Почему этот рейтинг уже второй год публикуется отдельно, когда его вполне можно было подать в пакете с «основным», частью которого он и является? Видимо, соображения чисто маркетинговые – так создается информационный повод для представления фирменного рейтингового продукта THE два раза в год.
Соответственно, нет большого смысла анализировать репутационный рейтинг в отрыве от «основного», и выглядит вполне логичным, что МГУ не попал в первую сотню по репутации, при том, что в интегральном рейтинге он находится в конце третьей сотни. Скорее, стоит удивиться высокому 33-му месту МГУ в репутационном рейтинге-2011 – ведь он был частью основного рейтинга “THE World University Rankings 2010-2011”, опубликованного в октябре 2010 г., где МГУ не вошел в 200 лучших, так что год назад субъективная репутация оказалась почему-то много лучше «объективных» результатов его деятельности.
Почему в этом году репутация оказалась лучше скоррелирована с интегральным рейтинговым итогом – действительно не вполне ясно. Впрочем, российские эксперты предложили свои объяснения неудаче этого года.
Респонденты опроса. Первая претензия относится к выбору экспертов, привлеченных к оценке репутации университетов. Так, в статье Натальи Савицкой в «Независимой газете» «Утечка мозгов уронила рейтинг МГУ» сказано: «В основе его – опрос ведущих профессоров, экспертов из области образования. Кто они – загадка для всех. Известно только, что в этом году количество экспертов стало еще больше». А вот что утверждает в материале Газета.ру «Российские вузы выпали из сотни» руководитель аналитической службы Российского союза ректоров Борис Деревягин: «Репутационный рейтинг – это опрос ведущих профессоров, экспертов из области образования. Но кто они и из каких стран – это закрытая информация... Thomson Reuters, по их словам, использует данные опросов экспертов из 149 стран — и это все, что известно».
На самом деле, об экспертах известно много больше, и эти сведения легко найти в материалах THE, сопровождающих рейтинговые таблицы (см. в частности, "Informed option at the heart of the matter"). А на сайте Thomson Reuters можно найти и краткое описание методологии подбора экспертов ("Reputational Survey", "Reputational survey: methodology and logistics"). Ее авторы, в частности, еще при подготовке интегрального рейтинга-2010 декларировали, что намерены учесть звучавшую ранее критику касательно перекоса в подборе экспертов – слишком многие из них представляли в предыдущие годы англоязычные страны Северной Америки и Европы. На практике при подборе экспертов было принято во внимание «географическое распределение ученых», для чего использовались данные ЮНЕСКО (Таблица 3).
На эту информацию, показывающую численность ученых в разных регионах мира, были наложены данные, отражающие качественные показатели их работы согласно индексам рейтеровской Web of Science – а именно, Science Citation Index Expanded (SCIE), Social Sciences Citation Index (SSCI) and Arts & Humanities Citation Index (A&HCI). Чтобы адекватнее учесть социальные и гуманитарные науки (традиционно недостаточно представленные в Web of Science), использовалась также база IBIS Worldwide Academic and Library file компании Mordev.
В результате, респонденты отбирались по некой носящей «статистический характер» процедуре. На опрос, по итогам которого был составлен первый репутационный рейтинг, откликнулись 13388 человек (в их числе был и автор этих строк). Год спустя откликнулись 17554 человека, причем респонденты из выборки предыдущего года не приглашались. Расклад приглашенных рейтинговых экспертов по каждой из 149 стран действительно не опубликован, но по континентальным регионам он известен (см. Таблицу 4), так что можно делать выводы, насколько организаторы преуспели в представительской объективности.
Замечу, что сумма составляет 101%, так что в расчеты аналитиков THE где-то вкралась небольшая ошибка, вероятнее всего вследствие округления представленных по отдельности цифр (факт которого специально оговорен). Что ж, по крайней мере, не 146% получилось! Видно, что немногим более половины – 53% - экспертов относятся к Северной Америке и Западной Европе, что можно признать разумным показателем. Конечно, интересно было бы узнать, сколько представителей России оказалось среди респондентов. Резонно предположить, что не слишком много – с численностью у нас всё хорошо, но недостаток ученых с приличной цитируемостью (а именно этот фактор служил основным критерием!) неизбежно должен был потянуть российское представительство вниз.
Таблица 3. Географическое распределение научных работников по данным Юнеско
Континент | % |
Северная Америка | 22.20 |
Европа | 28.40 |
Азия | 41.40 |
Океания | 2.10 |
Латинская Америка | 3.60 |
Африка | 2.30 |
Таблица 4. Географическое распределение экспертов рейтинга
Континент | % ученых |
США и Канада | 36 |
Западная Европа | 17 |
Южная Европа | 3 |
Восточная Европа (включая Россию) | 8 |
Центральная Америка (включая Мексику) | 1 |
Южная Америка | 7 |
Австралия и Океания | 7 |
Восточная Азия (включая Японию и Китай) | 10 |
Западная Азия (Ближний и Средний Восток) | 4 |
Южная и Центральная Азия (включая Индию) | 2 |
Юго-Восточная Азия | 2 |
Северная Африка | 1 |
Центральная и Южная Африка | 3 |
Известно и распределение экспертов по дисциплинам - Таблица 5. В ней суммарно получается 99% (надо полагать, вследствие все того же округления), распределение можно признать более-менее сбалансированным. Оглашена и «статусная» информация. В частности, три четверти респондентов идентифицировали себя как принадлежащих к профессорско-преподавательскому составу, остальные – чистые исследователи, администраторы (в основном, высшего университетского звена) и даже аспиранты. Средний стаж работы в высшем образовании – 16 лет.
Для выборки экспертов предыдущего рейтинга опубликован очень детальный обзор ("Academic Reputation Survey: Report of Fundings") с массой параметров самого разного характера. Упомяну только один – «средний респондент» опубликовал около 50 научных трудов (учтенных в Web of Science!). Думаю, что в скором будущем можно ожидать аналогичного детального отчета и о экспертах последнего рейтинга – хотя я бы не ожидал значительных статистических отличий (ведь методология отбора не изменилась).
Таблица 5. Распределение экспертов по областям наук
Науки | % |
Естественные | 20 |
Инженерно-технические | 20 |
Социальные | 19 |
Медико-клинические | 17 |
О жизни и биология | 16 |
Гуманитарные и искусствоведение | 7 |
Кажется, что среди статусных российских экспертов имеется консенсус в отношении причины вылета МГУ из топ-100. Вот статья из «Московских Новостей» с говорящим названием «В этом году МГУ проиграл науку», в которой эксперт Алексей Чаплыгин, представленный как «руководитель исследовательской группы Национального рейтинга университетов», объясняет: «Отсутствие в этом году МГУ в рейтинге Times Higher Education объясняется серьезными изменениями в критериях... В 2011 году исследователи предлагали ученым выбрать десять лучших вузов в своей научной теме из 6 тыс., включенных в базу Web of Science и 10 вузов, у которых лучшие магистерские программы и программы PhD. В 2012 году участники опроса выбирали только по первому критерию и называли уже 15 вузов. Таким образом, получается, что в этом году МГУ проиграл науку».
Увы, эксперт заблуждается: здесь верно только то, что цифра 10 действительно была заменена на 15 (что, по идее, только увеличивало шансы того же МГУ). «Критерии» изменения не претерпели, а о том, что именно «ученым предлагали выбрать» (т.е. на какие вопросы они отвечали) – чуть дальше.
Но сначала послушаем едва ли не главное заинтересованное лицо – ректора МГУ В.А. Садовничего. В упоминавшемся уже интервью он говорит: «... если в рейтинге 2011 года научная и образовательная составляющие вуза оценивались равнозначно, то в рейтинге 2012 года научная деятельность вуза оказалась вдвое более важной, чем образовательная». Комментируя этот тезис, я могу повторить еще раз: это не так, критерии остались те же – в обоих рейтингах научная и учебная репутации входили в итоговой рейтинг в весовыми коэффициентами 2:1 (желающие могут сравнить описание методологии обоих рейтингов соответственно в "Behind the numbers: reputation ranking methodology explained" – для рейтинга предыдущего года и "Informed option at the heart of the matter" для рейтинга этого года).
Надо отдать В.А. Садовничему должное: он не ограничился общими словами, а предъявил очень конкретные претензии относительно вопросов, предложенным экспертам: «В 2011 году в первую очередь учитывалось обобщенное мнение о вузе (проводился опрос представителей академической общественности из 131 страны, они отвечали на вопрос о привлекательности вуза с точки зрения его образовательных программ и с точки зрения университетской науки). Респондентам 2012 года задавались не оценочные, а так называемые «ориентированные на действие» вопросы. Из таких вопросов на веб-сайте THE приводится только один пример: «Рекомендовали бы Вы своим аспирантам продолжить работу в качестве постдока в том или ином университете?». Следует заметить, что в России даже не существует официального термина «постдок». И поэтому результаты ответов на подобные вопросы не могут являться критерием оценки российского вуза».
Ту же тему ректор МГУ развил на своей состоявшейся 30 марта 2012 года весьма представительной пресс-конференции в РБК: «Они задали за 2011г. (очевидно, имеется в виду репутационный рейтинг 2012 г. – В.А.) следующий вопрос – это главный их вопрос: пошлете ли вы своего ученика постдоком (временная ставка в зарубежных вузах и научно-исследовательских учреждениях, которую занимают молодые ученые со степенью кандидата наук) в российский вуз – Московский университет. И опрашивают десятки тысяч экспертов по миру...у нас в России официально нет системы постдоков».
Не заподозрю Виктора Антоновича в том, что он сам производил поиск вопросов на англоязычном сайте THE – надо полагать, доверился своим помощникам. А зря! Дело в том, что на этом сайте действительно «приводится только один пример» – вот он в оригинальном виде: “Which university would you send your most talented graduates to the best postgraduates supervision?”
Как легко видеть, никакого «постдока» (postdoc, postdoctoral research fellow), т.е. индивида, уже закончившего аспирантуру и получившего степень PhD (по нашему – кандидата наук), здесь не поминается. А вопрос на самом деле заключается в том, в каких вузах есть, по мнению эксперта, специалисты, способные обеспечить талантливому выпускнику вуза, обычно бакалавриата (это они называются “graduates”), наилучшее научное руководство в магистратуре или аспирантуре (это и называется “postgraduates supervision”). Магистратуры и аспирантуры, вроде бы, в России и МГУ «официально» пока есть. Так и вспоминается название популярного фильма Софии Копполы “Lost in Translation”…
В.А. Садовничий сетует: «Я написал им письмо – одно, второе, третье, четвертое. Наконец, они ответили. Они признают, что это не очень хорошо, в следующем году постараются по-другому». Уж не знаю, что «они» поняли из этих вызванных незнанием языка и вполне стандартной терминологии претензий (неужели поверили, что в России официально не существует postgraduate supervision?! Подозреваю, что прорсто пришли в недоумение) и что именно «признали», но зачем писать письма, если с вопросами, которые действительно задавались экспертам, можно ознакомиться на сайте Thomson Reuters в открытом доступе. Специальный документ “Thomson Reuters Academic Reputation Survey” воспроизводит типовую интерактивную сессию вопросов и ответов.
Вот ее краткое описание. Прежде всего, респондент выбирает один из 9-ти языков, на котором ему удобнее работать (увы, русского среди нет); затем вводит информацию о себе (где и кем работает, где получил свою ученую степень, а также номинирует один вуз, в котором работал раньше или с которым сотрудничал, и знает его лучше всего, и один регион из Таблицы 4). Далее он выбирает область науки (одну из перечисленных в Таблице 5), после чего указывает свою специализацию (например, в гуманитарно-искусствоведческих науках надо выбрать из 18 специальностей – от археологии до теологии). После этого и начинается, наконец, номинирование лучших университетов, причем для своей специализации (например, архитектуры) – отдельно по научной и учебной репутации (последняя – для учебного процесса в вузе в целом, без деления на undergraduates и postgraduates).
Сначала респондент называет в произвольном порядке 15 университетов для своего региона (например, для Северной Америки); затем делает то же самое, но для университетов по всему миру (включая и собственный регион). Если желаемый университет отсутствует в предлагаемом списке из более чем 6000, то можно его добавить самому. Что же касается вызвавших такое беспокойство «ориентированных на действие» вопросов, то они как раз не «главные», а вспомогательные. На них отвечают только респонденты (их меньшинство), ответившие в основном опроснике, что преподавание (а не наука) является для них основным видом деятельности. Им предлагается номинировать один университет, который обеспечивает наилучший учебный процесс – отдельно для студентов и аспирантов. Вот, собственно, и вся процедура, в которой нет ничего загадочного. Загадочной же, к сожалению, остается точная формула, служащая для окончательного расчета интегральной репутации.
В любом случае, конкретные претензии влиятельных фигур российской высшей школы к «репутационному» рейтингу THE основаны, выражаясь мягко, на плохой информированности: в реальности, как мы видели, совсем не в том дело, что составители рейтинга будто бы изменили критерии и придали избыточный вес науке, пренебрегая достижениями в учебном процессе, которыми – опять же, будто бы! – славны ведущие российские вузы, и прежде всего МГУ.
Но именно на это напирает В.А. Садовничий: «То обстоятельство, что такое изменение веса различных критериев в сторону научной деятельности вуза почему-то привело к столь значительному изменению позиции Московского университета в репутационном рейтинге показывает, что мировая репутация учебных программ МГУ находится на очень высоком уровне. Возможно, мы находимся в первой двадцатке или даже десятке».
Логика интересная: даже если МГУ вылетел из топ-100 прежде всего из-за низкой научной репутации, почему этот прискорбный факт «показывает» высокий уровень учебных программ?! Увы, несложный анализ доступных цифровых данных для рейтинга – 2012 позволяет заключить: МГУ в этот раз получил низкие баллы и по своей учебной ипостаси.
Сам по себе новейший репутационный рейтинг вряд ли заслуживает глубокого анализа – в конце концов, он как любой «рейтинг мнений» по определению субъективен и вряд ли способен отразить в двух составляющих его цифрах многоаспектный образ такого сложного организма, как университет. Впрочем, многие в мире неоднозначно относятся и к рейтингам, базирующимся на более широком и значимом множестве показателей. К каждому из более-менее признанных международных рейтингов (а это, помимо рейтинга THE, QS World University Rankings и Academic Ranking of World Universities) регулярно предъявляются претензии самого разного порядка. Это несовершенство и непостоянство методологии, недостаточная транспарентность, неполнота и неверифицируемость данных, возникающие порой в предлагаемой иерархии университетов очевидные противоречия со здравым смыслом. Этот список можно длить дальше и с успехом иллюстрировать примерами из каждого нового издания каждого рейтинга. Однако, в отношении к мировым университетским рейтингам в российском научно-образовательном истеблишменте просматривается выраженное своеобразие. Процитирую нескольких авторитетов.
«Это их рейтинг, британцы его составляли... Я знаю, как составляются такие рейтинги, но это долгий разговор... что-то в этом рейтинге откровенное вранье» - Нобелевский лауреат Ж. Алферов ( "К сожалению, наше образование не улучшается").
Все эти влиятельные и уважаемые деятели разными словами выражают одну и ту же мысль: международные рейтинги неправильно отражают состояние нашего высшего образования, потому что они чужды нам по менталитету, созданы под не совместимые с нашими научные, маркетинговые, представительские и иные цели и критерии, не учитывают российскую специфику. И это – если отвлечься от странных представлений Б. Деревягина о «европейских или американских вузах» - правда. Вот только в чем эта самая специфика заключается? Неужели в том, что в отличие от американского, европейского, японского, а теперь уже и китайского образования у нас действительно акцент не на науку, а на качестве обучения, чему другим стоит завидовать?
Полагаю, что такой ответ не просто расходится с реальностью, но и является намеренно лукавым. И дело даже не в том, что мировой рейтинг по определению не может учитывать «специфику» каждой страны. Честным ответом, на мой взгляд, был бы такой: российская специфика заключается в том, что наши университеты не являются игроками на глобальном поле мирового образовательного рынка. Именно этот факт вполне объективно и отражают международные университетские рейтинги, в том числе и репутационный, как раз при всех своих проблемах и являющиеся вполне реальными инструментами и индикаторами этого самого рынка.
Причины – объективны и на виду у всех, в том числе и у наблюдателей за пределами России. Ну, какая может быть репутация у российских вузов, если согласно новейшему глобальному исследованию о зарплатах профессорско-преподавательского состава (пересчитанных по покупательной способности) среди 28 стран мира Россия оказалась в самом конце списка (опередив только Армению и уступив даже Эфиопии, а от развитых стран отставая в 10 и более раз)? Что имеет следствием необходимость зарабатывать деньги другими занятиями и в других местах, и не может не отражаться на учебно-научной деятельности.
Всем известна и распространенность практики не просто подработки, а реальной работы в учебное время значительного числа студентов старших курсов и почти всех поголовно аспирантов, что в западных университетах с нормальной репутацией просто невозможно. И что не может не влиять на качество получаемого образования и защищаемых диссертаций. Не говоря о развитости институциональной коррупции, распространенности ксенофобских настроений (по определению чуждым динамичной студенческой молодежи многих стран – то же верно и относительно профессорско-преподавательского состава), наконец, трудностях с получением образования на иностранном, прежде всего английском, языке.
Неудивительно, что контингент зарубежных преподавателей в наших вузах очень незначителен, немногочисленные студенты из развитых стран приезжают на учебу эпизодически и по очень специфическим специальностям. Образовательный рынок, на котором играет Россия – это страны бывшего Советского Союза и некоторые страны третьего мира. Это – объективный факт. С которым, к сожалению, российские образовательные начальники никак не могут примириться – вот, к примеру, недавнее характерное заявление генерального секретаря Российского союза ректоров (РСР) Ольги Кашириной ("Трудности перевода: почему вузы России последние в рейтинге «Таймс»"): «У зарубежных рейтинговых агентств есть желание вытеснить российские вузы из числа мировых академических лидеров на периферию научно-образовательных процессов. Как следствие, в условиях жесткой международной конкуренции страна теряет качественных зарубежных студентов, которые могли бы приехать учиться в наши вузы, страна теряет талантливых ученых, которые могли бы у нас преподавать».
Не стоит перед «зарубежными рейтинговыми агентствами» такая зловредная задача – по той простой причине, что российские университеты в «жесткой международной конкуренции» за «качественных зарубежных студентов» просто не задействованы – их, подобно неуловимому Джо, вообще практически на означенном рынке не видно.
На самом деле, если отрешиться от конспирологии, то нетрудно понять, что трагедии в этом нет, тем более что Россия – отнюдь не единственная страна, где система высшего образования обращена вовнутрь. Очевидно, что внутренние потребности страны система худо-бедно удовлетворяет, да и на зарубежный рынок поставляет талантливых студентов и аспирантов (при том, что их количество – если говорить о тех самых зарубежных университетах с высокой репутацией – очень мало, особенно если сравнивать миграцию наших студентов с китайскими и индийскими). Соответственно, вместо малоосмысленных попыток запустить свой собственный «суверенный» международный рейтинг, который будто бы позволит взять реванш у зарубежных коллег, стоило бы сосредоточиться на создании действительно дееспособного внутреннего рейтинга российских вузов.
Такого, чтобы потребители рейтинга (а это – абитуриенты и родители с одной стороны, потенциальные работодатели с другой, и потенциальные спонсоры – с третьей) могли получать предметное и комплексное представление о достоинствах и недостатках каждого вуза и каждой отдельной предлагаемой им специализации. Такие рейтинги, выпускаемые независимыми от вузов и министерств организациями на основе публично доступной, прозрачной и верифицируемой информации, с успехом функционируют во многих развитых странах. Глядишь, тогда и репутация наших университетов медленно, но верно начнет повышаться.
Однако, в соответствии с фирменной «спецификой» наши руководители более озабочены внешними эффектами. Вот сообщение Интерфакса: «На неприятные новости (о репутационном рейтинге) отреагировал министр образования Андрей Фурсенко. Он пообещал изучить принципы составления рейтинга, отметив, что любой подобный список - это "инструмент конкурентной борьбы, инструмент влияния". Министр также добавил, что в сфере составления подобных перечней не должно быть монополии. Фурсенко добавил, что российские специалисты совместно с иностранными партнерами работают над собственным рейтингом университетов. Он, сказал министр, "должен быть международным и общепризнанным"».
А вскоре и Дмитрий Медведев в своей программной речи (не только уходящего президента, но и будущего премьер-министра российского правительства) на расширенном заседании Госсовета обрисовал «как должна оцениваться эффективность органов государственной власти, по каким ключевым показателям.» В числе этих важнейших "показателей" (наряду с увеличением продолжительности жизни!) оказался такой, оказывается, насущнейший как мировой университетский рейтинг: "Пятое. Казалось бы такая вполне небольшая цель, но очень важная. Не менее пяти российских университетов должны войти в первую сотню основных мировых рейтингов. Это будет означать общий подъём нашего образования." Хотелось бы это высказывание трактовать как понимание необходимости приступить к решению реальных проблем российского высшего образования и науки. Боюсь, однако, что на практике все сведется к попыткам создания новой версии суверенного международного рейтинга собственного производства.
В заключение процитирую еще одно новостное сообщение, появившееся в печати в дни, когда обсуждался мировой университетский рейтинг: «Глава администрации президента России Сергей Иванов заявил, что не стоит доверять западным рейтингам коррупции в России и инвестиционной привлекательности страны вроде Transparency International, а вместо этого необходимо создавать свои рейтинги, отвечая на просьбу прокомментировать поставленную премьер-министром России Владимиром Путиным задачу «переместить» Россию со 120-го на 20-е место в списке стран с благоприятным деловым климатом».
Все-таки высшее образование (и его репутация) неотделимы от обстановки в стране в целом.
P.S. В представленной статье я цитировал высказывания, относящиеся только к обсуждаемому "репутационному" рейтингу этого года и принадлежащие наиболее "статусным" экспертам. В моем досье, однако, накопилось немало материалов, опубликованных в российскиз СМИ в последние несколько лет. Конечно, есть компетентные авторы. Но можно было бы цитировать и цитировать странные сентенции "экспертов", которые вроде бы профессионально занимаются университетскими рейтингами и вообще образовательной проблематикой, но первоисточников, очевидно, не читают. К примеру, два года назад в такой авторитетной газете как "Ведомости" результаты QS World University Rankings 2010 комментировала "представитель QS Зоя Зайцева". Которая - в числе других странных выводов - авторитетно сообщила, что МГУ в том рейтинге поднялся на 8 позиций "во многом благодаря большему числу научных публикаций педагогов старейшего российского вуза". Очевидно, что сотрудница российского подразделения QS не потрудилась заглянуть в цифровые данные продукта своей собственной компании - на деле именно публикации тянули (и многие годы тянут) МГУ вниз, а поднялся он тогда за счет совсем других показателей.
Остановлюсь подробнее на тексте, который можно обнаружить на сайте МГИМО (в разделе "Эксперты МГИМО") под названием «Рейтинги университетов. Место МГИМО среди ведущих университетов мира». Его авторы - проректор по научной работе доктор исторических наук профессор Алексей Подберезкин и начальник Управления научной политики кандидат политических наук Наталья Большова. Эти статусные авторы, анализируя международные рейтинги, задались целью доказать, что МГИМО уступает Принстону и Гарварду только потому, что "в основу рейтинга «Times» положен единственный критерий — индекс цитируемости, который прямо зависит не от того, сколько работ публикуется и какого они качества, а от того, сколько из них переведено на иностранные языки... критерии нередко выбираются западными экспертами произвольно. Но еще хуже то, что эти критерии очевидно субъективны и не отражают ни специфики университетов, ни национальных особенностей образования."
И доказали - используя, разумеется, свои критерии. В частности, "о лидерстве МГИМО свидетельствует... и то, что преподаватели и студенты МГИМО регулярно занимают первые места среди победителей различных международных и российских конкурсов". И далее следует большой список "конкурсов", среди которых "налоговый конкурс, проводимый компанией KPMG", "международный конкурс «Золотой резерв Нефтегаза»" и "всероссийский правовой конкурс «Правовая Россия»". Плюс "при этом и в социальной жизни, и в области физкультуры корпоративный дух МГИМО (У) доказывал высокое качество студентов, которые становились лучшими среди команд КВН, стройотрядов, самбистов, стрелков, плавцов, волейболистов, фотохудожников и т.д. и т.п." В области физкультуры!..
Центральное же место в статье занимает «Сводная таблица основных рейтинговых критериев для университетов». Она включает данные, которые, в частности, доказывают, что МГИМО превосходит Принстон и Гарвард по рейтингу веб-сайтов. Приводятся цифры. Например:
- «Число гипертекстовых ссылок на сайт с других ресурсов, преимущественно академических»: у Принстона - 25, у Гарварда - 3, а у МГИМО - 1926.
- «Количество размещенных на сайте научных публикаций преподавателей и сотрудников вуза и ссылок на публикации»: у Принстона - 136, у Гарварда - 1 (!), а у МГИМО - 903.
Так что ясно, какой университет - мировой лидер! То, что цифры абсурдные (что очевидно - а если не очевидно – что само по себе очень странно - то можно зайти на сайты Принстона и Гарварда и увидеть «размещенные на сайте научных публикации» собственными глазами), авторам не приходит в голову.
Забавно, что статья написана от первого лица («я», «могу отметить», «не берусь сказать» и т.д.) - в то время, как авторов-то вроде двое! Можно только гадать - то ли это "я" принадлежит Большовой, которая единолично статью и писала, а проректор Подберезкин присоединился "по-должности", но не озаботился даже посмотреть текст и поправить авторскую идентификацию; то ли если такое важное лицо как проректор в авторах, то "я" - это он по определению, а второго автора можно не замечать.
Но это – не единственная странность с этим материалом. Вот статья в Независимой газете «МГИМО конкурирует с Гарвардом» (с подзаголовком: «По критерию "стоимость–эффективность" наш вуз опережает американские университеты»). Легко видеть, что это тот же самый текст (с некоторыми сокращениями), и даже упомянутая таблица присутствует. Но только ссылок на материал на сайте МГИМО нет, как не упоминаются и фамилии Подберезкина и Большовой - статья подписана: «Петр Твердов - обозреватель НГ»! При том, что МГИМО-шный материал помещен под рубрикой "Эксклюзив" и снабжен указанием "При перепечатке ссылка на Портал МГИМО обязательна". Я все-таки сомневаюсь, что автор "НГ" позаимствовал (как выражался в таких случаях папаша Гека Финна) чужой текст - скорее, это наивная акция (с участием будто бы независимого от МГИМО автора) по продвижению имиджа Эллочки-людоедки МГИМО как конкурирующего с Вандербильдихой Гарвардом. В общем, мрак. И жуть.
Печаль в том, что, видимо, никто в МГИМО не понимает, насколько такого рода "эксклюзивы" вредят той самой "репутации" элитного российского вуза, наглядно демонстрируя, что тамошние профессора не способны элементарно исследовать предмет, о котором с такими претензиями высказываются.