Поздравляем!

На прошлой неделе в Московской области проходила Летняя школа по когнитивной психологии, посвященная памяти Карла Дункера. В программу школы помимо интересных лекций и воркшопов традиционно входит постерная сессия, на которой участники представляют свои исследовательские проекты.

Мы в TCTS любим постеры, и не только потому, что постерные инструкции это самый читаемый контент нашего блога. Мы любим постеры, потому что внимание к деталям, которое нужно для создания по-настоящему хорошего постера, это одно из самых необходимых качеств для молодых учёных. Для того, чтобы сделать хороший постер, нужно хорошо понимать, что в твоём исследовательском проекте самое важное и сложное, знать стандарты оформления результатов, уметь видеть свой материал чужими глазами и в целом очень хотеть, чтобы окружающие прониклись твоей наукой. Поэтому вот уже который год мы проводим конкурс среди участников Школы имени Дункера -- мы безжалостно оцениваем их постеры, и даём приз самому, на наш взгляд, профессионально выполненному.

В этом году наш выбор пал на работу «Выборочная и параллельная исчерпывающая оценка в восприятии ансамблей» Алексея Яковлева из ВШЭ. Поздравляем Алексея и его научного руководителя И. С. Уточкина! Познакомиться с работой Алексея можно здесь.

Все участники Школы получили от нас обратную связь (а Алексей -- еще и разборный мозг), но общие наши советы сводятся к следующему:

  • Формат постера предполагает возможность представить максимум информации в графическом виде -- не игнорируйте это:
    • В небольших текстовых вставках практически не должно быть признаков «прозаического» текста (вводных слов, сложноподчинённых предложений).
    • На постере должны быть ярко выделены выводы -- промежуточные и итоговые. Что вы хотите, чтобы проходящий мимо коллега запомнил из вашей работы, не вдаваясь в детали?
    • У постера должны быть внутренние поля, и вся текстовая информация должна располагаться компактно -- без нарушения границ и разрежения текста в ширину
  • Барчарты (столбики) это не самый правильный тип визуализации для средних. Выбирайте графики в зависимости от типа данных.
  • Статистические выводы на постере должны быть оформлены так же, как в любом другом академическом жанре: точки (а не запятые) после целой части, без указания 0 целых если значение не может быть больше 1 (например, p) и т. д.
  • Не забывайте указывать на постере своё полное имя и контактный email.
  • После того, как вы послушались совета № 1 и в вашем постере стало меньше текста, сократите его еще наполовину. Честно!

Большое спасибо организаторам Школы имени Дункера за возможность распространения нашей выстраданной постерной мудрости. Всем удачных конференций!

Про шрифты на постерах

Для тех, кто сейчас готовит постеры на дункеровскую школу (и к нам на конкурс постеров), ECVP, или еще какие конференции. Когда я делаю постеры, я всегда задаюсь вопросом, каким должен быть минимальный размер шрифтов.

Вот несколько рекомендаций, найденных на просторах сети:
http://www.makesigns.com/tutorials/poster-design-layout.aspx
https://blogs.it.ox.ac.uk/itlp/2009/10/21/font-sizes-for-academic-posters/
http://www.the-scientist.com/?articles.view/articleNo/31 071/title/Poster-Perfect/
https://courses.physics.illinois.edu/phys596/fa2013/Lectures/ScientificPosterTips_FA12.pdf
http://www.ucl.ac.uk/isd/services/creative-media/design/poster_guide

Как видно, советы различаются. Кто-то предлагает не использовать шрифтов с размером меньше 36-го кегля, кто-то предлагает не меньше 20-го. На мой вкус, 36ой кегль вполне подходит для основного текста, при этом можно использовать меньший шрифт (~20−24) для второстепенных вещей, например, для меток на осях графиков. Важно, чтобы используемых вариаций было мало (напр., разные размеры для названия постера, заголовков секций, основного текста, и графиков), и они использовались единообразно.

Пара слов про сам шрифт. Разумная рекомендация тут также использовать единообразные шрифты, не больше двух на постер. Часто для заголовков используются шрифты с засечками (serif), а для основного текста — без (sans) из одного и того же семейства, либо наоборот. Например, на Google Fonts (https://fonts.google.com) можно бесплатно скачать комбинацию PT Sans + PT Serif студии ParaType, поддерживающей киррилицу (также обратите внимание на PT Sans/Serif Caption). Лучше избегать рукописных и чересчур экзотических шрифтов, типа Monoton (https://fonts.google.com/specimen/Monoton), если вы не на 100% уверены в том, что вы делаете.

На этом оставляю вас с этой прекрасной схемой по выбору шрифта.

(отсюда: https://inspirationlab.wordpress.com/2010/04/16/so-you-need-a-typeface/)

Четыре полезных академических плагина для чтения статей

Одно из основных развлечений исследователей — поиск и чтение научной литературы. Чтобы слегка облегчить этот процесс, можно воспользоваться одним из этих плагинов для браузеров.

  1. PubPeer (http://blog.pubpeer.com/?p=133). Вообще, PubPeer это система post-publication peer-review, т. е. место, где ученые могут оставить комментарии к уже вышедшим статьям. Регистрация в системе ограничена, публиковать комментарии могут только те, кто уже был автором хотя бы одной статьи. Это дает некоторый фильтр на входе и периодически в PubPeer можно встретить действительно полезные обсуждения. Кроме того, там же оставляет свои комментарии бот StatCheck, проверяющий правильность статистики в уже опубликованных статьях. Проблема в том, что чтобы узнать о наличии комментариев в PubPeer, нужно зайти на сайт PubPeer, вбить там имя статьи и т. д. Это тяжело. Расширение для браузера эту проблему решает. Плагин отлавливает DOI (идентификаторы статей), и, если для них есть комментарии, выводит информацию о комментариях рядом с DOI.
  2. Sci-hub it / scihubify / sci-hub-fy (https://addons.mozilla.org/en-US/firefox/addon/sci-hub-it, https://addons.mozilla.org/en-US/firefox/addon/scihubify). Про Sci-hub знают все. Эти плагины позволяют сократить время на копирование адреса статьи в sci-hub. Просто нажимаете кнопку и получаете статью. Аналогичный плагин для Chrome: https://github.com/allanino/sci-hub-fy
  3. Google Scholar Button (https://addons.mozilla.org/en-US/firefox/addon/google-scholar-button, https://chrome.google.com/webstore/detail/google-scholar-button). По сути, это быстрый поиск в Google Scholar. Выделяете текст, нажимаете кнопку, получаете информацию о статье из Google Scholar, включая ссылку на pdf при наличии.
  4. Lazy Scholar (http://www.lazyscholar.org/, временно доступен только для Chrome) — такой мастодонт, выдающий вам информацию о количестве цитирований, импакт-факторе журнала, предлагающий схожие статьи, проверяющий комментарии на PubPeer и т. п. Некоторым нравится, некоторым кажется чересчур громоздким.
    © http://www.phdcomics.com/comics/archive/phd102816s.gif

Про платные статьи

Иногда студенты и преподаватели российских вузов высказывают очень странную мысль — публиковаться в западных журналах невозможно, потому что за это надо платить. На чем основана идея, что за публикации надо платить, достоверно неизвестно. Основная масса когнитивных журналов (в том числе «высокостатусные», типа Nature Neuroscience) не требует абсолютно никаких денег за публикацию статьи. За что нужно платить: открытый доступ и цветные картинки в печатных версиях статей (цвет в онлайн-версиях журналов по понятным причинам никого не волнует). Кроме того большинство издательств предлагает услуги по корректуре рукописей, но пользоваться ими абсолютно не обязательно. Кстати если вы публикуете первые статьи, английский для вас неродной, и под рукой нет хорошо знающих язык коллег, можно воспользоваться услугами англоязычных фрилансеров — это значительно дешевле, чем официальные пруфрид-агенства. Также есть журналы, статьи в которых публикуются исключительно в открытом доступе, например, PLOS One (http://journals.plos.org/plosone/) или i-Perception (http://journals.sagepub.com/home/ipe). Такие журналы всегда предполагают оплату публикации, однако часто есть возможность получить полную или частичную отмену оплаты, если денег нет (например, https://www.plos.org/fee-assistance#loc-fee-assistance-programs).

Отсутствие платы за публикации во многом обусловлено тем, что авторы, редакторы и рецензенты работают бесплатно, но доступ к публикуемым статьям платный (за исключением статей с открытым доступом — поэтому за них и требуют платы). Таким образом, бизнес-модель современных академических издательств чаще всего строится на продаже доступа к статьям университетам, библиотекам и отдельным читателям. За это издательства серьезно критикуют, и в целом академический мир движется в сторону открытого доступа, что, вероятно, приведет к включению в гранты расходов на публикации. Но пока этого не произошло.

From: phdcomics.com/comics/archive.php?comicid=1200
Обобщая: если вам говорят, что публиковаться в англоязычных журналах тяжело, так как нет денег, знайте, что говорящий понятия не имеет, о чем говорит. А если вам предлагают «задешево опубликовать статью» — это мошенничество (http://thinkcognitive.org/ru/blog/academic-scam-spam).

Инструменты публикации кода в научных исследованиях

Алена Беглер, лаб-менеджер небезызвестной «семерки» на факультете психологии СПбГУ, написала для #горячихюныхкогнитивных большой и очень полезный материал по инструментам публикации кода в научных исследованиях. Особенно полезно будет тем, кто участвует в нашем конкурсе экспериментальных программ MARVIN (http://thinkcognitive.org/ru/nerd).

***

Сейчас существует более семидесяти специализированных хранилищ научного кода (по данным Регистра научных репозиториев), не считая университетских хранилищ и инструментов для совместной работы с кодом, ориентированных на разработчиков. Эти хранилища отличаются по дисциплинам (например, для биохимиков), типам данных (например, только для массивов сырых данных), странам и предназначению (например, для публикации данных определённого проекта). Хранилищ общего назначения для публикации кода научных исследований в открытом доступе есть минимум четыре: figshare (https://figshare.com/), Zenodo (https://zenodo.org/), OSF (https://osf.io/) и GitHub (https://github.com/). Про них дальше и пойдёт речь.

Что это такое?

По сути, это хранилища данных в широком смысле: результатов экспериментов, постеров, исходного кода и так далее. OSF, figshare и Zenodo изначально создавались для научных исследований; GitHub позиционировался как инструмент для совместной работы над кодом и в последние несколько лет добавил функционал, делающий его полностью подходящим для хранения исследовательского кода. У этих четырёх систем много общего (по крайней мере, на уровне пользователя). Все они:

  1. хранят данные и имеют систему контроля версий;
  2. допускают создание как публичных, так и приватных проектов;
  3. позволяют организовать совместную работу над проектом;
  4. реализуют поиск по проектам;
  5. позволяют присвоить каждому объекту уникальный цифровой идентификатор (doi или ARK), с помощью которого можно цитировать объект (например, конкретный кусок кода);
  6. бесплатные (или в основном бесплатные) для пользователя.

Общие минусы всех проектов такого типа: слабый редактор кода (или его отсутствие) и некоторый порог вхождения — на них нужно как минимум зарегистрироваться в английском интерфейсе, а для некоторых платформ и посмотреть краткий мануал.

Как этим пользоваться?

Если кратко: зарегистрироваться — залить данные/код/итд — добавить метаданные — опубликовать. Два момента, которые важны при выкладке своих материалов в открытый доступ. Первый — упомянутые метаданные. Это, по сути, описание проекта: название, краткая характеристика, информация об авторах и так далее. В большинстве хранилищ наличие минимума метаданных — обязательное условие добавления файлов, но чем они полнее, тем, во-первых, проще другим будет получить информацию о проекте (и вообще найти его), во-вторых, вспомнить детали через пару лет после его завершения. Второй — лицензия. Всё, что выложено в открытый доступ обязательно нужно лицензировать — без этого ваши данные или код будут фактически недоступны для других исследователей, ведь по умолчанию отсутствие лицензии означает, что автор не разрешил использование. Лицензия — это способ его разрешить и заодно проконтролировать то, какие права вы готовы предоставить пользователям. По умолчанию большинство репозиториев предлагает лицензию Creative Commons CC-BY, которая позволяет использовать и изменять материалы как угодно (в том числе и для коммерческого использования) при указании авторства. Больше информации — по ссылкам внизу поста. А теперь немного про сами репозитории.

figshare (https://figshare.com/) создан в январе 2012 года, основатель — Mark Hahnel (PhD по клеточной биологии), позиционируется как «репозиторий для любых результатов исследований». По умолчанию на бесплатном аккаунте можно хранить любое количество публичных данных и до 20 Гб приватных (максимальный размер одного файла — 5 Гб). Файлы загружаются простым перетаскиванием мышью в окно в браузере (на вкладке «My data»), после загрузки появляется окно для ввода метаданных с краткими инструкциями по заполнению для каждого поля. Чтобы данные появились в открытом доступе нужно поставить галочку «Publish». Добавленные файлы могут храниться сами по себе, а могут быть организованы в проекты (на вкладке «Projects»). Интересная особенность figshare — в нём можно составлять коллекции данных (вкладка «Collections»), добавляя туда не только свои собственные, но и выложенные в открытый доступ другими исследователями. Это удобно, например, при поиске массивов данных по определённому типу задач.

Zenodo (https://zenodo.org/) открылся для публикации данных в мае 2013 (основан CERN) и предназначен для хранения «всех результатов исследований любого направления науки». Ограничение по количеству данных — 50 Гб на датасет (но у пользователя может быть несколько датасетов). По организации загрузки данных очень похож на figshare — сначала файл добавляется кнопкой «Upload» на главной странице, потом по стандартной форме вводятся метаданные, после этого можно публиковать (кнопка «Publish»). Чтобы данные опубликовались в открытом доступе в пункте «Access right» нужно выбрать «Open Access». Отличительная черта Zenodo — сообщества («Communities»). Это нечто среднее между группами в социальных сетях и коллекциями figshare — подборки данных по теме сообщества, которые загружаются пользователями.

Open Science Framework (OSF) (https://osf.io/) начала работу в 2013 году, основатель — Brian Nosek (профессор психологии), предназначена для «интеграции и объединения процесса работы над исследованием». Размер приватного хранилища не ограничен (размер одного файла — максимум 5 Гб). Эта платформа отличается от остальных тем, что её основная цель — не расшаривание данных, а интеграция всех инструментов, используемых в процессе исследования. Поэтому и принцип организации файлов у неё немного другой — от проекта. То есть, чтобы добавить файл, нужно создать проект, а уже в него загружать куски кода, данные и так далее. Этим объясняются и особенности навигации по платформе — пользовательский интерфейс может сначала показаться не совсем понятным, поэтому лучше перед началом работы с платформой посмотреть введение (в ссылках внизу поста). Приятные особенности OSF — интегрированная wiki-система и интеграция с большинством инструментов, использующихся в научных исследованиях, что делает её отличным инструментом для организации научного проекта.

GitHub (https://github.com/) — самый старый из описанных проектов, стартовал в 2007 году. В отличие от предыдущих описанных проектов — коммерческий продукт и предназначен в первую очередь для совместной разработки. Бесплатно на нём можно создать только публичный проект, но размер хранилища не ограничен. Основное преимущество перед описанными репозиториями — создан специально для размещения кода; ещё один плюс — большое русскоязычное сообщество. Но GitHub (в отличие от остальных) — не хранилище, а, в первую очередь, система контроля версий и совместной работы с кодом.

Где узнать больше?

Про метаданные:

Про лицензирование:

Про репозитории:

Бродман умер, да здравствует Бродман

Эта неделя ознаменовалась выходом нового детального атласа коры головного мозга человека, основанного на данных Human Connectome Project.

Можно долго спорить о том, ведет ли все более подробная детализация к лучшему пониманию собственно работы мозга (spoiler alert -- по большому счету, не ведет), но уточнение карт -- это несомненно большой шаг в сторону более прицельных гипотез и осмысленных выводов из когнитивных нейронаучных исследований, не говоря уже о более прикладном использовании, например, в нейрохирургии.
Карта, созданная под руководством Мэтью Глассера и Дэвида ван Эссена, основана на комбинации структурных и функциональных снимков мозга 210 испытуемых, и проверена на еще 210. В анализе использовался новый алгоритм выравнивания (alignment) индивидуальных изображений и полуавтоматизированный алгоритм разделения коры по границам, присутствующим в более чем одной метрике (например, миелинизация + фМРТ состояния покоя). В результате каждое полушарие оказалось разделено на 180 зон.

Широкое обсуждение этих данных также возбудило интерес к другому атласу, опубликованному этой весной китайским проектом Brainnetome (не самое лучшее название, но работа очень интересная). В отличие от Глассера и коллег, команда Лижона Фанга создала карту на основе диффузионной МРТ (техники, измеряющей геометрическое строение пучков нервных волокон) и алгоритмов вероятностной трактографии. На их карте коры получилось 210 зон, часть из которых совпадает с картой Глассера, но часть -- особенно во фронтальной коре -- представляют более мелкое деление. Теперь, безусловно, интересно, что получится, если совместить данные фМРТ и данные трактографии в одной модели (если такие совмещенные данные существуют).

Конечно, с улучшением качества данных и алгоритмов анализа число стабильно и достоверно выделяемых зон коры будет возрастать. Осталось только понять, что в них происходит;)

А для тех, кто хочет попробовать разделить усредненный мозг на новые зоны в среде FreeSurfer, есть инструкция здесь

Где искать научные новости?

*Для тех, кто недавно пришел, а также для тех, кто давно с нами, но внезапно озаботился проблемой формирования научной новостной ленты, мы решили поднять и дописать/переписать один из наших ранних материалов*.

Ни для кого не секрет, что чтение научной литературы — один из основных видов деятельности ученых. Когда-то для того, чтобы оставаться в курсе всех текущих дел, достаточно было получать пару журналов в месяц, но эти времена давно прошли. Сначала журналов стало больше, потом они стали электронными, а вскоре научная информация проникла и в более разнообразные Интернет-каналы. Следить за всем этим потоком стоит по-разным причинам. Во-первых, даже в консервативном варианте, просматривать последние выпуски журналов своей отрасли нужно всем ученым. Во-вторых, блоги и Твиттер позволяют «подслушивать» дискуссии и учиться анализировать информацию. Вы же не хотите узнавать о научных новостях от журналистов? В-третьих, окунувшись в научный Интернет, вы поймете, что вы не одни в своих исследовательских страданиях, что вполне поддерживает в трудную минуту. В общем, мы очень рекомендуем найти и подписаться на научные новости, соответствующие вашим интересам. Чтобы показать, как это примерно выглядит, мы решили поделиться некоторыми своими подписками.

В настоящий момент наши новостные ленты состоят из следующих элементов (в списке — примеры из наших подписок, не все, только самые важные или яркие примеры). Естественно, поток информации большой, поэтому многие вещи получается только пролистывать или вообще пропускать.

Социальные сети плохо обрабатывают гиперссылки, поэтому полноценный список ссылок смотрите в посте на нашем сайте.

1. Гугл-группы и email-рассылки (listservs). Посвящены распространению информации о конференциях, мероприятиях, магистерских программах и PhD/Postdoc/job-позициях, и обсуждению вопросов, интересующих конкретное сообщество.

  1. Ф:
    • Stan-users — для тех, кто занимается байесовским анализом и использует Stan
    • Mosling — группа для лингвистов, информация о конференциях, докладах, можно спросить какую-нибудь статью или консультацию коллег по спорному вопросу (после первого ответа переписку следует переводить в приват)
    • aaa_statgeeks — сообщество питерских и московских психологов, где можно спросить совета по анализу данных. Не очень активно.
    • LinguistLists — логово лингвистов, но временами встречаются материалы, связанные с psycholinguistics
    • Maths-neuronet — материалы, связанные с computational neuroscience
    • Comp-neuro — еще один дайджест по computational neuroscience
    • CogSeminar — рассылка Московского семинара по когнитивной науке, в первую очередь, информация о докладах
  2. Н:
    • Visionlist & CVNET — основные рассылки в сообществе исследователей зрения. Информация о конференциях, курсах, вакансиях. Содержание двух рассылок часто (но не всегда) пересекается.
    • Группы, связанные с интересными мне сообществами и инструментами, которыми я пользуюсь: SoftwareCarpentry, Fieldtrip etc.
    • Еще иногда существуют локальные подписки научного центра/университета/объединения. У меня их довольно много, для российских ученых эту роль может выполнять Cogito Ergo.
  3. А:
    • В дополнение к уже вышеописанному — московская фМРТ-рассылка Fmri-all
    • Плюс я зачем-то подписан на два листа Society for Philosophy & Psychology: spp-announce и spp-misc. Ближе к философии, редко что-то пишут, но для интересующихся темой могут быть полезные объявления.

Pro Tip: чтобы не отвлекаться на каждое входящее письмо из этих групп, рекомендуем автоматически фильтровать их в отдельную папку и читать, когда есть время. Однако, если читать реже раза в неделю-две, высок риск устаревания информации. Pro Tip2: Google Mail автоматически отправляет все во вкладку форумы.

2. Twitter. Не очень популярный в России и, на наш взгляд, сильно недооцененный инструмент. Между тем, в твиттере можно читать горячие новости с конференций
Читать далее Где искать научные новости?

Ещё раз о Reproducibility project

С некоторым опозданием подводим итоги нового витка дискуссии о воспроизводимости в психологии. Пост подготовлен специально для газеты PSYNEWS.

TL;WR:

— Независимая группа ученых подвергла резкой критике известное исследование воспроизводимости психологических результатов;

— Выдвинутые замечания, касающиеся примененных статистических методов, основаны на некорректных теоретических предпосылках;

— Все в порядке, у нас все еще кризис.

Прошло полгода с момента публикации в Science большого и громкого исследования Open Science Collaboration [1], посвященного воспроизводимости результатов психологических исследований. Об этом исследовании с разной степенью точности рассказывали, наверное, во всех научных и околонаучных медиа. Писали о нем и мы [2]. За прошедшие месяцы статья достаточно много цитировалась (более 150 раз по данным Google Scholar), кроме того, в кулуарах обсуждались различные варианты дополнительного анализа имеющихся данных, и некоторые из них даже были оформлены в виде статей. Например, байесовский анализ от Александра Этза, который мы приводили в исходном посте, теперь в расширенном виде [3] опубликован в Plos One.

Несколько недель назад в целом мирное обсуждение путей развития психологической науки было нарушено появлением в Science комментария к статье Нозека за авторством гарвардского психолога Дэниела Гилберта и нескольких его коллег [4]. В комментарии утверждается, что исследование, проведенное командой Нозека, содержит аж три дополнительные неучтенные погрешности, и если эти погрешности учесть, уровень реплицируемости получается очень даже оптимистичный. Комментарий вышел одновременно с ответом команды OSC [5] и с едким пресс-релизом от Гарварда [6], позволившем комичной ситуации снова разойтись волнами в СМИ: «В психологии все настолько плохо, что даже исследование того, насколько все плохо, плохое».

Первое прочтение статьи Гилберта и сопровождающего её пресс-релиза вызывает смешанные чувства. С одной стороны, часть поднимаемых вопросов звучит здраво (например, можем ли мы действительно считать адекватной попытку репликации социальных эффектов в другой стране на другом языке). С другой стороны, некоторые формулировки, использованные в описании статистических понятий, вызвают удивление — они откровенно не соответствуют общепринятым.

Если кратко, то критика в статье Гилберта была высказана в адрес трех вещей: 1) статистического критерия того, что считать успешной репликацией, 2) статистической мощности репликаций OSC и 3) отличий репликаций от оригинальных исследований. Для объяснения первых двух пунктов придется ненадолго погрузиться в технические детали.

Критика № 1: критерий репликации

Авторы из Гарварда утверждают, что OSC неправильно рассчитали ожидаемый процент результатов, невоспроизведенных по сугубо статистическим причинам. Однако, предложенное ими «улучшение» основывается на некорректной трактовке доверительных интервалов [7,8]. Гилберт и коллеги считают, что результаты 95% репликаций должны находиться внутри доверительных интервалов оригинальных исследований. Они забывают, что если оригинальное исследование имело небольшую выборку и слабый эффект, доверительный интервал будет огромным, и «успешно» воспроизвести такое исследование не составит труда. И наоборот, чем точнее исходное измерение, тем сложнее будет «попасть» в него репликацией. Использовать такой плавающий критерий для оценки успешности репликаций кажется странным.

Критика № 2: мощность

Здесь Гилберт и коллеги рассказывают, что в другом репликационном исследовании (ManyLabs) процент воспроизведенных результатов достиг аж 85, и утверждают, что такой успех обеспечивается большой выборкой в репликациях [9].

Суть ManyLabs в том, что каждое из 16 исследований повторяли 35 раз в разных лабораториях по всему миру, исследовав в общем более 6000 человек. Таким образом, по каждому исследованию в ManyLabs было получено 35 обычных выборок, вместе составляющих одну огромную супер-выборку. Этот подход отличается от подхода OSC, где 100 исследований повторяли по 1 разу, и достаточный размер выборки рассчитывали на основе результатов оригинала.

По словам Гилберта и соавторов, если посмотреть на супер-выборки, воспроизводятся 85% оригинальных результатов. Однако, если применить подход OSC и посмотреть на каждую малую выборку внутри супер-выборки, процент реплицируемых эффектов падает до 35. Если это действительно так, это может означать, что результаты OSC страдают от недостаточной статистической мощности и недооценивают воспроизводимость в целом. Однако, более внимательный анализ показал, что 85% и 35% были получены в результате не сравнимых друг с другом вычислений. 35% в малых выборках — это репликации, попавшие в доверительный интервал оригинального эффекта, а 85% в супер-выборках — это количество репликаций, достигших критерия статистической значимости (p < .05). Если же выбрать общий подход, измерения воспроизводимости в слитых вместе и разрозненных выборках становятся более похожи друг на друга и держатся в районе 40%-50% [10].

Критика № 3: точность

Теперь отойдем от деталей анализа и поговорим о (еще) более творческой части исследования — насколько точно должен протокол репликации повторять протокол оригинального исследования? По мнению Гилберта и коллег, все выше описанные математические рассуждения имеют смысл только в том случае, если единственным отличием репликации от оригинала является новая выборка из той же самой популяции, а этому критерию исследования OSC явно не удовлетворяют. В своем комментарии они описывают, например, следующие странности репликаций в OSC: «исследование отношения американцев к афро-американцам проводилось на итальянцах» или «исследование, где маленьким детям давали сложную задачу превратилось в исследование, где более старшим детям давали простую задачу». Звучит, конечно, настораживающе. Неужели авторы репликаций действительно настолько халатно отнеслись к оригинальным исследованиям?

OSC определяют прямую репликацию как «попытку воссоздания условий, которые считаются достаточными для обнаружения ранее описанного результата». Формулировка весьма расплывчатая, но стоящая за ней философия примерно понятна: не бывает идентичных исследований, но бывают ситуации, в которых психологические эффекты, если они обнаружены и описаны корректно, должны работать. Возьмем в качестве иллюстрации один приведенных в комментарии примеров. Как пишут Гилберт и коллеги, «исследование, в котором израильтянам нужно было представить последствия ухода в армию, превратилось в исследование, в котором американцам нужно было представить последствия медового месяца». Эффект воспроизвести не удалось, но при таком описании метода это совсем не кажется удивительным. Какова же была логика участников OSC?

По данным OSC [11], в оригинале [12] исследовалось взаимодействие жертвы и обидчика. В ходе исследования участники зачитывали гипотетические сюжеты. Например, «Представьте, что вы и X — коллеги. Вы долго работали над проектом, но перед самым его завершением вы вынуждены уйти в армию/декрет, и вы просите Х завершить пару задач за вас. Эти задачи Х выполняет на отлично и получает вашу должность, а вас понижают и отправляют в другой отдел. Х знает, что делает неправильно, но принимает повышение» . Исследуемый процесс взаимодействия социальных ролей не предполагал культурных различий, и репликацию вместо Израиля проводили в США. Однако, в США понижение в должности во время декрета нелегально, и в армию внезапно не забирают, поэтому ради реалистичности история была изменена: сотрудник должен был уйти в отпуск из-за давно запланированной свадьбы и медового месяца. Смысл исследования остался тот же, детали изменились. По мнению Гилберта и коллег, такие изменения недопустимы в репликациях, на то они и репликации. С другой стороны, если эффект исчезает от небольших вариаций задачи, не ставит ли это под сомнение если не его существование, то хотя бы его размер и генерализуемость?

В общем, авторам комментария не удалось убедить сообщество в том, что никакого кризиса воспроизводимости не существует. Несмотря на яркий язык, их критика свелась к тому, что психологические эффекты тонкие и хрупкие, и их можно обнаружить в исключительно специфических условиях. Это действительно похоже на правду, но в таком случае нашей первоочередной задачей является увеличение мощности исследований для того, чтобы с уверенностью отличать реально существующие тонкие закономерности от ложноположительных результатов. И конечно же для этого нужны крупные коллаборации. В конце концов, судя по этой статье, даже гарвардские профессора допускают статистические ошибки.

  1. http://science.sciencemag.org/content/349/6251/aac4716
  2. http://tcts.cogitoergo.ru/ru/blog/o-reproducibility-project#.VvsldBJ95m8
  3. http://journals.plos.org/plosone/article?id=10.1371/journal.pone.149 794
  4. http://science.sciencemag.org/content/351/6277/1037.2.full
  5. http://science.sciencemag.org/content/351/6277/1037.3.full
  6. http://news.harvard.edu/gazette/story/2016/03/study-that-undercut-psych-research-got-it-wrong/
  7. https://ru.wikipedia.org/wiki/Доверительный_интервал
  8. http://thinkcognitive.org/ru/blog/golova-professora-bambldorfa#.VvsmcxJ95m8
  9. https://osf.io/wx7ck/
  10. https://hardsci.wordpress.com/2016/03/03/evaluating-a-new-critique-of-the-reproducibility-project/
  11. http://retractionwatch.com/2016/03/07/lets-not-mischaracterize-replication-studies-authors/
  12. Shnabel, N., & Nadler, A. (2008). A needs-based model of reconciliation: satisfying the differential emotional needs of victim and perpetrator as a key to promoting reconciliation. Journal of personality and social psychology, 94(1), 116.

Мотивационные письма

Все знают, что мы в TCTS любим писать справки по освоению разных академических жанров.

Например, в недрах нашего блога есть чеклист по созданию постеров, инструкция к рекомендательным письмам, план работы над эссе и много всего другого. Надо сказать, не все такие инструкции даются нам одинаково легко. Чем шире поставленная задача и спектр ситуаций, в которых она встречается, тем сложнее давать рекомендации вне контекста.

Мотивационные письма — это один из таких жанров, владение которым очень важно для успеха в академической среде, но составить внятную инструкцию к которому совсем непросто. На прошедшей #зпш_спбгу Ольга Львова и Ника Адамян рассказывали на своем мастер-классе об особенностях мотивационных писем и часто встречающихся ошибках и заблуждениях. К обсуждению присоединился и случайно оказавшийся рядом профессор Брайан Роджерс, поделившийся своим многолетним опытом оценки мотивационных писем. Презентацию можно посмотреть здесь:

К сожалению, в этой инструкции больше сказано о том, чего делать не стоит, и дано относительно мало «правильных» примеров, но это объясняется тем, что мотивационные письма в природе бывают самые разные, и одна и та же формулировка может убивать одно письмо и и идеально подходить к другому. Тем не менее, надеемся, что и в такой форме эти советы кому-то помогут.

В сети есть много разных, в основном англоязычных, инструкций на похожие темы. Нам особенно нравится эта, но что-то похожее есть на сайте большинства крупных университетов. И да, пользуйтесь инструкциями, но помните, что лучше вас самих ваши цели и ваш научный путь не знает никто.

Зимняя Психологическая Школа СПбГУ 2016

Как известно многим #горячимюнымкогнитивным, чуть больше недели назад закончилась очередная Зимняя психологическая школа, она же #зпш_спбгу.

Что интересно, в этом году Школа взяла не совсем обычный для себя научный крен, так что интересующимся когнитивной наукой было где разгуляться. Например, по утрам одновременно шли программы по психофизиологии, когнитивной психологии и анализу данных. Кроме этих трехдневных курсов от преподавателей и аспирантов СПбГУ, в программе школы были лекции от нескольких московских экспертов TCTS, а среди участников было немало знакомых по нашим конкурсам лиц. В общем, ЗПШ в этом году была удивительно когнитивной, и это не может не радовать.

Ну и ещё о нашем участии в Школе. В последний её день состоялся мастер-класс о современных тенденциях и инструментах психологических исследований в исполнении межгалактического дуэта Ники Адамян и Ильи Захарова. На мастер-классе было мало воздуха, но много интересных обсуждений и идей, за которые авторы весьма благодарны участникам. Слайды выложены на SlideShare и в нашем блоге. Psychology is no Rocket Science. Or is it?