Государственный университет Alzaiem Alazhari носит имя первого президента Республики Судан. Он был основан в 1994 г., и к настоящему моменту медицинский факультет университета окончили 1400 врачей. Судан расположен к югу от Сахары, ресурсы в этом африканском государстве ограничены.
Авторы создали видеопрограмму структурированного клинического экзамена (ViPSCE) в 2001 г. [1, 2]. Программа ViPSCE заменяет устный ("живой") экзамен как инструмент оценки студентов по предмету клинической хирургии на нашем отделении факультета.
Инструмент полезен для оценки когнитивных навыков студентов, в том числе способности решать возникающие хирургические проблемы. Он доказал свою достоверность, надежность и практическую осуществимость и позволяет сберечь средства и время как персоналу, так и студентам [2]. Поэтому неудивительно, что инструмент быстро приобрел популярность среди преподавателей и студентов как на других отделениях нашего факультета, так и в других медицинских вузах Судана.
Однако программа ViPSCE имеет ряд ограничений. Экзаменационные материалы включают слайды с фотоснимками или короткими видеоклипами, отображающими пациентов, инструментарий, исследования или процедуры. Одна из проблем, связанная с использованием программы ViPSCE, заключалась в возможности передачи четкого изображения, представленного на слайдах, при его проецировании на экран. Частично эта проблема была решена после принятия ряда мер. Мы использовали помещение, которое было достаточно большим, чтобы разместить разное число студентов (120-150 человек), оснащенное широким экраном, чтобы в нем поместился большой экран, который можно было видеть даже с бокового угла. Свет в помещении около экрана можно было приглушить, чтобы улучшить четкость изображения на слайдах, но в остальном помещении свет был достаточно ярким, чтобы студенты могли прочесть и ответить на вопросы, распечатанные на бумаге.
Использовались видеопроекторы с высоким разрешением и высокой мощностью светового потока. Студентам со слабым зрением разрешалось сесть в первом ряду, рядом с экраном.
У нас имеется центр информационных технологий (IT) на 50 компьютеров, построенный рядом с медицинским факультетом. Предполагалось, что отображение экзаменационных слайдов на экранах компьютеров позволит повысить четкость представленных на слайдах изображений для студентов и уменьшит ряд требований к помещению. После этого появилась идея преобразовать программу ViPSCE в компьютерный формат и создать компьютерную программу для проведения экзамена. Идея использования компьютеров для оценки студентов медицинских вузов не нова. Мы представляем модель проведения экзамена, которую можно использовать в учебных заведениях с ограниченными ресурсами при наличии компьютеров. Исследование не требовало изучения участников.
Методы
Подготовка к проведению экзамена
Мы оценивали группу из 43 студентов медицинских вузов последнего года обучения по окончании медицинской практики по хирургии. Все студенты были суданцами, более или менее сопоставимыми по возрасту. Экзамен проводили в форме презентации из 20 слайдов, созданных в компьютерной программе PowerPoint (Microsoft, 2007). Слайды сменялись автоматически каждые 3 мин, что сопровождалось звуком аплодисментов, чтобы привлечь внимание студента к изображению на следующем слайде.
&hide_Cookie=yes)
На некоторых слайдах были представлены фотоснимки, на других - короткие видеоклипы продолжительностью менее 1 мин. Представленный материал включал фотографии пациентов, результаты исследований (рентгенологическое исследование с контрастом или без, компьютерная томография), хирургических инструментов, катетеров и различных трубок для проведения анестезии и хирургических процедур. Видеоклипы демонстрировали пациентов, у которых выполняли физикальное обследование, например, при таких состояниях, как грыжа, а также проводились хирургические процедуры, например, эндоскопическое исследование и спинальная анестезия. Все фотографии и видеоматериалы были сняты с участием пациентов, проходивших лечение в Государственной клинической больнице после получения их согласия. Чтобы обеспечить равномерное распределение тем курса по хирургии в экзаменационных вопросах, проводились предэкзаменационные встречи, на которых присутствовал весь персонал отделения хирургии. Темы включали как неотложные ситуации, так и плановые случаи. Равномерное распределение тем по хирургии было обеспечено за счет готового материала, который мы уже создали для программы ViPSCE [2]. Распределение по темам выглядело следующим образом: 12 вопросов по общей хирургии, по 2 вопроса по ортопедии, урологии, детской хирургии и анестезиологии.
Экзаменационные листы содержали вопросы, проиллюстрированные слайдами. Число вопросов соответствовало числу слайдов. Вопросы были составлены в объективной и структурированной форме, преимущественно в форме описания хирургических задач. Мы избегали вопросов, требующих развернутого ответа. Вопросы были направлены на оценку знаний на всех уровнях, от простого определения до решения сложных задач.
Примеры вопросов, на которые отвечали студенты, и схема вопроса представлены на рис. 1.
&hide_Cookie=yes)
Студенты отвечали на вопросы, записывая ответы в специально отведенные для этого графы на том же экзаменационном листе.
Проведение экзамена
В отделении имеются 2 помещения, в каждом из них установлено по 25 компьютеров. 43 студента были разделены на 2 группы. Каждый студент работал на отдельном компьютере (рис. 2, 3). В каждом помещении присутствовали 2-3 специалиста по IT, чтобы помочь студентам в случае возникновения технических проблем. Кроме того, в каждом классе присутствовал по крайней мере один хирург-консультант. Обе группы проходили один и тот же тест с использованием одинакового порядка выполнения.
Перед началом экзамена студентам кратко описывали порядок его проведения. Программа была подготовлена заранее, и начать работу можно было одним нажатием кнопки мыши.
Обе группы начали и завершили экзамен приблизительно в одно и то же время, что позволило предотвратить общение между группами. Студентам запретили иметь при себе мобильные (сотовые) телефоны и другие средства связи, а специалисты по IT помогали наблюдать за студентами (рис. 2).
&hide_Cookie=yes)
Студентам демонстрировали одновременно одни и те же слайды как на общем экране с помощью проектора, так и на компьютере (рис. 3). Это было сделано потому, что студентов попросили сравнить два изображения при заполнении специальной формы по оценке компьютерной программы, которая им выдавалась в конце экзамена. Продолжительность экзамена составила 60 минут (по 3 мин на слайд). Слайды сменялись автоматически. После последнего слайда (по окончании экзамена) студентам давали еще 3 мин на проверку ответов. Во время этих последних 3 мин студентам разрешалось самостоятельно просматривать слайды по желанию. После экзамена студенты заполняли формы оценки.
&hide_Cookie=yes)
Экзаменационные листы проверяли вручную с использованием шаблона с ответами. Максимальное количество экзаменационных баллов составляло 100 - по 5 баллов на слайд. Общее количество баллов делили на 10 для получения результата оценки максимум 10 баллов. Таким образом, экзамен с использованием программы CCE составлял 10% от общей суммы баллов экзамена по хирургии (100 баллов). Другие инструменты оценки, которые использовались при проведении экзамена по хирургии, включали OSCE (40 баллов), тест с выбором ответов (MCQ) (20 баллов) и краткий структурированный экзаменационный опросник или SSEQ (30 баллов).
Анализ результатов оценки в баллах при использовании CCE и форм оценки
Результаты оценки в баллах при использовании CCE были описаны статистически (с помощью пакета программ обработки статистических данных SPSS 16.0, SPSSInc, Чикаго, Иллинойс, США) и сопоставлены с результатами, полученными студентами по хирургии при использовании других инструментов.
Формы оценки были проанализированы вручную путем простого подсчета и расчета процентных значений. Были определены общие темы и подсчитаны положительные и отрицательные утверждения.
Результаты
Результаты оценки: распределение и корреляции
На рис. 4 представлено распределение результатов оценки при использовании CCE. Гистограмма отображает нормальное распределение с учетом среднего значения (4,9), медианы (4,9), стандартного отклонения (1,17), с диапазоном 5 (2,5-7,5).
Двусторонние критерии корреляции Пирсона продемонстрировали высокую корреляционную связь (р<0,001) между результатом оценки каждого студента, полученным с использованием CCE, с общим результатом оценки по хирургии (r=0,683), с объединенными результатами оценки с использованием инструментов SSEQ и MCQ, т.е. общими результатами экзамена при использовании бумажных форм (г=0,513), а также с результатами оценки с использованием инструментов SSEQ ( r=0,505) и MCQ ( r=0,482) при определении корреляции с результатом оценки с использованием CCE по отдельности (табл. 1).
Приемлемость компьютерной программы тестирования для студентов и их оценка
В оценке приняло участие 28 человек (65% от проходивших экзамен).
Максимально возможный балл - 10. Наивысший балл - 7,5. Наименьший балл - 2,5.
Большинство студентов расценили инструкции по проведению экзамена (85%) и слайды (86%) как четкие или очень четкие (табл. 2). Размещение на местах большинство студентов посчитали комфортным (79%). Также большинство (65%) студентов посчитали, что компьютерные изображения и видеоматериалы лучше, чем изображения, проецируемые на экран, и что CCE следует рекомендовать для использования на других отделениях факультета (64%). Произвольные комментарии свидетельствовали о том, что большинству студентов такая форма проведения экзамена понравилась, особенно в связи с использованием IT.
Только 6 (21%) студентов отметили, что у них возникли проблемы, связанные с нехваткой времени (они посчитали, что его было мало), и/или с вопросами, которые они посчитали слишком сложными.
Обсуждение
На медицинском факультете Университета Alazhari мы использовали различные инструменты оценки при проведении итогового экзамена в конце медицинской практики по хирургии. В прошлом этот экзамен состоял из теоретической и клинической частей, и каждая из них составляла 50% от общего количества баллов на экзамене. Устный экзамен являлся частью традиционного клинического экзамена. Устный экзамен был заменен на ViPSCЕ [1, 2], а традиционный клинический экзамен - на ОСКЭ. В этой статье мы описали трансформацию ViPSCE в CCE и представили свой опыт применения этой программы, статистический анализ результатов оценки, полученных при ее использовании, и оценку студентами приемлемости этой программы для проведения экзамена.
Компьютеры использовались для проверки знаний и навыков решения задач в медицине с 1960-х гг. [3]. Опрос, проведенный в медицинских вузах Великобритании, касающийся использования компьютеров, показал, что CBA может улучшить оценку врачей и других медицинских работников за счет более эффективного проведения экзаменов. Программа в целом востребована среди учащихся и эффективна в плане представления материалов и расчета баллов по результатам тестов [4]. CBA, которая также носит название компьютерного тестирования (CBT), и CAA все чаще используются в качестве инструмента оценки по многим медицинским дисциплинам [5-7]. Мы изучили модель проведения экзамена, которая может использоваться в учебных заведениях с ограниченными ресурсами при наличии компьютеров.
Как и ViPSCE, CCE позволяет оценить знания на всех уровнях, начиная от простого определения до критического анализа и решения сложных задач. В этом случае программа дополняет ОСКЭ, в ходе которого можно оценить хирургические навыки, в том числе сбор анамнеза и физикальное обследование, а также знания студентов. На некоторых медицинских факультетах ОСКЭ состоит из стационарных и интерактивных рабочих мест. ViPSCE мы использовали как инструмент для обеспечения стационарных рабочих мест, и поэтому оставили наш ОСКЭ только для интерактивных рабочих мест при проведении экзамена. В результате практическая часть клинического экзамена может быть выполнена при наличии 27 рабочих мест. В этом случае преимущество заключается в увеличении охвата тем и глубины оценки знаний во время экзамена.
Легкость, с которой был проведен экзамен, подтвердила целесообразность использования данной программы. Первоначальная стоимость проведения экспертизы для организации IT и оборудования помещений с кондиционером и установкой достаточного числа компьютеров может быть высокой. Число студентов постоянно растет, и необходимо увеличивать число компьютеров и помещений. Организация центров IT может быть рентабельна в долгосрочной перспективе, поскольку эти центры могут использоваться не только студентами, но и коммерческими структурами, арендующими их для проведения курсов обучения, семинаров, а также для других целей.
Во время использования CCE серьезных проблем или сбоев не отмечено. Вероятно, отчасти это было связано с тем, что программа уже была установлена на компьютеры и проверена IT-специалистами до начала экзамена. 1 или 2 студента начали экзамен до того, как был дан сигнал к началу; эти студенты получили предупреждение и указание, что необходимо дождаться сигнала.
Было отмечено нормальное распределение результатов оценки при использовании CCE при среднем значении 4,97, что очень близко к проходному баллу (5). Диапазон результатов оценки от 2,5 до 7,5 свидетельствует о сбалансированной сложности экзамена, который оказался и не слишком простым, и не слишком сложным для студентов.
Результаты оценки каждого студента коррелировали с результатами оценки этого студента по хирургии с использованием других инструментов, что отражало степень надежности CCE. Стоит отметить, что CCE не позволяет оценить хирургические навыки, тем не менее между результатами оценки с использованием программы и результатами оценки с использованием ОСКЭ была обнаружена сильная корреляционная связь. Это подтверждает обоснованность названия, которое мы дали этому инструменту оценки: компьютерная программа для проведения клинического экзамена. В перспективе у нас разработка специального программного обеспечения, которое позволит отвечать на экзаменационные вопросы и вносить исправления непосредственно на компьютере. Это также позволит использовать компьютер в качестве инструмента обучения и самооценки.
Долю ответов на уровне 65% можно расценивать как низкую. Ответившие студенты в целом не отличались от студентов, которые не ответили. Некоторые студенты не сдали свои формы оценки. В этом случае было бы полезно, если бы мы попросили студентов сдать свои формы оценки сразу после экзамена, до того, как им разрешили покинуть экзаменационный класс.
Наш опрос показал высокий уровень компьютерной грамотности среди наших студентов, хотя сам по себе экзамен не требовал глубоких знаний по использованию компьютера. Программа CCE подтвердила свою популярность среди учащихся, которые обычно приветствуют идею использования компьютеров в качестве инструмента для проведения экзамена. Большинство студентов посчитали слайды четкими, рабочее место комфортным, и, в целом, они одобрили использование CCE.
Меньшинство, которое высказало неодобрение, свое отрицательное мнение связало с отведенным временем и сложностью вопросов, но не с методом проведения экзамена, предусматривающим использование компьютеров [8].
Компьютер вошел в нашу жизнь, и проведение экзаменов с его использованием как инструмента для самооценки студентов продемонстрировало большие возможности [9].
Заключение CCE - полезный метод оценки, дополняющий ОСКЭ. Программа также вполне осуществима на практике при наличии достаточного числа компьютеров. CCE заключает в себе положительные характеристики программы ViPSCE как достоверный, надежный и практичный метод проведения экзамена, приемлемый для студентов, но имеет и дополнительное преимущество, которое заключается в улучшении передачи изображения за счет использования слайдов и в будущем позволит на компьютере выполнять оценку.
Литература/References
1. El Shallaly G.H., Ali E.A. Use of a Video-Projected Structured Clinical Examination (ViPSCE) instead of oral examination in the assessment of final year medical students. Med Educ 2003; Vol. 37: 1048.
2. El Shallaly G., Ali E. Use of a Video-Projected Structured Clinical Examination (ViPSCE) instead of oral Examination in the assessment of final year medical students. Educ Health (Abingdon)/ 2004; Vol. 17: 17-26.
3. Swets J.D., Feurzeig W. Computer aided instruction. Science. 1965; Vol. 150: 572-6.
4. Cantillon P., Irish B., Sales D. Using computers for assessment in medicine. Br Med J. 2004; Vol. 329: 606-9.
5. Wolfson P.J., Veloski J.J., Robeson M.R., Maxwell K.S. Administration of open-ended test questions by computer in a clerkship final examination. Acad Med. 200; Vol. 76: 835-9.
6. Hulsman R.L., Mollema E.D., Hoos A.M., De Haes J.C., et al. Assessment of medicalcommunication skills by computer: assessment method and student experiences. Med Educ. 2004; Vol. 38: 813-24.
7. Lieberman S.A., Frye A.W., Litwins S.D., Rasmusson K.A., et al. Introduction of patient video clips into computer-based testing: effects on item statistics and reliability estimates. Acad Med. 2003; Vol. 78: 48-51.
8. Hochlehnert A., Brass K., Moeltner A., Juenger J. Does medical students' preference oftest format (computer-based vs. paper-based) have an influence on performance? BMC Med Educ. 2011; Vol. 11: 89.
9. Agrawal S., Norman G.R., Eva K.W. Influences on medical students' self-regulated learning after test completion. Med Educ. 2012; Vol. 46: 326-35.