{"id":14289,"url":"\/distributions\/14289\/click?bit=1&hash=892464fe46102746d8d05914a41d0a54b0756f476a912469a2c12e8168d8a933","title":"\u041e\u0434\u0438\u043d \u0438\u043d\u0441\u0442\u0440\u0443\u043c\u0435\u043d\u0442 \u0443\u0432\u0435\u043b\u0438\u0447\u0438\u043b \u043f\u0440\u043e\u0434\u0430\u0436\u0438 \u043d\u0430 5%, \u0430 \u0441\u0440\u0435\u0434\u043d\u0438\u0439 \u0447\u0435\u043a \u2014 \u043d\u0430 20%","buttonText":"","imageUuid":""}

С каким кейсом я влетела в десятку лучших методистов обучения на международном конкурсе

Весной 2023 я приняла участие в конкурсе методистов бизнес-обучения, чтобы проверить, не слишком ли я теоритизирована в теме обучения. В этой статье я раскрою свой подход к оценке учебных программ, опишу основные этапы и то, чем я удивила состав жюри. Инструмент сможете забрать по ссылке в конце статьи.

Итак, возьму первое задание. Оно заключалось в проведении экспертизы двух описанных учебных программ. На входе я имела два документа с описанием программ и развернутым содержанием, на выходе должна была выдать экспертное заключение о том, какую программу выбираю и на основании чего.

Сразу небольшой оффтоп — в таких процессах я не люблю опираться на субъективизм и частенько подыскиваю способ, который может быть применен в последующем при выполнении подобной работы.

Бегло осмотрев 2 программы, я стала выделять критерии по принципу «тут указано, а там не указано», это было визуальное представление структуры программы.

Затем я вчиталась в буквы и стала выделять смысловые аспекты, тут я накинула свои знания по теме методологии обучения и выделила критерии, лежащие в плоскости передачи знаний, формирования понимания материала, тренировки некоторых умений.

Ну, и в каждой программе есть свои фишки, связанные с форматами работы, гибридностью, адаптивностью и прочим.

Среди всех критериев, которые мне удалось выделить, я обнаружила категории, которые их объединяют. Я не стала совсем душнить и выбрала только три - структура, методология, дополнительные маркеры. Этим категориям я задала вес важности. Например, вся программа в идеале может получить 100% оценку эксперта, при этом:

категория "Структура" - это 1 балл (16,7% общей оценки);

категория "Методология" - 3 балла (50% от общей оценки);

категория "Доп.маркеры" - 2 балла (33,3% от общей оценки).

Критерии так-то тоже имеют свой вес, для упрощения можно по дефолту принять их равнозначность внутри категории и делить балл или % на их количество. В описании программы я проставляла 3 варианта присутствия критерия оценки в виде таких значений:

-, что есть 0;

+, что есть 1;

-+, что есть 0,5.

А дальше проводим заполнение значений критериев.

В конечном счете мы видим много значений в табличке, мы можем подсчитать количество этих значений внутри категорий. Но и этого мне было мало, поэтому я ввела цветовую шкалу для оценки категорий:

Всё, что было в диапазоне 0,0% — 33,3% заходило в красную зону, что означало необходимость в значительной корректировке и доработке;

33,4% - 66,6% заходило в желтую зону, что означало необходимость в умеренной корректировке и доработке;

66,7% - 100,0% заходило в зеленую зону, что означало необходимость в частичной корректировке и доработке.

Вся работа выглядела как табличка, смело окрашенная в цвета светофора. Собственно, этот способ оценки был лаконичным, структурным, объективным и удобным для многоразового использования. Данный подход был засчитан как шанс к победе.

От себя добавлю - подход не новый, но для оценки программ обучения по каким-то странным причинам его мало кто применял.

А тут вот, берите и используйте:

0
Комментарии
-3 комментариев
Раскрывать всегда