Цитата (БоевойСлон @ 15.4.2017)
Простор для субъективности при интерпретации числовых результатов гораздо меньше
Ну это как сказать. Вот на примере "наших детей стали учить лучше".
Сначала мы получаем погрешность переводя реальный мир в числовые результаты. Например когда выбираем что именно из всего многообразия аспектов реальности будем считать, а что отбросим (успеваемость важна, а моральные качества нет) каким образом будем учитывать (табели, устные экзамены, тесты, рефераты - каждый метод выделяет одни качества и принижает другие, которые в результате в итоговую оценку не войдут), какие будут пороговые значения (оценок всего пять, а степеней соотношения знания/незнания больше), и тд и тп.
Потом мы получаем ещё одну погрешность, переводя числовые результаты обратно в реальный мир.
Например: результаты ЕГЭ выросли на 20%, значит ли это что дети стали на 20% более образованы или умны? И если не на 20%, то на сколько? Каков теперь новый шанс что ребёнок станет успешным физиком или математиком или программистом или продавцом или просто нормальным членом общества? Как нам интерпретировать результат то?
После чего, финальным аккордом, эта подменённая картина мира и становится новым миром, потому что теперь, после допущения что наша модель отражает реальность (хотя она с большими погрешностями) мы начинаем трудиться над улучшением результатов модели, а не реального мира.
Тренировать на сдачу ЕГЭ, игнорируя остальные аспекты, или допустим понижать сложность заданий (а что, это же тоже вызовет рост цифр в рамках принятой модели), или все остальные минусы палочной системы.
Или вот технологичный пример придумал, в духе времени, даже с применением биг даты: сортировать учеников на сдачу разных предметов. Типа если Вася будет сдавать биологию, а Оля английский язык, то на двоих они наберут скорее всего 156 баллов. А если Оля биологию, а Вася английский, то скорее всего 160.
Это конечно вызовет рост конечной цЫФры в модели, но означает ли в этом случае реальный рост образованности учеников?
Есть такое общеизвестное человеческое свойство. Постфактум переоценивать отброшенные варианты в сторону их принижения.
Когда ты выбираешь между Египтом и Турцией у тебя нет достаточных рациональных аргументов. И оба варианта тебе нравятся одинаково (это томографы меряют).
Но после того как ты по какой-то причине, хоть броском монетки, выбрал например Турцию, то второй вариант тебе начинает нравиться куда меньше (и это тоже томографы меряют).
И более того, теперь если тебя спросить почему ты не поехал в Египет - ты найдёшь много веских доводов в подкрепление своей позиции. Рациональных доводов.
Вот это же самое, на мой взгляд, происходит и с моделями. После того как мы волюнтаристским решением определили что для модели значимо, а что нет (она же не безгранична, мы не можем включить туда все), мы начинаем игнорировать аспекты, в модель не вошедшие и уделять повышенное внимание аспектам вошедшим. Особенно тем, которые влияют на конечную главную цЫфру.
И, даже, находить Экспертное объяснение этому своему поведению.
И даже вроде разобрался, но забыл об этом написать.
Оставляю этот пост как напоминание мне, чтобы поднять те наработки и изложить результаты изысканий.
Ну там, можете поплюсовать, чтобы мне стыдно стало ещё раз забыть об этом.