Цитата (ConstOr @ 21.3.2020)
Когда соул говорит про ожидание от чего-либо (я подозреваю), он подоразумевает именно мат ожидание, характеристику некой функции, которую он смоделировал у себя в голове. Когда ты говоришь про единственный ран - это статистика по выборке из 1 наблюдения.
Ага. Именно эту разницу я и пытался косноязыко объяснить.
И теперь вопрос в том, насколько применима на практике та самая функция в тех самых разбираемых случаях.
Грубо говоря, Иван редуцирует разбираемую ситуацию до той, в которой конечное количество исходов и считает по формуле для этой ситуации.
А я пытаюсь понять в какой момент этот способ перестает быть применимым, хотя С ВИДУ, все выглядит примерно так же.
Вот пример. У нас есть две игры.
Ты казино, играешь против игрока.
Первая. Монетка, орел тебе платят 55 баксов, решка ты платишь 45. ЕВ броска 1.05, верно?
Вторая. Монетка, орел - тебе платят 55% от банкролла, решка - ты платишь 45% от банкролла. Каждый раз ставится весь оставшийся банкролл. ЕВ каждого броска 1.05, так же? А ЕВ серии бросков даже стремительно растет, причем никогда не меньше чем 1.05 в соответствующей степени.
Предположим что вы договорились бросать 1000 раз, после чего игрок по своему желанию может либо бросать еще тысячу раз, либо прекратить. Он игрок, имеет право.
В первом случае ты только рад, если серия продлится. Деньги капают с каждым броском, пусть эта музыка играет вечно.
Во втором ты вряд ли будешь рад наличию такой опции у рационального игрока. А особенно если он её применит. Хотя казалось бы, еще тыща бросков дает тебе еще уйму ЕВ долларов, особенно если ты по результатам первой тыщи в хорошем плюсе.
Очевидно это разные игры, разные ситуации и разное ЕВ, хотя в первом приближении рисуется одинаковое 1.05
И вот тут где-то индукция позволяет выкружить очередной парадокс. Если тебе нежелателен тысяча первый бросок, когда ты в плюсе, то почему когда ты в плюсе на 999 броске, тебе хотеть тысячный? И так до конца.
Когда мы говорим про случайные величины и их характеристики (мат ожидание, дисперсия..) - это тервер. Важно понимать, что случайная величина - не случайная и не величина. Это вполне себе детерменированая функция.
(вообще тот способ, как математика моделирует случайные события - это имхо очень элегантно и круто)
Так вот, эта функция определяется множеством всех элементарных исходов моделируемого случайного события и вероятностной мерой на них. То есть мы должны априори знать все исходы и их вероятности. И далее мы можем посчитать все эти прекрасные характеристики описывающие эту функцию типа мат ожидания или дисперсии. Обрати внимание, тут нет речи ни о каком бесконечном числе реализаций этого случайного события. То есть мат ожидание - это просто свойство некой математической функции, причём это конечная и очень простая сумма, если твоя случайная величина имеет конечное множество исходов.
Когда речь заходит об экспериментах и реализациях - это уже мат статистика. И она уже нам говорит, что если мы будем часто "реализовывать" нашу случайную величину, то среднее значение экспериментов будет бесконечно приближаться к мат ожиданию. Допустим, когда у тебя есть огромная выборка твоей случайной величины и ты посчитал её среднее, ты посчитал не мат ожидание, а выборочное мат ожидание - это вообще говоря штука совсем другой природы. Но второе стремится к первому с ростом выборки (эмпирический факт).
Когда соул говорит про ожидание от чего-либо (я подозреваю), он подоразумевает именно мат ожидание, характеристику некой функции, которую он смоделировал у себя в голове. Когда ты говоришь про единственный ран - это статистика по выборке из 1 наблюдения.