SnowBeaver, что то я запутался=) Чего нам не хватает здесь и сейчас, чтобы учесть card removal? Я сейчас считаю диапы bb vs utg. Получу правильные веса и забью их в jesolver и поменяю вероятность ранаутов. Да я не смогу учесть изменение вероятности карт ривера на различных тернах. Но тут ev уже будет совсем незначительное. А трудозатраты гигантские, если нет своего солвера)
c00l0ne @ 20.12.23напрямую , это значит мы обсчитываем по формулам каждый вариант, перебирая все и составляем итоговую картину ...
Вот ответ от главного разработчика HRC:
- If it is not difficult for you, please explain why you are using a non-mathematical method for determining dead cards. And Monte Carlo?
-Because enumerating ranges 9-way isn't feasible.
-You can do full enumerations HU and 3-way, everything beyond that gets very very slow.
Я думаю они с радостью купят у тебя твой способ расчета)
c00l0ne @ 20.12.23SnowBeaver, это BAZA
в том то и дело что нейросеть может обобщать , а гто очень сложно обобщить ... потому что люди смотрят на текущий флоп текущий терн текущие свои карты ... но в целом обобщить стратегию оч сложно ...
допустим да , на хорошем датасете обучить сеть ...
я думаю она сможет выдавать уже на всем гто решении какие то ответы ...
не факт что они будут 95 процентов конфиденса
не факт и 80
но в целом это будет какой то инструмент для изучения многогибайтного решения ...
как идею зафиксируем
я фиксирую только то, что на практике могу попробовать в хотябы обозримом будущем :) контбету я нейросеть уже обучал. Все мои попытки осмыслить GTO в терминах бакетирования, деревьев и нейросетей неуклонно приводили к выводу, что в GTO решении есть какая-то часть решения, который описывается логикой и какой-то хвост рандомизированного шума, в котором не удаётся найти никакой логики, просто руки разбросанные в балансе.
Выглядит это так - ты учишь одну нейросеть, скажем в 3 слоя по 100 нейронов контбету, она даёт тебе на борде из тестовой выборки решение с 65% точностью, ты добавляешь ещё нейронов и скажем догоняешь до 500, получаешь точность 80%. потом ставишь 4 слоя и по 1000 нейронов и получаешь точность 80.31%. Это как-бы говорит нам, что либо в данных нет больше паттернов, которые нейросеть могла бы уловить. Либо то, что мы как-то не так учим нейросеть и надо вводить нормализацию. т.к. на примерах из обучающей выборки точность конечно же лучше. И после многих дней такой ебли всё равно приходишь к результату, что идеальное обобщение на GTO данных либо невозможно, либо ты пока мало старался :) А так как надо ещё что-то на хлебушек зарабатывать, то я не готов посвятить этой теме основное время своей жизни.
P.S. всегда найдутся люди которые будут находить у любой руки из GTO осмысленную логику. Я к этому стараюсь относиться спокойно. Примерно как к любому другому проявлению апофении
fullblufer @ 20.12.23SnowBeaver, что то я запутался=) Чего нам не хватает здесь и сейчас, чтобы учесть card removal? Я сейчас считаю диапы bb vs utg. Получу правильные веса и забью их в jesolver и поменяю вероятность ранаутов. Да я не смогу учесть изменение вероятности карт ривера на различных тернах. Но тут ev уже будет совсем незначительное. А трудозатраты гигантские, если нет своего солвера)
ничего не мешает, я так уже делал. всё хорошо, это работает и даёт более качественные решения постфлоп, которые чуть ближе к реальности чем без таких действий. учёт правильных весов префлоп много теоретических водов может обнулить :) если конечно люди поймут вообще тебя. Просто когда ты имеешь возможность всё дерево решений с префлопа считать на MCCFR и переходить на флоп с уже взвешенным сабсетом, то это куда как приятнее. Так что сейчас у меня HRC в фаворитах.
SnowBeaver @ 20.12.23скажем в 3 слоя по 100 нейронов контбету
ахахаха, сетюшка назовем ее )
понятно что нужны нормальные сети типа трансформера ... с многомиллионов параметров ...
fullblufer @ 20.12.23-Because enumerating ranges 9-way isn't feasible.
true or false ?
верим ?
хорошо почему для ха или для 3макса не сделали , для 6 макса ? эту опцию прямого расчета ?
мне кажется просто этим никто не занимался ...
c00l0ne @ 20.12.23ахахаха, сетюшка назовем ее )
понятно что нужны нормальные сети типа трансформера ... с многомиллионов параметров ...
ты сам попробуй :) большинство задач решается очень хорошо сетями очень небольшого объёма. Чтоб знать сколько должно быть реально слоёв нейронов, нужно пробовать. Ну и да, мои сетюшки сутками на тесле V100 обучались. Те кто сами не пробовали, но могут дать оценку как правило не шарят.
SnowBeaver, сорян я теоретик) но тренировать сети это исскуство то еще конечно , респект тебе что трайишь эти темы
c00l0ne @ 20.12.23SnowBeaver, сорян я теоретик) но тренировать сети это исскуство то еще конечно , респект тебе что трайишь
есть базовая методология по шагам чего делать надо, а чего делать не надо. от Andew Ng. Порог вхождения - средняя школа. Любой может начать и что-то сделать на этом поприще. Потихоньку от простого к сложному в игровой манере можно за пол года до переобучения LLM дойти. Главное чтобы была мотивация этим заниматься. Я это делал больше по фану чтобы не упустить что-то важно в модных тенденциях. Пока считаю, что другие вещи работают проще и лучше, но я типа не планирую брезговать нейросетями в будущем. Просто ну не везде оно оправдано куда их пытаются пихать...
c00l0ne @ 20.12.23железо нужно , ядер 200-300 хотя бы
не нужно, всё хорошо делается на арендованных за копейки GPU. типа тебе нужна тесла часов на 10 после того как ты модель обкатал на своём компе, закидываешь немного бабок на гугл и амазон и арендуешь почасовую виртуалку на линуксе с сильным GPU. Сейчас практический дата сайнс уже даже на макбуках возможен, а это о многом говорит. У меня на thinkpad стоит A3000 её достаточно как для создания прототипов в нейросетях, которые дальше я могу уже где-то на виртуалках обучать, так и для baldures gate 3. Железо сейчас уже пройденный этап, всё есть. Те кто считают, что слишком беден для data science просто ленятся ))))
там нейросетка в обучающем курсе, которая фотки котов распознаёт вообще в браузере обучается на питоновской виртуалке...
c00l0ne, зачем проц то, если есть видеокарты)
c00l0ne, поправьте если не прав, при одинаковой производительности для обучения, видеокарты будут гораздо дешевле чем процы.
c00l0ne @ 20.12.23не уверен что на видеокартах получится что то сделать эффективнее чем на проце ...
удобнее писать код , реализовать можно напрямую алгоритмы обновления весов и т.д. и т.п.
памяти больше ...
видеокарты дороже ...
у тебя обучение нейросетей это операции с матрицами, GPU оптимизированы под такие операции. Всё работает, сам проверял, мамой клянусь :) Никто сегодня на CPU нейросети не учит. на TPU учит, но это пока не мейнстрим.
fullblufer @ 20.12.23c00l0ne, поправьте если не прав, при одинаковой производительности для обучения, видеокарты будут гораздо дешевле чем процы.
вообще забудь про обучение на CPU :) ты можешь прототип делать на чём угодно, запустится по-любому. но если хочется что-то реальное и работающее, то пока что это виртуалки с GPU. Вот мой опыт с контбетами был такой, что на моём CPU я бы месяц делал работу, которую V100 за несколько часов справлялось. Там ещё есть особое искусство выбирать не самую дорогую видеокарту, а ту. что под твои задачи пролазит. Я начал с самой крутой, потом понял что не в коня корм и перешёл экспериментировать на K80. Ну тупо считала она раза в 2 медленнее мои данные, но стоило раз в 6 дешевле. Т.е. это путь проб и ошибок. надо просто вдоволь с этим небаться и с какого-то момента начнёт получаться (в худшем случае нет)
fullblufer @ 20.12.23c00l0ne, поправьте если не прав, при одинаковой производительности для обучения, видеокарты будут гораздо дешевле чем процы.
GPU немного для других целей, это для больших огромных моделей , типа GPT3 GPT4
для небольших домашних моделей мне кажется достаточно собрать несколько 64 ядерных компьютеров (в сумме ядер 300) ...
но в любом случае обучение моделей будет очень сложным делом и долгим ... неделя две на модель ... если сложная задача ...
c00l0ne, так ты на эти деньги купишь rtx 3090-4090, да и туже TESLA V100
SnowBeaver, это BAZA
в том то и дело что нейросеть может обобщать , а гто очень сложно обобщить ... потому что люди смотрят на текущий флоп текущий терн текущие свои карты ... но в целом обобщить стратегию оч сложно ...
допустим да , на хорошем датасете обучить сеть ...
я думаю она сможет выдавать уже на всем гто решении какие то ответы ...
не факт что они будут 95 процентов конфиденса
не факт и 80
но в целом это будет какой то инструмент для изучения многогибайтного решения ...
как идею зафиксируем