Два фактора.
Первое - в мире, где всё определяет чистая прибыль, ты никогда не можешь точно сказать - он вот это вот мутит чтобы денег заработать или оно действительно надо. Практика автора показывает что есть вообще товарищи без намёка на запарку. Иди сюда, прибыльное мясо.
Второе - они же вообще ни за что никак не отвечают. Зачем качественно работать если можно работать на «алаверды, пшёл-ка ты на .уй, баран» и получать те же деньги и премии и ровно 0(ноль) проблем? Я в шоке от их вопиющей некомпетентности в базовых вопросах. Сидит чучело с 20-ти летним стажем практической деятельности и прогоняет какую-то лютую дичь, которая ну вообще никак ни с чем не вяжется. У тебя когнитивный диссонанс, как это возможно?? Очевидные непрофессионалу вещи практикующему профессионалу должны же быть втройне очевидны, не? Не. Не не и не. Попутал, братан. Там не профессионал сидит, а чмо в белом халате. Оно приходит сюда тупо лутать бабки за ненапряжную деятельность в пол дня длиной. Ему тааак на всё пi.уй, как тебе никогда и не снилось. Оно всегда получит свою пайку. Главное ему не начать п..ить пациентов стулом по голове при приёме. Всё остальное делать с ПОЦиентами ему можно, никто у него по этому поводу ничего ведь толком и не спросит.
Поэтому не реги НЛ2, это оскорбительно для уважаемых регов НЛ2. Просто маргиналы и бомжи. Клопы ..аные, успешно нашедшие свою сытную кровать и свой сытный матрас.
ИИ довольно неплох в медицине. Понятно, что нужно пользоваться последней thinking моделью и включать поиск. Gemini 3 или Gpt5.1 . Но его совет точно будет лучше, чем совет рандомного врача из поликлиники. По большинству вопросов. Конечно ИИ может глючить и данные нужно проверять, но глюки очень редки.
Это не только медицины касается. А в целом почти всего за каким-то редким исключением.
Soul @ 19.11.25Это не только медицины касается. А в целом почти всего за каким-то редким исключением
Попроси его раздачу проанализировать. Ну или шахматную партию.
Сам я очень сильно пользуюсь ИИ, но в вопросах медицины только в первом приближении в некритичных случаях, когда оно скорее всего и так само пройдет.
Nameless00 @ 19.11.25Попроси его раздачу проанализировать. Ну или шахматную партию.
Сам я очень сильно пользуюсь ИИ, но в вопросах медицины только в первом приближении в некритичных случаях, когда оно скорее всего и так само пройдет.
Если ИИ попросить забить гвоздь, то тоже ничего не получится. Ну просто не надо просить его делать то в чем он плох. А надо пользоваться в том, где он хорош.
ЛЛМ плохо играет в шахматы, решает уравнения. И в покер тоже плохо играет. ЛЛМ не заточен под эти задачи. Зато ЛЛМ очень хорошо умеет обрабатывать информацию, переводить ее в "цифровой вид" и потом искать похожее в базе данных всего человечества. В общем ровно то, что и нужно для постановки диагноза. Или вон недавно новость была. ИИ "решил" 12 или сколько математических проблем из списка 500 топ нерешенных проблем в математике. Ну точнее он конечно их не решил. А нашел решение либо полностью, либо соединил части решения из разных работ. Но в любом случае 12 из топ 500 нерешенных проблем теперь решены.
Я пользуюсь ИИ каждый день. И я абсолютно уверен, что если в GPT5.1 или Gemini 3 в thinking режиме правильно и хорошо загрузить свой диагноз (ЛЛМ пока не очень умеют читать всякие тонкости в МРТ. Зато это хорошо делают другие ИИ), то он даст тебе адекватный и разумный диагноз. Значительно лучше чем средний врач из поликлиники. Ну конечно со стандартными дисклеймерами, что есть небольшой шанс галюцинаций и нужно перепроверить.
Soul @ 19.11.2512 или сколько математических проблем из списка 500 топ нерешенных проблем в математике. Ну точнее он конечно их не решил. А нашел решение либо полностью, либо соединил части решения из разных работ. Но в любом случае 12 из топ 500 нерешенных проблем теперь решены.
«Нашел решение либо полностью» и «нерешенные проблемы теперь решены» очень сильно противоречат друг другу.
Впрочем пофиг. Что с остальными 488 задачами которые он решил неправильно? Как можно узнать о том в кластер правильных решений ты попал или в кластер неправильных без того, чтобы критически важную тебе информацию не перепроверили десятки вузов?
Nameless00 @ 19.11.25«Нашел решение либо полностью» и «нерешенные проблемы теперь решены» очень сильно противоречат друг другу.
Впрочем пофиг. Что с остальными 488 задачами которые он решил неправильно? Как можно узнать о том в кластер правильных решений ты попал или в кластер неправильных без того, чтобы критически важную тебе информацию не перепроверили десятки вузов?
Остальные он не решил "неправильно". Он их просто не решил. Их никто не решил пока. Включая профессиональных математиков всего мира. Это было просто пример того в чем ЛЛМ хороши, а в чем плохи. Они хороши в поиске "похожего" в базе данных человечества. И этот поиск похожего это не просто поиск по ключевым словам или запрос в Гугле. Это более сложно, но тем не менее суть примерно такая же.
При этом есть задачи где ЛЛМ работает плохо. Например, решение уравнений или любые другие задачи, где нужно делать расчеты "c нуля".
Каким образом не медик может оценить качество решений ИИ в медицине? Читала, что ИИ хотят запретить выдавать медицинские рекомендации обывателю.
Если говорить про использование в медицине, то мне нравится, как ИИ справляется с поиском медицинской информации, со ссылками и кратким резюме. Но его рекомендациям по лечению не стала бы следовать. Иногда запрашиваю просто ссылки или краткие обзоры. При этом я уже немного разбираюсь в той теме, которой интересуюсь.
Имеются специализированные ИИ, например, по анализу снимков КТ или рентгену, но к ним допуск только у специалистов. Но здесь ведь речь не про них
«База данных всего человечества» содержит огромное количество ошибок, неточностей, устаревших данных и откровенного скама. Я не очень вижу, что ИИ справляется с вычленением корректных данных из этого массива. Делает очень много фактических ошибок в простейших задачах.
С чего бы доверять ему в более сложных задачах? Даже здесь на форуме видел примеры нелепых решений по поводу инвестиций и программы спортивных тренировок.
Хорошо, когда ИИ использует специалист какой-то области. Он сразу сможет увидеть ерунду в данных или в решении проблемы. А если обычный человек пытается решить какую-то проблему? Он этого, естественно, не увидит, а вообще все проверять за ИИ очень сложно и неэффективно.
Хороший пример выше по поводу медицины. Как обычный человек должен оценить качество диагноза ИИ и проверить его? Обратиться к другой модели ИИ? Пойти к врачу с готовым диагнозом?
Кажется, что в таком формате, как сейчас, ИИ только максимально множит некомпетентность и ошибки людей.
ИИ всякие снимки, МРТ не всегда хорошо анализирует, так как вижн составляющая у моделей общего назначения больше заточена под общее распознавание того, что происходит на картинке. Поэтому имхо ИИ часто лучше кормить что-то текстовое - свой подробный дневник болезни, ощущений, анализов в текстовом виде. А если МРТ - то лучше уже кидать расшифровку врача. Ну и как и в любых задачах, где важно максимальное качество ответа, да - лучше скормить нескольким топовым типа ChatGPT-5.1-Pro, ChatGPT-5.1-Thinking (Extended), Gemini 3 Pro, Claude 4.5 Sonnet, Grok 4.1 - и сверить их ответы, можно перекрестной проверкой в т.ч. (т.е. закинуть все ответы всем моделям и спросить, что думают, и так несколько раз до достижения консенсуса)
pickfruits @ 19.11.25ИИ всякие снимки, МРТ не всегда хорошо анализирует
правильно сказать - всегда плохо.
еще плохо, что он никогда не ответит "я не знаю" или "я не вижу", он заточен давать ответы всегда и ему пофиг верные это ответы или нет
вот тут я тестировал касаемо стоматологии
как итог - цитировать слова из учебника он может, лечение назначать он может (так же из учебника), но вот диагностика по снимку 0 из 10, а диагностика это основа в стоматологии (как и во всей медицине)
да и как доверять можно ИИ, если медицина наука не точная и верных ответов крайне мало (всегда есть вариативность)
evgenyev777,
evgenyev777 @ 19.11.25Кажется, что в таком формате, как сейчас, ИИ только максимально множит некомпетентность и ошибки людей
Можно это сформулировать и по другому. Он (ИИ) подсвечивает некомпетентность огромного количества учёных/институтов/специалистов в широком круге вопросов, при том что эксперты*** по данным направлениям есть, и это может быть даже (!) за дорого.
Iva @ 19.11.25Каким образом не медик может оценить качество решений ИИ в медицине?
выглядит это так:
ИИ: от боли в плече вам нужно воткнуть грязную вилку в ногу и пропить антибиотик, он снизит осложнения
человек: ну какая глупая машина, зачем вилку втыкать... хотя про антибиотик он то прав... может и правда вилка поможет
pickfruits @ 19.11.25ИИ всякие снимки, МРТ не всегда хорошо анализирует, так как вижн составляющая у моделей общего назначения больше заточена под общее распознавание того, что происходит на картинке
Общие модели это ширпотреб. И уровень задач, которые он решает, будут невысоким. Для серьезных задач разрабатывают специализированные модели, обучают их на отобранных подтвержденных датасетах. Если они и будут доступны, то за деньги.
S1dius @ 19.11.25правильно сказать - всегда плохо.
еще плохо, что он никогда не ответит "я не знаю" или "я не вижу", он заточен давать ответы всегда и ему пофиг верные это ответы или нет
вот тут я тестировал касаемо стоматологии
как итог - цитировать слова из учебника он может, лечение назначать он может (так же из учебника), но вот диагностика по снимку 0 из 10, а диагностика это основа в стоматологии (как и во всей медицине)
да и как доверять можно ИИ, если медицина наука не точная и верных ответов крайне мало (всегда есть вариативность)
У меня он диагностировал по снимку почти тоже самое что и врач, и там явно больше нуля из 10 , так что кажется вы всё врёти xD
А так тут все говорят будто бы медики ошибок не выдают. Тут превзятость какая-то, никто не говорит делать как написал чат жпт , но спросить то можно а потом переспросить у врача потом у другого ,
hochunl5k @ 19.11.25но спросить то можно а потом переспросить у врача потом у другого
и выбрать то где совпали несколько мнений, верно? зачем тогда чат гпт если все равно идем к врачам
hochunl5k @ 19.11.25он диагностировал по снимку почти тоже самое что и врач
тут нужно понять, есть снимки где все очевидно и просто и справится любой врач, а есть снимки где все спорно. и три врача могут дать три разных мнения.
Я частенько смотрю МРТ снимки ВНЧС (Височно-нижнечелюстного сустава) и порой не согласен с рентген лаборантами которые описывают их. Пишу им и они меняют заключение. Почему так бывает? потому что я смотрю МРТ только ВНЧС а они смотрят снимки и коленок и головы и позвоночника. Их насмотренность по всему организму больше моей, но моя насмотренность снимков с ВНЧС выше чем у них
ИИ хорош в поиске схожего в базе данных человечества. Именно поэтому ИИ хорош в медицинских анализах. Хорош в понимании и объяснении того, что написано в учебниках. Даже по очень сложным темам. Ну и так далее. Про медицину - это и мой личный опыт и мнение врачей, которым я доверяю. Можете послушать подкаст эпизод про ИИ в медицине у Peter Attia.
Те, кто говорит, что ИИ пишет фигню, скорее всего либо пользуются старой бесплатной моделью в режиме fast thinking, либо криво формулируют запрос, либо требуют ЛЛМки сделать то, в чем они слабы. Например, в анализе снимков МРТ ЛЛМки не очень хороши. Для этого есть специализированный ИИ, который уже давно лучше врачей. Вот первые несколько работ из Гугла:
https://www.frontiersin.org/journals/oncology/articles/10.3389/fonc.2025.1634694/full
Ещё лет восемь назад я ходил проверять новые родинки, и там использовали какой-то немецкий аппарат. Суть в том, что он делает фото в очень высоком разрешении в 3D, и сравнивает их с другими случаями в общей базе данных. Эта база сформирована на методе сопоставления: фото - биопсия. Вероятность того, что система подсветит подозрительную или злокачественную родинку в такой процедуре, около 97%.
Если вдуматься, то постановка большинства диагнозов решается примерно так же. Всё довольно тривиально. И, очевидно, что нельзя слепо следовать советам и предписаниям нейронок, но внедрять в жизнь параллельно современным лекарям точно не ошибка.
Несколько важных, на мой взгляд, пунктов для понимания:
1. Общественная база знаний по медицине сейчас базируется на доказательной медицине
2. Бенефициар доказательной медицины не пациент — а страховая компания. Причем диспут идет даже не между пациентом и страховой, а между госпиталем и страховой за то, оплатят одни другим или нет.
3. Интуиция существует не зависимо от того, знаем мы законы мироздания или нет. Пример понятный покеристам: задолго до величия GTO были люди которые ставили 1/10 или овербет или трибетили х5. В свое время они все считались фишами потому что всем известно что правильный цбет 2/3, а правильный 3бет должен быть поменьше иначе тузов не оплатят. Были даже уймы обучающих материалов на этот счет. В эпоху доказательной медицины таких докторов пометили бы фишами, потому что они действуют не по учебнику. В эпоху персональной медицины (которая наступает) часть таких докторов будет помечена гениями, часть (бОльшая) дебилами. Но прямо сейчас основной корпус текстов по медицине пишется «регами» уходящей эпохи. Это даже если не считать галлюцинаций ИИ.
4. Беременные и кормящие женщины участвовали только в 1% исследований, но препараты и курсы лечения прописываются и им. На основании чего? Подавляющее количество признанных препаратов никогда не испытывалось в должной мере на женщинах, детях и, особенно беременных женщинах, но результаты распространяют на всех, просто потому что для исследований куда дешевле найти взрослых мужчин.
P.S. Предлагаю мысленный эксперимент. К вам приходит больной человек и говори: найди, пожалуйста, мне курс лечения в своем ИИ. Если поможет я и моя семья будут благодарны тебе. Если я умру, я и моя семья будут проклинать тебя. Предположим лечение существует и вы можете получить все необходимые анализы. Взялись бы? Ставьте плюс если да, ставьте минус если нет.
P.P.S. И не будем игнорировать тот факт (проигнорированный Иваном), что на 488 из 500 нерешенных математических задач ИИ дал неверный ответ. То есть на 97.6% ИИ дал неверный ответ. То есть не избежал ответа, не сказал что не знает, а на уверенных щщах дал правдоподобный, но неверный ответ. И что неверность этого ответа была видна только тем, кто глубоко в теме.
P.P.P.S. Подавляющая доля НАУЧНЫХ работ по, например, экономике не прошла бы сквозь рамки, используемые в доказательной медицине. Включая большинство работ нобелевских лауреатов.
Bugs_Bunny, Полностью согласен. В таких случаях человеку, кто доверяет и советую поинтересоваться у ИИ по теме, в которой человек понимает. И тогда станет ясно, насколько нельзя слепо доверять ИИ.
Я, тут зарядкой аккумуляторов стал заниматься по работе. И уже 2 года копаюсь, изучаю эту тему...
Как ИИ не спросишь - такого понамешает в ответе, что ппц.
Возможно, с чем-то точным, конкретным и однозначным ИИ и справляется хорошо, но, где есть неоднозначность и место разным мнениям, я стал довольно критично относиться к ИИ.
А я не думаю, что медицина, как математика.