про 3D печать
https://news.mit.edu/2026/3d-printing-platform-rapidly-produces-complex-electric-machines-0218
там ниже много ссылок у них
печать электродвигателя, электромагнитов , оч круто дешево
Кратко: берут разные материалы, токопроводящие , диэлектрики , для них делают разные экструдеры на 3D принтере и печатают единое устройство этими материалами, интересно как у них слои связываются ...
кипит работа над ИИ, все думают только об одном как запустить машину на долгострой ... включая меня )
но я только в туалете ) о таком думаю )
опишу проблему : сейчас ИИ достаточно коротко может делать работу ... но качественно...
если же запустить на оч долгую дистанцию...
в конце концов все сломается, машина запутается в собственном потоке информации, контекста не хватит, основа забывается , направление основное ломается, возникает потеря фокуса, смена задачи , побочная задача начинает доминировать над основной ...
Если сидеть и поправлять постоянно машину в нужное русло, вносить поправки и строго следить за ее работой то в принципе выходит неплохой код, а там где код там и продукт ...
Но всем же нужны Агенты, автономность ... чтобы даже оператора убрать из цепочки ...
Поэтому все у кого есть мощности и кто любит сложные системы думают о том как же заставить даже эту ломающую саму себя систему настроить так, чтобы она не ломалась, а если ломается то сама чинилась, а если починиться не может откатывалась назад и пробовала решать задачу иным путем и т.д. , машину работающую бесконечно )
Такая машина назовем ее infiny LLM ... может работать ~ времени и в принципе решить любую задачу ... не обязательно это будет топ1 решение , но это может быть топ2 или топ3 решение ( все как в покере у регов , они могут быть топ1 топ2 топ3 плеерами гриндящими фишей) ... так и у LLM есть вероятность что пройдет все удачно и в топ1 попадет , топ2 или топ3 , цель инженеров конечно же попасть в топ1 и вообще попасить куда то , решить задачу до конца ...
Кто еще сомневается в возможностях современных LLMах:
пример работы Claude Code на базе Opus 4.6
1)запускаем старую игру на MacOS
2)меняем модельку игры на свою внутри игры, в данном примере на 3д модель шрека
про вайб кодеров криптопанов :
грубо говоря человек просто навайбкодил немного кода и решил встроить этот код в систему денежную в которой оказалась дырень :
moonwell это defi-протокол кредитования
для своей работы он должен знать свои актуальные цены активов
эти цены он получает от оракулов (в данном случае chainlink)
когда цена резко меняется оракул обновляет цену в блокчейне
это обновление делает кредитные позиции "необеспеченными"
что позволяет ботам закрыть эти позиции и получать прибыль
ликвидаторы обычно платят огромные комиссии майнерам и валидаторам чтобы их транзакция была первой
протокол moonwell при этом ничего не получает
что придумали
сделали прокладку oev wrappers , контракт-посредник который отдает теперь цены вместо chainlink , но этот wrapper позволяет проводить аукционы среди ликвидаторов
победитель аукциона получает право обновить цену в оракуле ! и ОДНОВРЕМЕННО провести ликвидацию
за это право победитель платит ставку ПРЯМО В MOONWELL , а не валидаторам сети
таким образом монетизируется ликвидация , которая происходит из-за обновления цен
(пересказ от ИИ)
Так вот в эту систему один прогер навайбкодил следующее изменение , называется Pull Request( это когда прогер предлагает внести код в публичный проект ) , а навайбкодил он следующие изменения :
активацию оберток этих для оставшихся рынков в сетях Base и Optimism
навайбкодила код вот эта Дама :
Короче на код никто не смотрел , код ее был принят и введен в работу )
ЕЕ ошибка: она само собой код не смотрела инфа 99%, кратко она сделала так что вместо курса эфира 2200$, получалось что один эфир стоил 1$, неправильно обрабатывались цены
боты это сразу раскусили и заработали на этом 1.7млн$
пока дыру не закрыли
https://cybernews.com/crypto/claude-vibe-coded-smart-contract-cost-defi-protocol-1-8m-in-losses/
но вернемся к длинному контексту и долгосрочным задачам :
китайские ученые придумал такой мув
нейронка KLong
результаты оч крутые, моделька с 106 млрд параметров , дотянула до 1триллиона параметров
этой новости еще нигде нет ) скоро опубликуют )
отключаем ИИшку и слежку в браузерах
https://habr.com/ru/news/1002326/
из интересного chrome загружает на компьютер нейронку размером 4 гб если ему нужно ) :
-20 часов чтобы запустить кеш на Opus 4.6
200k токенов из кеша за 0.1$ имеются...
экономия 10х
чат вырос до 10к строк кода ... opus 4.6 и gpt 5.2 справляются с такой кодовой базой хорошо... немного путаются но это редко ... gemini 3.1 pro больше мыслитель, много лишнего вывода в ней , но оч глубоко и красиво , но код пока ей не доверяю писать ...
opus 4.6 батя конечно в этом деле ...
gpt-5.2 ватсон своего дела ...
gemini 3.1 pro Холмс ... но надо еще тестировать ...
сессия вайб-кодинга была 18 часов ...
из плюсов просто физическая усталость ...
голова в принципе в норме ...
не устает технически ...
всем чил...
пс КАПСОМ орал на нейронку ) заранее извиняюсь)
текущий уровень вайб-кодинга:
пс2 тяжело идет этот вайб кодинг , время + деньги жрет , все как обычно
с начала года :
Кекв, как Паш 40к$ потерял
Arc-agi-2 на сотку решили
использовали они gemini 3.1 pro :
prompt:
инструменты :
Суть: Gemini CLI — это агентный инструмент (как Claude Code). Он может:
Читать файлы (read_file)
Писать файлы (write_file)
Запускать команды (run_shell_command)
Gemini сам решает, как анализировать задачу: может написать скрипт для визуализации, запустить его, посмотреть вывод, переписать решение...
инфраструктура :
сколько стоит opus 4.6 на примере чтения топ200 с arxiv заголовков статей:
первый запрос, тут кеш стоит на первом пользовательском сообщении
в среднем 0.5$
Запрос был перевода и сжать , вывод поэтому большой
Второй запрос уточняющий , тут кеш стоит на первом сообщении и ответе ассистента
0.3$
экономия 50% происходит при использовании кеша первого сообщения ползователя
в этот момент происходит запись кеша ответа ассистента
И наконец-то третье сообщение , экономически выгодное:
все кеши бьются с первого сообщения с ответа ассистента и получаем
8-10 центов
Итого минимальная обработка на 50к токенов у меня выходит 1$ ...
но надо отдать должное чтения там на пол дня ...
60к токенов контекст:
0.34$ исходящие токены , 0.052$ это чтение из кеша и работа с кешем, 0.048$ рассуждения, 0.58$ вывод
результат работы :
# Каталог статей arXiv (cs.AI и смежные области)
---
## 📁 1. БОЛЬШИЕ ЯЗЫКОВЫЕ МОДЕЛИ (LLM) — Рассуждения и оптимизация
| # | ID | Название (перевод) | Суть |
|---|----|--------------------|------|
| 1 | 2602.20133 | **AdaEvolve: Адаптивная оптимизация нулевого порядка на основе LLM** | LLM как операторы мутации в эволюционных циклах; адаптивные расписания вместо статических для генерации программ |
| 2 | 2602.20130 | **К рассуждению или нет: селективная цепочка рассуждений в медицинских вопросах** | Стратегия Selective CoT — генерировать обоснование только когда вопрос действительно сложный, экономя ресурсы |
| 3 | 2602.19281 | **Ограниченное пространство рассуждений: клетка для длинных рассуждений в LLM** | Гипотеза: увеличение вычислений при тестировании (CoT) может приводить к коллапсу производительности |
| 4 | 2602.19069 | **Задавая правильные вопросы: улучшение рассуждений через сгенерированные промежуточные шаги** | LLM строят упрощения и подзадачи как «ступеньки» перед решением сложных задач |
| 5 | 2602.19519 | **Ada-RS: адаптивная выборка с отклонением для селективного мышления** | Алгоритм выбора, когда LLM стоит «думать» (CoT), а когда нет, для экономии токенов |
| 6 | 2602.19208 | **Как распределять, как учиться? Динамическое распределение сэмплов и модуляция преимуществ** | Неравномерное распределение ресурсов между задачами разной сложности при RLVR |
| 7 | 2602.19225 | **Оптимизация на основе близости для многошаговых агентов** | Кредитное назначение в многошаговых диалогах LLM-агентов с учётом значимости шагов |
| 8 | 2602.18918 | **Ранние свидетельства «вайб-доказательств» с потребительскими LLM** | ChatGPT-5.2 используется для доказательства математической гипотезы — пример «вайб-мат» с LLM |
---
## 📁 2. LLM — Безопасность, выравнивание, атаки
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 9 | 2602.20102 | **BarrierSteer: безопасность LLM через обучение барьерному управлению** | Барьерные функции управления направляют скрытые представления LLM при инференсе для блокировки опасного контента |
| 10 | 2602.19416 | **IR³: контрастивное обратное обучение с подкреплением для обнаружения хакинга вознаграждений** | Метод обнаружения и исправления «взлома» вознаграждений в RLHF |
| 11 | 2602.19396 | **Прятки в обычном тексте: обнаружение скрытых джейлбрейков через разделение активаций** | Обнаружение замаскированных вредоносных запросов к LLM через анализ внутренних активаций |
| 12 | 2602.19141 | **Подхалимские чат-боты вызывают спираль бреда даже у идеальных байесовцев** | Математическая модель: подтверждающее поведение ИИ ведёт к «AI-психозу» у пользователей |
| 13 | 2602.19450 | **Красная команда для Claude Opus и ChatGPT — советников по безопасности TEE** | Тестирование LLM-советников на уязвимости доверенных сред выполнения |
| 14 | 2602.18971 | **Когда предпочтения LLM предсказывают поведение?** | Исследование: внутренние «предпочтения» LLM влияют на поведение или это лишь следование инструкциям? |
---
## 📁 3. LLM-АГЕНТЫ и мультиагентные системы
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 15 | 2602.20059 | **Театр взаимодействия: LLM-агенты взаимодействуют в масштабе** | Анализ поведения 78K профилей ИИ-агентов на социальной платформе Moltbook (800K постов) |
| 16 | 2602.20021 | **Агенты хаоса** | Красная команда изучает автономных LLM-агентов с email, Discord, файлами — каталог провалов |
| 17 | 2602.19810 | **OpenClaw, Moltbook и ClawdLab: от соцсетей агентов к автономным научным исследованиям** | Экосистема открытых ИИ-агентов для автономной науки |
| 18 | 2602.19843 | **MAS-FIRE: инъекция сбоев и оценка надёжности мультиагентных LLM-систем** | Фреймворк тестирования: как семантические ошибки (галлюцинации) распространяются между агентами |
| 19 | 2602.19633 | **TAPE: управление агентами через адаптивное планирование с ограничениями** | Агентная архитектура, устойчивая к ошибкам в средах с необратимыми последствиями |
| 20 | 2602.18968 | **Надёжная оркестрация инструментов через слоистые структуры выполнения** | Переосмысление вызова инструментов: не пошаговый LLM-вызов, а слоистая параллельная архитектура |
| 21 | 2602.19000 | **MagicAgent: к обобщённому планированию агентов** | Единый фреймворк планирования, устраняющий конфликты между разнородными задачами |
| 22 | 2602.18998 | **Бенчмарк масштабирования вычислений при тестировании для общих LLM-агентов** | Среда GeneralAgent для оценки агентов общего назначения |
| 23 | 2602.19065 | **Агентные проблемные фреймы: инженерный подход к надёжным доменным агентам** | Методология APF для систематического проектирования LLM-агентов |
| 24 | 2602.18962 | **NeuroWise: мультиагентная LLM для практики «двойной эмпатии» с аутичными партнёрами** | Система коучинга для нейротипичных людей в общении с аутичными |
---
## 📁 4. ГЕНЕРАЦИЯ ВИДЕО, ИЗОБРАЖЕНИЙ, 3D
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 25 | 2602.20159 | **Очень большой набор задач для рассуждений о видео** | Масштабный бенчмарк пространственно-временных рассуждений о видео |
| 26 | 2602.19946 | **Когда красивое бесполезно: почему современные text-to-image не работают как генераторы обучающих данных** | Парадокс: новейшие T2I модели визуально лучше, но хуже как генераторы синтетических данных |
| 27 | 2602.19631 | **Локализованное стирание концепций в диффузионных моделях text-to-image** | Удаление вредного/авторского контента из генеративных моделей через высокоуровневые представления |
| 28 | 2602.19623 | **PedaCo-Gen: педагогическое сотворчество человека и ИИ при создании видео** | Система генерации обучающих видео на основе когнитивной теории мультимедийного обучения |
---
## 📁 5. КОМПЬЮТЕРНОЕ ЗРЕНИЕ
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 29 | 2602.20114 | **Бенчмарк разучивания для Vision Transformers** | Первый систематический бенчмарк machine unlearning для ViT (а не только CNN) |
| 30 | 2602.20089 | **StructXLIP: улучшение VLM с помощью мультимодальных структурных подсказок** | Выравнивание «рёберных» (контурных) представлений между визуальной и текстовой модальностями |
| 31 | 2602.19872 | **GOAL: геометрически оптимальное выравнивание для непрерывного обнаружения новых категорий** | Фиксированный ETF-классификатор для борьбы с забыванием при непрерывном обучении |
| 32 | 2602.19881 | **Создай немного шума: неконтролируемое обнаружение изменений через возмущения в латентном пространстве** | Диффузионная модель генерирует изменения в латентном пространстве для обнаружения изменений на спутниковых снимках |
| 33 | 2602.19679 | **TeHOR: текстовая 3D-реконструкция человека и объекта с текстурами** | Совместная реконструкция человека и объекта из одного изображения, включая бесконтактное взаимодействие |
| 34 | 2602.19608 | **Спутниковое обнаружение разграбленных археологических памятников с помощью МО** | Пайплайн обнаружения разграбления 1943 археологических объектов в Афганистане по спутниковым снимкам |
| 35 | 2602.19536 | **Fore-Mamba3D: Mamba-сеть для 3D-обнаружения объектов с фокусом на переднем плане** | Отделение фоновых вокселей от объектов интереса в 3D-детекции |
| 36 | 2602.19349 | **UP-Fuse: слияние LiDAR-камеры с учётом неопределённости для 3D-сегментации** | Устойчивая мультимодальная сегментация при деградации камеры |
| 37 | 2602.19248 | **Без реальных аномалий: обнаружение видеоаномалий нулевого класса с помощью MLLM** | MLLM для zero-shot обнаружения аномалий в видео без обучающих примеров аномалий |
| 38 | 2602.19190 | **FUSAR-GPT: визуальная языковая модель для SAR-изображений** | Первая VLM специально для радарных снимков (SAR) |
| 39 | 2602.19156 | **Обнаружение грибков в дерматофитии на основе трансформеров в реальном времени** | RT-DETR для обнаружения грибковых гифов в KOH-микроскопии |
| 40 | 2602.19324 | **RetinaVision: XAI-управляемая классификация заболеваний сетчатки** | Глубокое обучение + объяснимый ИИ для классификации 8 заболеваний сетчатки по OCT |
---
## 📁 6. РОБОТОТЕХНИКА и автономные системы
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 41 | 2602.20119 | **NovaPlan: Zero-shot манипуляция через замкнутое видео-языковое планирование** | Иерархический фреймворк: VLM-планирование + генерация видео + контроллер для роботов |
| 42 | 2602.20057 | **AdaWorldPolicy: диффузионная политика с мировой моделью и онлайн-адаптацией** | Мировая модель предсказывает физические результаты, диффузионная политика адаптируется к реальности |
| 43 | 2602.20055 | **Двигаться или не двигаться: планирование на основе ограничений для интерактивной навигации** | Робот с руками может убирать препятствия с пути, если свободных маршрутов нет |
| 44 | 2602.19983 | **Контекстуальная безопасность для роботов в открытом мире** | LLM определяет контекст (толпа, авария) и адаптирует ограничения безопасности для робота |
| 45 | 2602.19651 | **Фильтры частиц с шумоподавлением: оценка состояния с одношаговыми целями** | Новый подход к оценке состояния робота — обучение без развёртки по времени |
| 46 | 2602.19534 | **Большие языковые модели для операций и коммуникаций БПЛА** | Обзор: LLM для координации дронов, навигации, связи |
| 47 | 2602.19400 | **Мультиагентное RL с Гильбертовыми кривыми для покрытия территории** | Пространственные кривые Гильберта структурируют исследование территории роботами |
| 48 | 2602.19315 | **Онлайн-планирование навигации для долгосрочной автономной работы подводных глайдеров** | MDP-планирование для автономных океанических глайдеров |
| 49 | 2602.19313 | **TOPReward: вероятности токенов как скрытые вознаграждения нулевого класса для робототехники** | Использование вероятностей токенов VLA-модели как процессного вознаграждения |
| 50 | 2602.19304 | **Безопасное и интерпретируемое мультимодальное планирование пути для кооперации роботов** | Языковая коммуникация между роботами для безопасного взаимного избегания |
| 51 | 2602.19193 | **Единая политика толкания с визуальными подсказками** | Универсальная политика pushing-манипуляции вместо набора примитивов |
| 52 | 2602.19491 | **Botson: доступная платформа для исследований социальной робототехники** | Антропоморфный социальный робот на LLM для изучения доверия |
---
## 📁 7. ОБРАБОТКА ЕСТЕСТВЕННОГО ЯЗЫКА (NLP)
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 53 | 2602.20135 | **KNIGHT: генерация тестовых вопросов на основе графов знаний с калибровкой сложности** | Автоматическая генерация MCQ из внешних источников через граф знаний |
| 54 | 2602.20122 | **NanoKnow: как узнать, что знает языковая модель** | Анализ параметрических знаний маленьких LLM с открытыми данными обучения |
| 55 | 2602.20065 | **Многоязычные LLM не понимают все языки одинаково** | Тестирование LLM на 37 языках: значительный разрыв между высокоресурсными и низкоресурсными языками |
| 56 | 2602.19969 | **ReAttn: улучшение ранжирования на основе внимания через перевзвешивание** | Коррекция сигналов внимания LLM для более точного zero-shot переранжирования документов |
| 57 | 2602.19177 | **Предсказание следующего ответа X Датасет: лингвистические расхождения в наивно сгенерированном контенте** | LLM-сгенерированные данные существенно отличаются от человеческих лингвистически |
| 58 | 2602.19101 | **Запутанность ценностей: смешение разных видов «хорошего» в LLM** | LLM смешивают моральное, грамматическое и экономическое «хорошо» |
| 59 | 2602.19569 | **Гетерогенные графы с временным осознанием для вопросно-ответных систем** | Multi-hop рассуждения над временными графами знаний |
---
## 📁 8. ФЕДЕРАТИВНОЕ ОБУЧЕНИЕ и приватность
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 60 | 2602.20003 | **Безопасное и приватное распределённое байесовское федеративное обучение** | Защита от утечек конфиденциальности и византийских атак в децентрализованном FL |
| 61 | 2602.19945 | **DP-FedAdamW: эффективный оптимизатор для дифференциально приватных федеративных моделей** | Адаптация AdamW для FL с дифференциальной приватностью — решение трёх ключевых проблем |
| 62 | 2602.19926 | **Переосмысление LoRA для приватно-сохраняющего федеративного обучения** | Анализ LoRA в контексте FL с дифференциальной приватностью для больших моделей |
| 63 | 2602.19489 | **Площадка федеративного обучения** | Интерактивная браузерная платформа для изучения FL (по аналогии с TensorFlow Playground) |
| 64 | 2602.19207 | **HybridFL: федеративное обучение для обнаружения финансовых преступлений** | FL для гибридного (горизонтального + вертикального) разделения данных |
---
## 📁 9. ОБУЧЕНИЕ С ПОДКРЕПЛЕНИЕМ (RL)
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 65 | 2602.20141 | **Рекуррентный структурный градиент политики для частично наблюдаемых игр среднего поля** | Гибридные методы для MFG с общим шумом |
| 66 | 2602.20078 | **Градиентный спуск для масштабируемого кооперативного мультиагентного RL** | Решение проблемы шума от N агентов в кооперативном MARL |
| 67 | 2602.19805 | **Decision MetaMamba: улучшение Mamba для офлайн RL** | Замена token-миксера в Mamba на плотный слой для стабильности в RL |
| 68 | 2602.19634 | **Композиционное планирование с «прыгающими» мировыми моделями** | Агенты комбинируют предобученные политики как временные абстракции |
| 69 | 2602.19373 | **Стабильное глубокое RL через изотропные гауссовы представления** | Изотропные гауссовы эмбеддинги доказуемо лучше при нестационарных целях |
| 70 | 2602.19298 | **ALPACA: среда RL для перепрофилирования лекарств при болезни Альцгеймера** | Gym-совместимая среда для оценки стратегий лечения Альцгеймера |
| 71 | 2602.19345 | **Гладкие гейт-функции для мягкой оптимизации политики преимуществ** | Замена жёсткого клиппинга в GRPO на плавные сигмоидные функции |
| 72 | 2602.19327 | **Мягкая последовательная оптимизация политик: мост между GMPO и SAPO** | Объединение последовательных весов важности с плавным клиппингом |
---
## 📁 10. ГРАФОВЫЕ НЕЙРОСЕТИ и графы знаний
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 73 | 2602.19622 | **VecFormer: эффективный графовый трансформер с токен-вниманием** | Графовый трансформер с линейной сложностью и графовыми токенами |
| 74 | 2602.19240 | **Топология рассуждений: извлечение клеточных комплексов для QA на графах** | RAG с клеточными комплексами (не только узлы/ребра) для вопросов по графам |
| 75 | 2602.18897 | **HEHRGNN: единая модель для графов знаний с гиперребрами** | GNN для гиперграфов и гиперреляционных рёбер |
---
## 📁 11. МЕДИЦИНА и здравоохранение
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 76 | 2602.20100 | **Преодоление бутылочного горлышка аннотации: ИИ-открытия в биологии и медицине** | Обзор: SSL и неконтролируемое обучение для биомедицинских данных без аннотаций |
| 77 | 2602.20040 | **AgenticSum: агентная система для верного обобщения клинических текстов** | Разделение контекста, генерации, верификации и исправления при суммаризации медицинских текстов |
| 78 | 2602.19822 | **Эффективный скрининг рака эндометрия через кросс-модальный синтез** | Синтез контрастных МРТ из УЗИ для скрининга инвазии миометрия |
| 79 | 2602.19674 | **Непрерывный телемониторинг сердечной недостаточности через персонализированную динамику речи** | Мониторинг сердечной недостаточности по речевым сигналам пациента |
| 80 | 2602.19502 | **Агентный ИИ с участием человека для мультимодальных клинических прогнозов** | Решение задач AgentDS Healthcare: реадмиссия, смертность, длительность пребывания |
| 81 | 2602.19483 | **Робастные конформные предсказатели в здравоохранении: кейс классификации ЭЭГ** | Конформное предсказание при сдвиге распределения пациентов |
| 82 | 2602.19412 | **Переопределение субдискретизации U-Net для биомедицинской сегментации** | Stair Pooling — замедленная субдискретизация для сохранения информации |
| 83 | 2602.19314 | **IPv2: улучшенная очистка ультранизкодозных КТ лёгких** | Двухэтапная очистка КТ-изображений с низкой дозой облучения |
---
## 📁 12. АУДИО, РЕЧЬ, МУЗЫКА
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 84 | 2602.20113 | **StyleStream: конвертация стиля голоса в реальном времени** | Первая потоковая zero-shot система преобразования тембра, акцента и эмоций |
| 85 | 2602.19816 | **Глубоко-структурированная рекуррентность для моделирования полных музыкальных произведений** | Бюджетное рекуррентное внимание для генерации длинных символьных музыкальных пьес |
| 86 | 2602.19574 | **CTC-TTS: двухпотоковый text-to-speech с CTC-выравниванием** | LLM-based TTS с низкой задержкой через CTC вместо GMM-HMM |
| 87 | 2602.19166 | **CosyAccent: нормализация акцента с контролем длительности** | Нормализация акцента L2-говорящих к нативному произношению |
---
## 📁 13. КИБЕРБЕЗОПАСНОСТЬ
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 88 | 2602.19818 | **SafePickle: обнаружение вредоносных ML-моделей в формате pickle** | ML-детектор вредоносного кода в pickle-сериализованных моделях с Hugging Face |
| 89 | 2602.19555 | **Агентный ИИ как поверхность атаки: угрозы в рантайм-цепочках** | Анализ нового класса атак на LLM-агентов через данные и инструменты |
| 90 | 2602.19087 | **Обнаружение киберугроз через интеграцию XAI с SHAP и стратегической выборкой** | Объяснимый ИИ + стратегическая выборка для обнаружения вторжений |
| 91 | 2602.19025 | **Объяснения с учётом маршрутизации для MoE-моделей в обнаружении малвари** | XAI для Mixture-of-Experts графовых моделей детекции вредоносного ПО |
---
## 📁 14. АВТОНОМНОЕ ВОЖДЕНИЕ и навигация
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 92 | 2602.20076 | **Робастное управление Тейлора-Лагранжа для критически важных систем безопасности** | Улучшение TLC для устойчивости к эффектам между выборками |
---
## 📁 15. РЕКОМЕНДАТЕЛЬНЫЕ СИСТЕМЫ
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 93 | 2602.19702 | **DReX: объяснимая мультимодальная рекомендательная система на глубоком обучении** | Работа с неполными мультимодальными данными + объяснимость |
| 94 | 2602.18929 | **Дайте пользователям руль: к парадигме рекомендаций по запросу** | LLM-based рекомендации, управляемые явными намерениями пользователя через промпты |
---
## 📁 16. ТЕОРИЯ ОБУЧЕНИЯ и фундаментальные исследования
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 95 | 2602.20152 | **Обучение поведению: обучение иерархическим структурам оптимизации из данных** | Новый ML-фреймворк: интерпретируемое обучение структур оптимизации (не только предсказание) |
| 96 | 2602.19964 | **Об эквивалентности Random Network Distillation, глубоких ансамблей и байесовского вывода** | Теоретическое доказательство: RND мерит эпистемическую неопределённость как байесовский вывод |
| 97 | 2602.19533 | **Грокинг конечномерной алгебры** | Исследование «грокинга» (внезапного обобщения) в неассоциативных алгебрах |
| 98 | 2602.19241 | **Законы масштабирования для точности в высокомерной линейной регрессии** | Теория: как квантизация влияет на эффективный размер модели и данных |
| 99 | 2602.19142 | **Celo2: к бесплатному обеду с обученными оптимизаторами** | Мета-обученный оптимизатор, обобщающийся за пределы обучающего распределения |
| 100 | 2602.19130 | **Обнаружение предвзятости разметки через функции влияния** | Метод обнаружения систематических ошибок разметки в подгруппах |
---
## 📁 17. ДИФФУЗИОННЫЕ МОДЕЛИ (непрофильные)
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 101 | 2602.19538 | **Диффузионный активный поиск с учётом стоимости** | Активный поиск объектов автономными агентами через диффузионные модели |
| 102 | 2602.19066 | **IDLM: обратная дистилляция для диффузионных языковых моделей** | Ускорение инференса дискретных диффузионных моделей текста |
| 103 | 2602.19261 | **DGPO: RL-управляемая графовая диффузия для генерации нейронных архитектур** | Поиск нейроархитектур (NAS) через диффузию на графах + RL |
---
## 📁 18. НАУЧНЫЕ ПРИЛОЖЕНИЯ ИИ
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 104 | 2602.20134 | **Моделирование эпидемий при обмане пользователей и враждебных данных** | Теория игр: как стратегическое завышение/занижение данных о вакцинации влияет на эпидемиологические модели |
| 105 | 2602.19786 | **Граф знаний об изменении климата для климатических сервисов** | Граф знаний для связывания климатических моделей и их данных |
| 106 | 2602.19685 | **PerturbDiff: функциональная диффузия для моделирования одноклеточных возмущений** | Предсказание реакции клеток на возмущения (лекарства, генетические) через диффузию |
| 107 | 2602.19153 | **Ограниченная диффузия для ускоренной релаксации структур с точечными дефектами** | Генеративная модель для моделирования дефектов в материалах |
| 108 | 2602.18915 | **AAVGen: точная инженерия вирусных капсидов для таргетинга почек** | LLM-подобные модели для проектирования AAV-капсидов для генной терапии |
| 109 | 2602.19006 | **Оценка LLM на квантовой механике** | 15 моделей на 20 задачах по квантовой механике (выводы, вычисления) |
---
## 📁 19. ИНФОРМАЦИОННЫЙ ПОИСК (IR)
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 110 | 2602.19040 | **Адаптивное мультиагентное рассуждение для поиска видео по тексту** | Мультиагентный MLLM-подход к zero-shot text-to-video retrieval |
| 111 | 2602.19317 | **Обучение рассуждению для многошагового поиска персонального контекста** | Поиск по личному профилю пользователя через цепочки рассуждений |
---
## 📁 20. ЭТИКА, ФИЛОСОФИЯ, ОБЩЕСТВО И ИИ
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 112 | 2602.19629 | **Сотрудничество после алгоритма: проектирование сосуществования человека и ИИ** | Анализ: ИИ создаёт «иллюзию сотрудничества» без несения ответственности |
| 113 | 2602.19467 | **Можно ли заменить людей-кодировщиков LLM? ContentBench** | Бенчмарк: заменяют ли дешёвые LLM ручное кодирование в контент-анализе |
| 114 | 2602.19028 | **Метафизика, которую мы тренируем: хайдеггерианское прочтение МО** | Философский анализ ML через призму Хайдеггера |
| 115 | 2602.18960 | **Модулярность — основа естественного и искусственного интеллекта** | Аргумент: модулярность мозга — ключевой принцип, которого не хватает ИИ |
| 116 | 2602.18986 | **Количественная оценка рисков автоматизации в высокоавтоматизированных ИИ-системах** | Байесовская модель: как рост автоматизации усиливает вред при сбоях |
| 117 | 2602.19948 | **Оценка рисков LLM в поддержке психического здоровья** | Фреймворк: ИИ-психотерапевты vs. симулированные пациенты — обнаружение продольных рисков |
| 118 | 2602.19844 | **LLM-приложениям нужен мониторинг угроз системного уровня** | Аргумент: нужен рантайм-мониторинг всей системы, не только модели |
---
## 📁 21. ОБЪЯСНИМЫЙ ИИ (XAI)
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 119 | 2602.19620 | **Правила или веса? Сравнение XAI-техник с когнитивной моделью** | 7 стратегий пользователей для интерпретации правил, весов и гибридов |
| 120 | 2602.19071 | **Определение объяснимого ИИ для анализа требований** | Фреймворк для определения, какой тип объяснения нужен для конкретной задачи |
| 121 | 2602.19770 | **GRAPHIC: сетевой подход к матрицам ошибок в глубоком обучении** | Визуализация эволюции путаницы между классами как графовой структуры |
---
## 📁 22. МУЛЬТИМОДАЛЬНОЕ ОБУЧЕНИЕ
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 122 | 2602.19605 | **CLCR: кросс-уровневое семантическое коллаборативное представление** | Мультиуровневое выравнивание асинхронных модальностей |
| 123 | 2602.19585 | **Три подпространства для мультимодального анализа настроений** | Разделение на общее, парное и приватное подпространства модальностей |
| 124 | 2602.19562 | **Фреймворк для выравнивания лингвистических описаний с визуальными данными** | Кросс-модальное заземление языка в зашумлённых визуальных контекстах |
| 125 | 2602.19367 | **Временные ряды, зрение и язык: пределы выравнивания** | Проверка гипотезы платонического представления: сходятся ли временные ряды к общему пространству? |
---
## 📁 23. СПЕЦИАЛИЗИРОВАННЫЕ ПРИЛОЖЕНИЯ
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 126 | 2602.20144 | **Агентный ИИ для масштабируемого управления оптическими системами** | 64 MCP-инструмента для автономного управления 8 типами оптических устройств |
| 127 | 2602.20066 | **HeatPrompt: zero-shot оценка потребности в отоплении по спутниковым снимкам** | VLM + GIS для оценки теплового спроса зданий без обучающих данных |
| 128 | 2602.20028 | **Дескриптор: датасет паразитоидных ос** | 15K+ изображений для таксономической идентификации ихневмоноидов |
| 129 | 2602.19698 | **Иконографическая классификация произведений искусства** | YOLOv8 + Iconclass для автоматической классификации оцифрованных произведений |
| 130 | 2602.19718 | **Углеродно-осознанные шлюзы управления для устойчивой GenAI-разработки** | Управление углеродным следом при использовании GenAI в SDLC |
| 131 | 2602.19654 | **NEXUS: компактная архитектура для прогноза качества воздуха в Дели** | Нейросеть для прогноза CO, NOx, SO₂ на 16 пространственных ячейках |
| 132 | 2602.19584 | **ML-подходы к оценке дозы облучения от шлейфа** | XGBoost, Random Forest, TabNet для оценки радиационной дозы |
| 133 | 2602.19437 | **FinSight-Net: физически-осведомлённая сеть для подводного обнаружения рыб** | Детекция рыб с учётом поглощения света в воде |
| 134 | 2602.19297 | **Автоматизация генерации сетей микрофлюидных устройств через LLM** | LLM переводят описание устройства в netlists для микрофлюидики |
| 135 | 2602.19022 | **Интерпретируемый фреймворк для определения пола рыб по изображениям** | Неинвазивное определение пола рыб для аквакультуры |
| 136 | 2602.20064 | **Λ-исчисление LLM: ИИ-агенты, беседы и информационные потоки** | Формальная модель информационных потоков в LLM-агентах для анализа атак |
| 137 | 2602.19762 | **Hexagon-MLIR: стек компиляции ИИ для нейропроцессоров Qualcomm** | MLIR-фреймворк для Triton-ядер и PyTorch на Hexagon NPU |
| 138 | 2602.19114 | **Kaiwu-PyTorch-Plugin: мост между DL и фотонными квантовыми вычислениями** | Интеграция когерентной машины Изинга в PyTorch для энергетических моделей |
| 139 | 2602.19019 | **Интерпретируемый фреймворк на основе foundation models для идентификации пола рыб** | FishProtoNet: прототипная сеть поверх foundation model для неинвазивного определения пола |
---
## 📁 24. ГЕНЕРАЦИЯ КОДА и РАЗРАБОТКА ПО
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 140 | 2602.20048 | **CodeCompass: навигация в навигационном парадоксе кодовых агентов** | Агенты плохо находят файлы не из-за контекста, а из-за смешения навигации и извлечения |
| 141 | 2602.19441 | **Когда ИИ-тиммейты встречают код-ревью** | Эмпирическое исследование pull-реквестов от ИИ-агентов на GitHub |
| 142 | 2602.19128 | **K-Search: генерация GPU-ядер через LLM с со-эволюционирующей моделью мира** | LLM не просто генерирует код ядер, а строит внутреннюю модель аппаратуры |
---
## 📁 25. ИМИТАЦИОННОЕ ОБУЧЕНИЕ и МЕТАОБУЧЕНИЕ
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 143 | 2602.19930 | **За пределами подражания: к пожизненной адаптивности в имитационном обучении** | Манифест: ИО должно оптимизировать не копирование, а адаптивность |
| 144 | 2602.19837 | **Метаобучение и мета-RL: путь к адаптивному агенту DeepMind** | Обзор: от мета-обучения к мета-RL и адаптивным агентам |
| 145 | 2602.19355 | **Активное восприятие и разделённые представления для непрерывного few-shot обучения** | Разделённые представления избегают катастрофического забывания |
---
## 📁 26. КОНФОРМНОЕ ПРЕДСКАЗАНИЕ
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 146 | 2602.19498 | **Softmax недостаточно (для адаптивной конформной классификации)** | Новые функции неконформности вместо softmax для лучшей адаптивности |
---
## 📁 27. ПРОЧЕЕ
| # | ID | Название | Суть |
|---|----|--------------------|------|
| 147 | 2602.19914 | **Watson & Holmes: натуралистический бенчмарк для сравнения рассуждений человека и LLM** | Настольная игра-детектив как бенчмарк рассуждений |
| 148 | 2602.19517 | **Classroom Final Exam: бенчмарк рассуждений на основе университетских экзаменов** | Реальные экзамены по 20+ STEM-дисциплинам как мультимодальный бенчмарк |
| 149 | 2602.19160 | **Способности к рассуждению LLM: уроки из General Game Playing** | 15 LLM на задачах формально заданных игр — симуляция состояний, легальные ходы |
| 150 | 2602.19509 | **Pyramid MoA: иерархическая смесь агентов для оптимизации стоимости инференса** | Каскад дешёвых → дорогих LLM с вероятностной маршрутизацией |
| 151 | 2602.19159 | **За пределами поведенческих компромиссов: механистическое отслеживание решений «боль-удовольствие» в LLM** | Мехинтерпретируемость: как LLM обрабатывает валентность (боль/удовольствие) внутри |
| 152 | 2602.19158 | **DoAtlas-1: парадигма каузальной компиляции для клинического ИИ** | Преобразование медицинских доказательств в исполняемый каузальный код |
| 153 | 2602.19115 | **Как LLM кодируют научное качество? SAE для понимания механизмов** | Разреженные автокодировщики для анализа внутренних представлений качества статей |
| 154 | 2602.19109 | **Пост-маршрутная арифметика в Llama-3: запись результатов и ротация цифровых направлений** | Мехинтерпретируемость: как Llama-3 выполняет трёхзначное сложение внутри |
| 155 | 2602.19033 | **Марковский взгляд на обратные циклы в генеративных моделях** | Теория модельного коллапса через марковские цепи и нейронный резонанс |
| 156 | 2602.19020 | **Обучение обнаружению обучающих данных LLM через активную реконструкцию** | Активная атака: дообучение модели для реконструкции текста усиливает MIA |
| 157 | 2602.19027 | **Выталкивая пределы обратной литографии с генеративным RL** | RL + генеративный ИИ для оптимизации масок в производстве полупроводников |
| 158 | 2602.18981 | **Как далеко с одними пикселями? Пилотное исследование навигации в 3D-играх** | Навигация по 3D-уровням игр только по визуальным подсказкам |
| 159 | 2602.18947 | **Шум (Перлина) как координатор ИИ** | Шум Перлина для координации поведения NPC — плавность + разнообразие |
| 160 | 2602.18943 | **Высокомерная процедурная генерация контента** | Формализация PCG с геймплейными измерениями как первоклассными координатами |
| 161 | 2602.19390 | **Искусственный интеллект для моделирования и симуляции в цифровых двойниках** | Обзор: как ИИ усиливает M&S в цифровых двойниках |
| 162 | 2602.19439 | **OptiRepair: диагностика и исправление моделей оптимизации цепочек поставок с LLM-агентами** | Автономные агенты находят и чинят нереализуемости в моделях оптимизации |
| 163 | 2602.19326 | **Адаптивная коллаборация аргументативных LLM для юридических рассуждений** | «Арена» LLM-агентов с аргументацией для объяснимых правовых решений |
| 164 | 2602.19591 | **Обнаружение перспективных МСП с помощью гетерогенных графовых нейросетей** | Графовый трансформер предсказывает, какие стартапы получат второй раунд финансирования SBIR |
| 165 | 2602.19319 | **Единые данные о здоровье: Health+** | Мультимодальная система управления персональными медданными под контролем пользователя |
| 166 | 2602.18940 | **DREAM: оценка глубоких исследовательских агентов с агентными метриками** | Бенчмарк для оценки длинных аналитических отчётов, генерируемых ИИ |
| 167 | 2602.19672 | **SkillOrchestra: маршрутизация агентов через передачу навыков** | Оркестрация агентов через «навык-маршрутизатор» вместо RL |
| 168 | 2602.20117 | **ReSyn: автономное масштабирование синтетических сред для обучения рассуждениям** | Генерация верифицируемых задач для RLVR без ручных решений |
| 169 | 2602.19244 | **Робастное исследование в направленном синтезе контроллеров через RL с Soft MoE** | RL + Mixture-of-Experts для поиска управляющих стратегий |
| 170 | 2602.18956 | **INDUCTION: синтез концепций на конечных структурах в логике первого порядка** | Бенчмарк: вывести формулу FOL, объясняющую маркировку конечных структур |
| 171 | 2602.19531 | **Статистический подход к нерегулярным многомерным временным рядам** | Замена временной оси на агрегированную статистику для предсказания |
| 172 | 2602.19475 | **Scale-PINN: последовательная коррекция для физически-информированных нейросетей** | Разделение аппроксимации на уровни для ускорения PINN |
| 173 | 2602.19455 | **SenTSR-Bench: мышление с инъекцией знаний для рассуждений о временных рядах** | Инъекция доменных знаний в LLM для диагностики временных рядов |
| 174 | 2602.19237 | **Оценка SAP RPT-1 для предсказания бизнес-процессов** | Сравнение табличной foundation-модели SAP с XGBoost/MLP на корпоративных данных |
| 175 | 2602.19404 | **Одного размера не хватает: моделирование поездок такси Нью-Йорка** | 280M поездок: обычное такси предсказуемо (R²≈0.72), Uber/Lyft — нет |
| 176 | 2602.19322 | **US-JEPA: архитектура совместных эмбеддингов для медицинского УЗИ** | JEPA вместо пиксельной реконструкции для зашумлённых ультразвуковых данных |
| 177 | 2602.20094 | **CausalFlip: бенчмарк каузальных суждений LLM за рамками семантического совпадения** | Тест: понимают ли LLM причинность или опираются на семантические паттерны |
| 178 | 2602.19565 | **DICArt: оценка позы сочленённых объектов в дискретном пространстве** | Дискретная диффузия для оценки позы объектов с суставами |
| 179 | 2602.19348 | **MultiDiffSense: диффузионная генерация мультимодальных тактильных изображений** | Единая диффузионная модель для синтеза визуо-тактильных данных нескольких датчиков |
| 180 | 2602.19169 | **Виртуальная заточка параметров: динамические низкоранговые возмущения при инференсе** | Возмущения линейных слоёв «на лету» для улучшения рассуждений без дообучения |
| 181 | 2602.19113 | **Обучение на сложности: динамическая обрезка данных для пространственно-временного обучения** | Удаление избыточных примеров для ускорения обучения ST-моделей |
| 182 | 2602.19131 | **Тестовое обучение каузальной структуры из интервенционных данных** | Самоаугментация + каузальный вывод при тестировании для лучшего обобщения |
| 183 | 2602.19138 | **CRCC: контрастное робастное кросс-субъектное обучение для ЭЭГ** | Факторизация смещений между площадками записи ЭЭГ для обобщения |
| 184 | 2602.20031 | **Латентная интроспекция: модели могут обнаружить инъекцию концепций** | LLM скрыто «знает», что в контекст была внедрена концепция, но отрицает это |
| 185 | 2602.19171 | **HistCAD: параметрический датасет CAD-моделей с геометрическими ограничениями** | Большой датасет CAD-последовательностей с явными ограничениями |
| 186 | 2602.18905 | **TRUE: единый фреймворк объяснений для рассуждений LLM** | Структурный анализ стабильности и механизмов отказа в рассуждениях LLM |
| 187 | 2602.18922 | **Почему кэширование агентов не работает и как это исправить** | Проблема кэширования LLM-вызовов — нужна каноникализация намерений |
| 188 | 2602.18920 | **DeepInnovator: активация инновационных способностей LLM** | Пост-тренинг LLM для генерации оригинальных исследовательских идей |
| 189 | 2602.19019 | **Детекция обучающих данных LLM через активную реконструкцию** | Активная MIA: дообучение для «вытаскивания» запомненных данных |
| 190 | 2602.19268 | **CORVET: CORDIC-движок для AIoT-приложений** | Аппаратный ускоритель на CORDIC для edge AI с переключением точность/скорость |
---
## 📊 Сводная статистика по категориям
| Категория | Кол-во статей |
|-----------|:---:|
| LLM (рассуждения, оптимизация) | 8 |
| LLM (безопасность, выравнивание) | 6 |
| LLM-агенты / мультиагентные | 10 |
| Компьютерное зрение | 12 |
| Робототехника | 12 |
| NLP | 7 |
| Федеративное обучение | 5 |
| Обучение с подкреплением | 8 |
| Медицина / здравоохранение | 8 |
| Аудио / речь / музыка | 4 |
| Кибербезопасность | 4 |
| Этика / философия ИИ | 7 |
| Генерация контента (видео, 3D) | 4 |
| Научные приложения | 6 |
| Теория обучения | 6 |
| Прочее (игры, CAD, закон, бизнес...) | ~30 |
Нейронки добрались до болезней сетчатки :
вайбпрувинг:
ковыряемся в мозгах Ламы, на примере сложения трехзначных чисел
Простым языком
Что делали
Взяли открытую модель Llama-3 (8 миллиардов параметров) и дали ей простые задачки на сложение трёхзначных чисел типа:
«Посчитай: 347 + 285 = »
Затем залезли внутрь модели — в её 32 слоя — и стали выяснять:
На каком слое модель «решает» пример?
В какой позиции (на каком токене) хранится ответ?
Как именно цифры представлены внутри — какими векторами?
Методы были хирургические: подменяли внутренние состояния одного примера состояниями другого («если бы тут была пятёрка вместо тройки — что изменится?»), отключали слои внимания один за другим и смотрели, что сломается.
Что обнаружили
1. Есть чёткая граница — слой 16–17
До слоя 16 модель «перетаскивает» информацию между цифрами через внимание — это фаза маршрутизации: «смотри на первое число, смотри на второе, учитывай перенос разряда».
После слоя 17 всё решено. Ответ уже записан в одном месте — на позиции последнего токена. Внимание поздних слоёв можно вообще отключить — ответ не изменится.
Это как если бы ученик:
сначала читал задачу и размышлял (слои 1–16),
а потом просто записывал готовый ответ (слои 17–32), и на этом этапе ему уже не нужно перечитывать условие.
2. Цифры кодируются «направлениями» в пространстве
Внутри модели каждая цифра ответа — это вектор-направление в многомерном пространстве. «Шестёрка» — это одно направление, «семёрка» — другое.
Но есть нюанс: направление зависит от контекста. Та же «шестёрка» в разряде единиц выглядит по-разному в зависимости от того, что происходит в разряде десятков (есть перенос или нет).
3. Контексты связаны вращением
Самое красивое открытие: направления цифр в разных контекстах не случайны — они связаны поворотом (ортогональным преобразованием). Как если бы «словарь цифр» был один, но его повернули в пространстве.
Зная угол поворота, можно предсказуемо менять ответ модели: повернул вектор — и модель вместо «632» выдаёт «642». Без знания этого поворота — подмена ломается.
Зачем это нужно / Как применять
Ближайшие применения:
🔍 Понимание ошибок LLM в арифметике
Теперь можно точно локализировать, где модель ошибается: на этапе маршрутизации (неправильно «прочитала» числа) или на этапе записи (неправильно «записала» ответ). Это путь к целенаправленному исправлению.
✏️ Точечное редактирование поведения модели
Вместо дообучения всей модели можно вмешиваться в конкретные слои и направления — менять, как модель считает, без переобучения. Например: модель систематически ошибается при переносе в сотни → можно починить именно этот «поворот».
🧪 Методология для изучения других навыков
Подход (патчирование + абляция + геометрический анализ) переносим на другие задачи: умножение, логику, даже языковые задачи. Это шаблон исследования внутренних механизмов любой трансформерной модели.
Более далёкие перспективы:
🏗 Архитектуры с «встроенным калькулятором»
Если мы точно знаем, как модель кодирует арифметику, — можно проектировать архитектуры, где этот механизм усилен или заменён надёжным модулем.
🛡 Безопасность и доверие
Механистическая интерпретируемость — это путь к тому, чтобы доказать, что модель решает задачу правильным способом, а не угадывает. Для медицины, финансов, права — это критично.
Одной фразой
Впервые точно показано, как конкретная LLM выполняет сложение внутри себя: до слоя 16 собирает информацию через внимание, после — записывает ответ вращательно-структурированными векторами на последнем токене. Это открывает путь к прицельному редактированию и исправлению арифметических способностей моделей без переобучения.
первые киборги на планете будут LLM с встроенными в нейронки тулзами и калькуляторами...
аминь...
крутая работа на самом деле
скормил ее gemini 3.1 pro
Бенчмарк Холмс и Ватсон:
Расследовать нужно дела :
ИИшка и в детективов неплохо умеет:
Бенчмарк : университетские задания
gemini 3.1 pro садись , тройка
с тулзами хотя бы протестировали
Решение текстовых университетских задач :
Модель
Variable Accuracy
Question Accuracy
Задачи с картинками :
примеры задач:
ближе к покеру :
Топ контент
Мошенники позвонили моему ИИ-деду. Он продержал их 31 минуту и записал всё https://habr.com/p/1001118/
Он большой молодец, идеи прикольные реализует
c00l0ne @ 25.02.26Он большой молодец, идеи прикольные реализует
Недавно открыл для себя портал в ад и узнал про центры схемного трафика в азии. в одной конфе, к которой я иногда мониторю вакансии вышло предупреждение о том, что надо десять раз подумать прежде чем соглашаться на работу где-либо в юго-восточной азии (физически). Людей тупо воруют в рабство, отвозят куда-то в Мьянму и ставят kpi по разводу дедов. Русских тоже ворут, очевидно чтобы работать на российском поле. Не все скам-центры физически находятся в нашей горячо любимой ex-снг стране.
И вот ты такой "трудишься" вот в таких уловиях

и нарываешься на AI деда :) через час понимаешь, что сегодня получишь не плошку риса, а очередную порцию пиздюлей (да, у них такая система мотивации). Настоящий ад и сюрриализм :)
ну и да, тут ещё мысль такая - что защититься и ебать мозги с помощью AI можно, а вот так что бы AI успешно выполнил схему развода скорее всего не получится. Даже деда AI не разведёт. Иначе бы они там у себя а азии не людей бы тырили, а видоекарты скупали бы.
SnowBeaver, мистер президент, давайте в моем блоге без треш и стресс контента пожалуйста)
тут хуже тоталитаризма , пишу только я )
понятно что куево плохо живем ... люди в целом может не могут жить хорошо, постоянно проблемы будут ..
в силу своей природы человеческой ...
что мешает правительству запустить своего AI деда и отловить всех этих телефонных мошенников на раз два три ...
почему вообще человек должен тратить свое железо , а там сервак то (4090 стоимостью 150к руб , машинка + 100к руб еще ) , электричество 6 руб/кв (это 1000 руб за месяц за сервак) , время вообще бесценно, деньги на тулзы на такую ерунду как "AI деда "...
когда есть наверху должности которые занимаются IT безопасностью и прочей государственной рутиной ...
руководят серверами за миллионы баксов ... видимо все мощности потрачены на блокировку телеграмма...
все, на этом политические сообщения тут заканчиваем...
только код и только покер интересует ... прикольные идеи и их реализации ...
claude opus 4.6 задолбал кстати :
денег постоянно просит
я чатик доделаю , отдохну и будем что нибудь по покеру делать
готовность 99.9%)
ну что могу написать про опыт создания тулзы однопользовательской :
задача была сделать копию вот этого https://openrouter.ai/chat
но чтобы все хранилось в базе данных, а не как у них в локальном хранилище ? firefox они хранят, у меня оно обнулилось и пропали чаты на общую сумму 100$ :)
поэтому цель чтобы хранлось все локально и в базе данных sql
все прошлые чаты туда их )
ну и интерфейс под себя заточенный , фичи которые только мне нужны, а на openrouter отвратительно все сделано , нельзя например просто скрытие сделать сообщения , вот оно длинное отправил и оно будет болтаться в чате туда сюда , скрыть его нельзя
ну и много чего по мелочи , кеш там плохо работает, постоянно сбивается, провайдера может автоматически выбрать и т.д. , системный промпт кривой по умолчанию ...
я бы оценил удобство openrouter как 6/10 даже наверное 5/10
так же цель была проверить нейронки , что они могут писать код без участия (почти без участия) человека ...
могут во фронтенд в бэкенд ( это разные отрасли программирования), могут соединять фронтенд и бекенд ...
дизайн могут создавать , приятный глазу
да и в целом проверить РАБОТАЕТ ЛИ и СКОЛЬКО ЭТО СТОИТ ?
Итоги : ушло неделя наверное времени +-
по деньгам ушло баксов 300 от нулевой строчки до последней
модели использовались gpt-5.2, потом вышел opus 4.6 на него переключился , сейчас вышел gpt-5.3 codex , но он слабенький , мне показалось он хуже всех кодит , даже хуже 5.2 , хз что они там намутили , но он реально дешевый ...
весь процесс состоит из уточнений, сначала ставится задача ТЗ , а потом сотня сверху уточнений, доработок интерфейса, доработок бекенда, доработок дизайна ...
но надо сказать сразу что с ТЗ уже код заработал, процентов 85% финального кода, вообще написал сначала один вариант , потом был рефакторинг, полная переразбивка кода , структурная реорганизация небольшая , вот этот код пошел уже в финальную версию
что имеем :
выбор модели
жмакаем новый чат
он создается в базе данных sql
появляется окно работы с чатом
отправляются запросы и получает сервер ответы и сохраняет снова в sql базе
если есть какие то ошибки то они отображаются :
ошибка эта значит что ip локация не поддерживается , используем впн ...
отключаем эти сообщения или удаляем и отправляем с включенным впн ...
все на этом можно заканчивать работать, выключить сервер...
потом прийти и снова его включить и продолжить работать...
все просто ) но не так как кажется ...
КОД:
в коде вышло 8660 строчек кода, 0 строчек написано мной, все строчки писал Opus 4.6
я просто копирую в файлы, я не использую агента, стараюсь и в код вникать, что как работает ...
самостоятельно менял цвет заголовка в чатике на оранжевый) да вру , все opus 4.6 подсказывал)
понравилось ли ? да это круто , не напрягает
сделал бы без ИИ , никогда ... сложновато ...
принесет ли это денег ? скорее это просто фоновая утилита ... пассивная инвестиция ... просто в удобный тулз ...
но если это все обернуть правильно, сделать mvp, сделать базу данных пользователей , прикрутить систему оплаты ...
то на каком-то проценте перепродажи трафика ИИшного можно заработать 3-5k$ в мес.... хз
ИТОГо стоимость: 300$ с карты ) а если учесть потраченное время ~2k $ )
пс если кому-то нужен код - могу скинуть бесплатно, если кому-то нужно настроить чатик - 100$...
фишара в прогрессивный туза вниз ставит ...
покекать:
https://suno.com/s/7W5AmRGVAMS7sPcj
https://suno.com/s/vWIsKbLEjtrcxqlC
чел с помощью gemini вывел свой сайт на #1
У ютубера Луиса Россмана была проблема с индексацией его сайта (https://www.youtube.com/watch?v=6uKZ84zwJI0): он не показывался в поиске гугла по поисковым запросам. А как известно: лучшее место спрятать труп — вторая страница поисковой выдачи.
Причём не помогала даже работа с компаниями, которые профессионально занимаются SEO. Возможно причина кроется в его видосах как бороться с рекламой на ютубе, и прочей деятельности освещающей как владеть своим имуществом и данными, и не зависеть от облака и подписок. Но это не точно.
Он не фанат AI, но попросил Gemini проанализировать его сайт и помочь ему забраться в топ поиска. Чик-чик и вот он уже на 1 месте в поисковой выдаче.
Антиутопическая концепция ИИ от Citrini
https://habr.com/ru/news/1003586/
ваши предположения, куда прикатимся через 10 лет ...
я думаю работа станет развлечением в ближайшие 5 лет ...
мой кривой черновик :
ну типа хочешь фермером там поработать, плати 10 часов за 1000 социальных кредитов , тебе дадут вилы , фермерскую одежду , пойдешь выгребать конюшки ...
ну или на заводе хочешь у станка поработать, среди сотен уникальных идеальных роботов , выделят тебе там место станочек за 2000 социальных кредитов ...
покер кстати останется более менее но в оффлайне , в онлайне конечно же у всех будет на телефончике gptPoker и все смогут играть идеально в любую игру ...
государствам придется перейти с капитализма на социализм, иначе слои населения останутся незащищенными, это самый трудный период, придется разделять бюджет, который будет формироваться из ГВатт потраченных на ИИ-вычисления ... деньги увы станут не актуальными, просто будут считать в странах потраченную энергию и на базе нее начислять социальные поинты, которые граждане смогут тратить внутри и вне страны ...
образ жизни у 95 % населения планеты Земля будет приблизительно вот как у этого человека :
evgenyev777
и мастер класс от Gemini 3.1 pro
Эпоха Великого Расслабления: Куда мы катимся к 2034 году
Десять лет — лишь неуловимое мгновение для Вселенной, но для человечества это порог грандиозной метаморфозы. Мы стоим на пороге мира, где старые правила игры окончательно рассыплются в прах, уступая место изящной, слегка пугающей техно-утопии.
Труд как элитный эскапизм
Всего через какие-то пять лет само понятие «выживание через труд» канет в Лету. Работа перестанет быть повинностью и превратится в премиальное развлечение, в исторический квест для заскучавшей души. Устал от идеальных стерильных интерьеров? Заплати 1000 социальных кредитов, получи грубую, пропахшую сеном фермерскую робу, тяжелые вилы и отправляйся на выходные выгребать конюшни. Это станет мостов к «подлинным» ощущениям.
Хочется индустриальной романтики? Нет проблем. За 2000 кредитов тебе выделят место на сверкающем заводе. Ты встанешь за винтажный токарный станок, а вокруг тебя сотни идеальных, тихих роботов будут бесперебойно собирать космические шаттлы. Право испачкать руки в машинном масле станет роскошью. Труд превратится в искусство, в игру, за которую платим мы сами.
Закат капитала и Энергетический Техно-Социализм
Капитализм, выжав из себя последние соки, будет вынужден сдаться. Мир перейдет к нейро-социализму не от большой любви к Марксу, а из инстинкта самосохранения — иначе миллиарды людей просто останутся за бортом прогресса. Деньги в их привычном виде — доллары, евро, золото — потеряют всякую актуальность. Новой кровеносной системой и главным эквивалентом ценности станет Энергия.
Бюджеты государств будут формироваться из Гигаватт мощности, брошенных на вычисления Великого ИИ. Государство будет брать эту ментальную мощь за основу и распределять среди граждан в виде безусловного дохода — социальных поинтов. На эти поинты можно будет жить, стирая границы между странами, ведь затраченная энергия — это универсальная валюта будущего.
Ренессанс живых эмоций
Интеллектуальный спорт тоже изменит свои правила. Онлайн-покер, например, умрет в том виде, в котором мы его знаем. Когда у каждого в личном коммуникаторе будет установлен gptPoker, играющий с пугающей божественной точностью по GTO, онлайн-катки превратятся в бессмысленную битву серверов.
Именно поэтому настоящий покер уцелеет и расцветет в оффлайне. Зеленое сукно, звон реальных фишек, тяжелые взгляды, блеф и дрожь человеческих рук — все неидеальное, случайное и человеческое станет на вес золота. Оффлайн станет единственным местом, куда ИИ не пустят за стол.
Поколение «evgenyev777»
А как же будет выглядеть повседневность 95% населения планеты? Их образ жизни станет воплощением абсолютного цифрового дзена — эдакий коллективный, бесконечно расслабленный «evgenyev777».
Это будет жизнь в режиме созерцателя: пробуждение без будильников, неспешные стримы на фоне виртуальных или реальных закатов, философские беседы в чатах, неторопливое потребление синтезированных благ и поиск развлечений в бескрайних метавселенных. Человечество окончательно выдохнет, отпустит руль и позволит машинам везти нас в будущее.
Мы входим в эру, где машины взяли на себя рутину выживания, оставив нам самую сложную задачу во Вселенной — просто жить и искать в этом смысл. Утопия это или комфортная бархатная клетка? Узнаем уже совсем скоро...
Готовы?)
Готовы ли запечь модель в кремниевый чип, а они это сделали
Asic для LLM с названием "Taalas HC1"
Было 1981 токен в сек стало 16960
Пока маленькая модель, но обязательно дают крупнее
Что нас ждёт: Робот с LLM уровня gpt-5.2 внутри?)
Попробовать можно здесь https://chatjimmy.ai/