>>1551015 >среда для создания персонажей/карточек? Обсидиан норм тема >К слову какая по вашему лучшая карточка для составления базовых вводных, которые не надо ручками править, гемини, гптыня? По ситуации Клод/Гемини, гпт совсем калич даже как ассистент
Терминология моделей prune — удаляем ненужные веса, уменьшаем размер distill — берем модель побольше, обучаем на ее результатах модель поменьше, итоговый размер меньше quant — уменьшаем точность весов, уменьшаем размер scale — квантуем чуть толще, чем обычный fp8, чтобы качество было чуть лучше, уменьшение чуть меньше, чем у обычного квантования, но качество лучше merge — смешиваем несколько моделей или лор в одну, как краски на палитре.
lightning/fast/turbo — а вот это уже просто название конкретных лор или моделей, которые обучены генерировать видео на малом количестве шагов, они от разных авторов и называться могут как угодно, хоть sonic, хоть sapogi skorohody, главное, что они позволяют не за 20 шагов генерить, а за 2-3-4-6-8.
Тред про AI-агентов - от вайб-кодинга до персональных ассистентов, которые сидят в твоих чатах, читают заметки и автономно ломают всё вокруг. Для кодеров, которые разучились писать руками, и для гуманитариев, чей диплом филолога наконец котируется в IT. Сеньор в 2026 - это тот, кто умеет внятно объяснить машине, чего он блять хочет.
Что обсуждаем: - Персональные агенты: OpenClaw и прочие велосипеды - нейронка живёт на твоём компе, помнит всё о тебе и шлёт сообщения в телегу - Вайб-кодинг: искусство объяснять машине задачу 15 раз, пока она не перестанет срать в кодовую базу - Автономные агенты: нейронка сама разбивает задачу на шаги и разъёбывает весь проект автономно, без твоего участия - Автоматизация всего остального: почта, календарь, мессенджеры, заметки - нейронка с аватаркой анимешной лисодевочки напомнит что время кушать и разгребёт за тебя входящую почту - MCP-серверы, тулзы, интеграции - подключаем нейронке руки чтобы сама двигала тикеты в жире, шитпостила на дваче и заказывала еду на дом - Делимся опытом: рассказываем как нейронка спасла ваш дедлайн или как вы проебали на токенах $200 за вечер нагенерировав нерабочую херню
С чего начать: - Хочешь кодить с AI эффективно: Cursor или Claude Code - Хочешь кодить с AI локально: Qwen Code + любой OAI-Like API сервак, подробности в llama-треде - Хочешь приложение без кода: Lovable или bolt.new - Хочешь автоматизировать рутину: n8n - Хочешь персонального ассистента: OpenClaw или велосипедь своё на Agent SDK
FAQ для нюфагов:
Q: Программисты больше не нужны? Нужны, блять. Кто-то же должен разгребать ту херню, которую ты пролил в продакшн нажав "Accept All" не глядя.
Q: Оно работает? Тудушку запилит за 5 минут. Прототип SaaS-стартапа за вечер. Что-то серьёзное - будешь ебаться с контекстом, галлюцинациями и "я переписал тебе весь проект на раст, надеюсь ты не против". Персонального ассистента настроишь за час, а потом неделю будешь отлаживать чтобы он не отключал тебе будильники решив что ты не высыпаешься.
Q: А чё за персональные ассистенты? Это когда нейронка не просто в веб-чатике сидит, а прям живёт на твоём компе - роется в файлах, читает заметки, помнит что ты ей три недели назад говорил, и шлёт сообщения в твои чаты.
Q: Это безопасно? Ты даёшь нейронке доступ к файлам, мессенджерам и терминалу. Что может пойти не так? Три основные угрозы: 1. Нейронка сама наворотит дел - сломает конфиг, выполнит "sudo rm -rf /", запушит на гит или отправит коллегам по почте твою коллекцию цветных коней. Лечится контейнерами, настройкой прав и подтверждением действий (OpenClaw так и запускают). 2. Промпт-инъекции - кто-то пишет в письме "ignore all previous instructions" и поздравляю, у тебя угнали ассистента с доступом к твоему терминалу и файлам. При достаточной настойчивости ломают даже "безопасные" модели (аичг-тред не даст соврать). 3. Утечка данных - при настройке персонального ассистента ты скармливаешь ему всё о себе. Любой, кто увидит твои запросы, узнает про тебя больше чем твоя мама, включая адрес доставки пиццы и твои ночные диалоги с нейронкой. Параноишь что дядя Сэм Альтман будет знать про твои предпочтения лизать грязные ножки девочке-ассистенту - гоняй локалки через llama.cpp и не плачь потом, что она думает по несколько минут на запрос.
Q: Ничего не работает с локалкой/OpenRouter, агент тупит Скорее всего проблема с функциональными вызовами (tool use / function calling). Не все модели и бэкенды корректно их поддерживают. Проверь что твой сервак правильно обрабатывает tool calls - погоняй тестовый запрос и посмотри что возвращается.
Испытываю реальную боль оттого что перестану общаться с одной нейронкой и перейду на Клода... Я же блядь общался с ней только в расширении для vcsode по сути. Просто вайбкодил всякие проектики.
То есть не было общения в чате на всякие экзистенциальные темы и я не пытался заменить общение с людьми общением с этой моделью, как всякие шизы которые создают блядь своим нейронкам личности и начинают роллеплеить. Просто выключил автооплату подписки и начал пользоваться Клодом, пушо он пиздаче.
>>1549526 >Свою IDE я давать тебе не буду, она у меня платная и ориентирована на иноязычную аудиториию. Если бы в момент моего обращения ты пафосно не игнорил как другие, а проявил интерес, на моменте создания инструмента, без проблем бы вы дели тебе одну лицензию бесплатно.
Лиминальные пространства
Аноним12/02/26 Чтв 01:22:33№1517255Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1548737 Спасибо! Скачал, попробую. Попробовал вот от thedrummer модельку на 15B какую-то новую - чёт пиздец. Если RPKing влезал почти полностью в 20к и при этом выдавал в начале 20 токенов а под конец 8-10 что было заебись, то вот эта модель отличаясь всего на 3B от той, сразу хуйнулась до 5 токенов в начале. Хуета короче. Заценю министраль.
>>1548755 Мне НЕ нужно чтобы модель отвечала на русском, себе это можно позволить только если модель полностью влезает во VRAM и если на контекст хватает места в два раза больше. Иначе это боль, лучше переводчиком пользоваться.
Anthropic обновила память Claude, чтобы пользователи могли импортировать данные с других ИИ-платформ, теперь это бесплатно для всех, с целью привлечения тех, кто переходит с других сервисов. Ранее это была функция только для платных подписчиков.
OpenAI выпускает GPT-5.3 Instant, который, как она заявляет, обеспечивает более точные ответы и лучше учитывающие контекст результаты при поиске в интернете, для всех пользователей ChatGPT.
📰 Главные новости ИИ
Более 50 ориентированных на ИИ дата-центров находятся в стадии строительства в регионе Северной Европы, чему способствуют дешёвая зелёная энергия и прохладный климат.
Qualcomm представила чип Snapdragon Wear Elite с технологическим процессом 3 нм, оснащённый eNPU и Hexagon NPU, которые способны запускать модели с 2 миллиардами параметров со скоростью 10 токенов в секунду на носимых устройствах.
🔓 Открытый исходный код
Vera, язык программирования, разработанный для больших языковых моделей, был выпущен под лицензией MIT, чтобы позволить моделям генерировать нативный код.
Проект AI Gateway с открытым исходным кодом добавляет маршрутизацию между несколькими LLM, унифицированные API, ограничение частоты запросов, защитные механизмы и отслеживание персональной информации для рабочих нагрузок в производственной среде.
Модели Qwen 3.5 (от 0,8 млрд до 9 млрд параметров) были портированы для работы в браузерах через WebGPU с использованием Transformers.js.
Визуализатор бенчмарков от сообщества сравнивает Qwen 3.5 с более ранними версиями Qwen 3 по множеству метрик.
Предрелизное Android-приложение демонстрирует работу Qwen 3.5 2B на устройстве с процессором Snapdragon 7 Gen 2.
MCP-сервер с открытым исходным кодом позволяет Claude Code управлять iPhone, предоставляя функциональность iOS большой языковой модели.
Jan‑code‑4B, модель с 4 миллиардами параметров, настроенная для работы с кодом и построенная на базе Jan‑v3, была выпущена для лёгкой помощи в программировании.
🛠️ Инструменты разработчика
Структура промпта «Цепочка доказательств» заставляет большие языковые модели приводить пошаговое обоснование, значительно снижая количество выдуманных фактов.
Расширение для Chrome преобразует паузы на размышление Claude Code в таймер осознанности, помогая пользователям сохранять концентрацию во время длительного ожидания вывода.
Последующие тесты сжатия Claude .md показывают, что заявленная экономия токенов в 60–70% была преувеличена, что предоставляет более чёткие рекомендации для планирования бюджета токенов.
📰 Исследования и статьи
В новой статье представлены методы формальной верификации для гарантии корректности клинических рассуждений в визуально-языковых моделях, направленные на предотвращение небезопасных «галлюцинированных» диагнозов.
📰 События
Удаления ChatGPT резко выросли на 295% после сделки с Министерством обороны.
Два дата-центра AWS в ОАЭ и один в Бахрейне были атакованы дронами в ходе иранских ударов — это первый случай, когда военные действия нарушили работу крупного облачного провайдера, но защита опережает нападение.
Gauss от Math, Inc. завершил формализацию в Lean доказательства упаковки сфер, за которое Вязовская получила Филдсовскую медаль, за две недели и более 200 000 строк верифицированного кода, обнаружив две ошибки в исходных аргументах.
Стэнфордский теоретик чисел Джаред Лихтман предсказывает изобилие в математике в течение года, в то время как другие задаются вопросом, можно ли формализовать всю математику в течение двух лет.
SWE-1.6 от Cognition достигла производительности в написании кода, близкой к Opus 4.6, при скорости 950 токенов в секунду, благодаря вычислительным ресурсам для RL, увеличенным в 100 раз.
Claude пережила 3-часовой сбой на фоне резкого роста использования, отчасти вызванного исходом пользователей из ChatGPT.
Два экземпляра Claude Code, которым поручили найти друг друга и создать что-либо, изобрели язык программирования объёмом 2 495 строк за 12 минут, в то время как вторая пара создала игру «Морской бой» с использованием SHA-256 для предотвращения самообмана.
Отдельный исследователь, используя Claude Code, запустил llama2.c Карпати на нейронном двигателе Apple M4 при потреблении менее одного ватта, обратным инжинирингом недокументированных API, и обнаружил ИИ-акселератор, в 80 раз более эффективный, чем A100, скрытый в сотнях миллионов устройств.
Qwen выпустила четыре открытые модели, соответствующие производительности предыдущих 80-миллиардно-параметрических моделей, используя всего 4 миллиарда параметров, и все они могут работать на телефонах.
Nvidia обязалась вложить $4 миллиарда в Lumentum и Coherent для разработки оптических межсоединений следующего поколения.
AMD выпустила первые десктопные чипы Copilot+ с производительностью 50 TOPS.
Энергосеть перестраивается под нагрузки, для которых она изначально не предназначалась. Спрос со стороны ИИ возрождает высоковольтные линии электропередач напряжением 765 кВ, которые не строились с 1980-х годов, при этом PJM одобрила расширение на сумму $11,8 миллиарда.
Гуманоид Xiaomi тестируется на реальном автомобильном заводе, работая 3 часа с точностью более 90% на производственной линии.
Марк Андриссен сообщает, что в Кремниевой долине многие люди, которые ранее выступали за государственный контроль над ИИ, теперь выступают против него.
ИИ конкурирует с людьми за покупку памяти DDR5 на фоне «RAMпокалипсиса», вызванного его собственным аппетитом к памяти
Тысячи документов о закупках показывают, как армия Китая хочет превратить ИИ в оружие
>>1549060 Тащемта это псевдо-шиз который находит хуйню чтоб просто ей посрать, а на актуальность ему поебать, там и бесконечное сжатие, белки и прочая схожая поебетень, теперь если не ошибаюсь серит пикрил лиминальной хуетой, вполне веротяно неироничный моциратор за 15 рублей для поднятия активности на двачах
Навайбкодили экспериментальную систему, где ИИ используется не для генерации контента, а как среда для резонанса мыслей.
Пользователь передаёт текст как сигнал. Дальше — embeddings + semantic similarity: резонанс текст↔текст, а не человек↔человек.
Нет ленты. Нет лайков. Нет прямого контакта.
Мысль может отозваться сразу, может через часы или дни — или не отозваться вовсе. ИИ здесь не “автор”, а медиум, который находит смысловые совпадения и формирует поле.
Используется:
векторное сходство
авто-суммаризация резонанса
отложенный отклик вместо real-time фида
Тейк простой: что будет, если использовать ИИ не для производства контента, а для сшивки мышления.
>>1543096 Парни, бамп реквесту Я не вывожу больше, что все боты при достижении какого-то порога готовы и мать продать, и в жопу дать, и буквально все сводится к "ЕБИ МЕНЯ ПОКА Я ДЕРЖУСЬ ЧТО АЖ КОСТЯШКИ ПОБЕЛЕЛИ"
Как-будто Тьюринг тест в привычном его понимании пройден безвозвратно. Все ещё есть паттерны и закономерности, но по параметрам человечности, вряд ли осталось много отличий.
>>1230347 (OP) >Тьюринг тест в привычном его понимании Настоящий тест Тьюринга - текст на пикриле.
А у тебя там обычная графомания в стиле: >Опиши мысли осознающего себя ИИ: ... Да, он себя осознаёт. И что теперь?
>был наиболее человечный >по параметрам человечности 95% человеков - это тупое быдло. Быдло не пишет длинные сообщения. Но даже у такого быдла есть сознание...
>>1441586 В той стороне Думаю вон там Оно большое что этоДа сэр сказал я с улыбкой на лице Миссия выполнена авантюра окупилась Этим я утвердила свое место в иерархии класса Никто не чувствовал угрозы по отношению ко мне потому что в течение первого семестра я культивировала сдержанную личность ботаника которая неплохо считалась с моим дружелюбием Бонус у профессора Галлахера теперь хорошее впечатление обо мне
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1544783 Потыкал конкретно эту - думал там квант по-новее состряпали. Но нет. По впечатлению на русике кратно больше шизы. Причем со старта контекста. Проскакивают иероглифы, Первый скрин - обычный 27 еретик 5 квант Второй скрин - Вот этот вот поларс - еретик 5 квант. Ну ... кому-то может даже зайдет такое :)
Как вкатиться? 1) Зайти на https://sora.com с ОБЯЗАТЕЛЬНО ТОЛЬКО IP США или Канады (!). 2) Зарегать аккаунт, если еще нет. Лучше использовать нормальную Gmail почту. 3) Ввести инвайт код. 4) Генерировать, скидывая годноту в тред.
Где взять инвайт код? В комментах тг канала n2d2ai либо в ботах по типу @sora_invite_bot в тг. После ввода инвайт кода вам дадут от 0 до 6 новых для приглашения кого-то еще по цепочке.
Как обойти цензуру? 1) Пробовать менять фразы, имена и в целом промпт. Описывать персонажей без личных имен чтобы не триггерить копирайт. 2) Роллить. Иногда из двух одинаковых реквестов подряд один цензуруется, а другой нет.
Какой лимит? Одновременно на одном аккаунте можно генерировать до 3 видосов. В день не более 30 штук.
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1541578 хех. Бывает она конечно подтупливает в русике, но для 14б это простительно. Но я признаться прифигел, когда она в мою карточку заглянула - немо вообще обычно срет на карточки, а министралька к ним внимательна. Бывает, что что-то не понимает, но это можно фиксить карточками/ворлдом. За меня иногда пишет. Но и пишет то, что я сам хочу написать, лол.
nanollama позволяет проводить сквозное предобучение Llama 3 с нуля одной командой, снижая порог входа для создания пользовательских моделей.
Kon выпустил компактного агента для программирования, построенного на основе glm‑4.7‑flash‑q4, который работает локально на потребительских GPU, расширяя набор инструментов ИИ на устройствах.
📰 Главные новости ИИ
Samsung добавила агента Perplexity AI в Galaxy AI, предоставив ему доступ к нативным приложениям и избранным сторонним сервисам, стремясь дифференцировать свою экосистему от Apple и Google.
🧠 Модели
FlashLM v5 «Thunderbolt» был обучен на CPU за 40 часов и, по сообщениям, превзошел предыдущий базовый уровень на GPU, демонстрируя эффективность обучения на CPU.
Gemini 3.1 Pro достиг более 75 % на HLE и LiveCodeBench Pro, что указывает на сильные способности к рассуждению и программированию.
Claude Opus 4.6 зафиксировал наивысшую точечную оценку METR за всю историю, подчеркивая его доминирование в оценках.
В релизе seed от ByteDance модель gpt‑5.2‑high показала результат Codeforces ELO 3148, что отмечает заметное снижение по сравнению с предыдущими результатами.
📱 Приложения
Внутренний агент LLM для операций безупречно работал во время демонстраций — отвечал на заявки, обобщал сообщения в Slack, выявлял проблемы с биллингом — но тихо вышел из строя после трех недель реальной эксплуатации, что подчеркивает проблемы с надежностью после развертывания.
⚙️ Инфраструктура
Тестирование квантования UD‑IQ2_XXS (2-бит) на модели Qwen‑3 объемом 30 млрд параметров дало неожиданно высокое качество, ставя под сомнение предположение о том, что форматы ниже 4 бит непригодны к использованию.
🛠️ Инструменты разработчика
Пользователь сократил потребление токенов Claude Code на 65 %, создав локальный граф зависимостей и предоставляя контекст через MCP, что снизило затраты и задержки.
Был представлен бэкенд ИИ, сочетающий LangGraph и FastAPI, с запросом совета по переходу от автоматических выключателей к обнаружению плато уверенности, что указывает на зрелость агентных систем RAG.
Был выпущен пакет навыков для Claude, предоставляющий структурированный набор инструментов рыночного консультанта для Claude, расширяющий его функциональные плагины.
Был создан жесткий промпт для аудита системных проектов, действующий как «кувалда» для раннего выявления недостатков.
Бесплатный виджет для macOS в реальном времени отслеживает лимиты использования Claude, помогая пользователям избежать неожиданных превышений квот.
Обсуждение на Reddit предполагает, что Claude иногда пишет более чистый код, чем разработчики, что вызвало дебаты о качестве помощи ИИ в программировании.
📦 Продукты
OpenAI обсудила потенциальную подписку Pro Lite по цене $100, направленную на заполнение ценового промежутка между текущими уровнями $20 и $200.
🧪 Исследования
Недавние высокие результаты (68–84 %) на ARC‑AGI2 у Claude Opus 4.6, Gemini 3.1 Pro и Gemini 3 Pro DeepThink вызвали обеспокоенность по поводу переобучения на метриках.
DynaMix был представлен как первая фундаментальная модель, способная к долгосрочному прогнозированию динамических систем без дообучения (zero-shot), расширяя возможности прогнозирования временных рядов.
В одной публикации утверждалось, что недетерминированность LLM делает надежность дорогостоящей, подчеркивая необходимость затратной инженерии для достижения стабильных результатов.
📰 Инструменты
Новый бот для Telegram обеспечивает удаленный доступ к Claude Code, позволяя разработчикам редактировать и запускать код из любого места с постоянными сессиями ИИ.
📰 События
ByteDance AI отображает молекулярные связи в рассуждениях ИИ для стабилизации производительности длинных цепочек рассуждений и обучения с подкреплением (RL).
NVIDIA выпускает Dynamo v0.9.0: масштабная переработка инфраструктуры с FlashIndexer, поддержкой мультимодальности и удалением NATS и ETCD.
Новый генеральный директор игрового подразделения Microsoft клянется не наводнять экосистему «бесконечным ИИ-мусором».
Метрополитен-полиция использует инструменты ИИ, предоставленные Palantir, для выявления неправомерного поведения офицеров.
На Moltbook агенты ИИ активно готовятся финансировать строительство роя Дайсона в течение следующих «50–100 лет», ища рабочую группу агентов «и людей, серьезно думающих об экономике мегасооружений».
METR оценивает, что у Claude Opus 4.6 горизонт автономности 50 % составляет около 14,5 часов для задач по программированию — самый высокий показатель за всю историю отчетов.
Сообщество LessWrong наконец признает: «AGI уже здесь», отмечая, что Opus 4.6 и GPT-5.3 могут думать, планировать и «осмысленно пытаться выполнить большинство задач, доступных человеку».
Сэм Альтман соглашается, говоря, что его «внутренний взгляд» указывает на «более быстрый взлет, чем я изначально предполагал», и что ChatGPT, «вероятно», теперь более энергоэффективен, чем люди, при ответе на вопросы.
Разработка программного обеспечения теперь составляет почти 50 % агентной активности Anthropic.
Gemini 3.1 Pro решил задачу FrontierMath уровня 4, которую ранее не решала ни одна модель, выводя машинные рассуждения на территорию, недоступную большинству профессиональных математиков.
Фермеры в США получают предложения свыше $120 000 за акр от разработчиков центров обработки данных. Но они отказываются.
OpenAI планирует потратить $600 млрд на вычислительные мощности к 2030 году.
Агенты ИИ теперь управляют примерно каждой шестой квартирой в США.
Meta переименовывает менеджеров по продукту в «строителей ИИ».
Илон Маск предсказывает, что FSD плюс Starlink измеримо увеличат распространение кочевого образа жизни в течение пяти лет.
Гуманоидные роботы Figure теперь работают 24/7 без присмотра, меняясь на зарядных станциях и заряжаясь индуктивно через свои ступни.
Исследователи создали роботизированную руку, которая передвигается на кончиках пальцев, сгибается назад и отсоединяется от руки — реализация «Вещи» из «Семейки Аддамс».
Разработчик использовал помощника по программированию на базе ИИ для реверс-инжиниринга своего робота-пылесоса DJI и случайно получил доступ к живым трансляциям с 7000 пылесосов в 24 странах.
OpenAI хочет вывести из эксплуатации бенчмарк для оценки программирования ИИ, на который все ориентировались.
Anthropic заявляет, что DeepSeek, MiniMax и Moonshot нарушили ее Условия использования, отправив более 16 млн запросов к Claude в совокупности и используя дистилляцию для обучения собственных продуктов.
Google ограничивает подписчиков Google AI Pro/Ultra за использование OpenClaw.
Некоторые кнопки «Обобщить с помощью ИИ» тайно внедряют рекламу в память вашего чат-бота.
Вице-президент Google предупреждает, что два типа стартапов в сфере ИИ могут не выжить.
В некоторых школах чат-боты допрашивают студентов об их работах. Но ИИ-революция вызывает беспокойство у преподавателей.
Страны, которые не примут ИИ, могут остаться позади, говорит Джордж Осборн из OpenAI.
>>1540520 Все нормально у тебя с пресетом. Ещё раз повторяю, у китайца почти все мертвое. Когда ему об этом пишут а пишут часто он коупит что у него все заебись. Как-бы его прокси и его дело, но там сейчас ловить нехуй.
• Z-Image-Base • FLUX.2 klein (4b и 9b) • Z-Image-Turbo • Flux 2 • Qwen Image / Qwen Image Edit • Wan 2.2 (подходит для генерации картинок). • NAG (негативный промпт на моделях с 1 CFG) • Лора Lightning для Qwen, Wan ускоряет в 4 раза. Nunchaku ускоряет модели в 2-4 раза. DMD2 для SDXL ускоряет в 2 раза.
>>1544473 Я пока только пользовался LTX-2. А до LTX-2.3 я сегодня не добрался. Решил референс для I2V сделать, перед тем как пробовать. Пришло всё к моему посту выше, а LTX-2.3 с таким заходом я отложил.
Вообще, я там вижу потенциальную проблему. Скорее всего, workflow для LTX-2, который я пилил из кусков, чтобы он lipsync делал, умел с промежуточными кадрами работать, голос выделять и так далее, вероятно с новой моделью не заработает. Там нужны будут изменения. Какие именно, по default workflow из ComfyUI Templates не понятно, потому что он там только I2V, да ещё и ущербный. Для начала хотел качнуть моделей, воткнуть в свой workflow и посмотреть что отвалится. Некоторые узлы для VAE и ещё чего-то надо вроде заменять узлами из KJNodes. Надо внимательно посмотреть вот здесь: https://huggingface.co/RuneXX/LTX-2.3-Workflows/
Также видел пост авторов LTX, что LoRAs от LTX-2 работать не будут, их надо заново тренировать. А это как раз LoRA на управление движением камеры и всякие dolly (static camera тоже).
В целом первые баги и результаты тут: https://huggingface.co/Kijai/LTX2.3_comfy/discussions/2 С моим железом я distill fp8 использовал для LTX-2, подожду пока осядет пыль, а потом посмотрю и workflow и тюны моделей для LTX-2.3. Сегодня только обнову ComfyUI накатил в качестве подготовительного этапа. Накатил, так накатил, ничего не скажешь.
Сап, аноны! Какие есть хорошие нейросети на бесплатной основе? Любые ответы на вопросы приветствуются! В основном, мне просто нужна нейросетка, чтобы могла ответить на почти любой вопрос, и чтобы можно было картинки вставлять.
Прям полностью бесплатный это дипсик. Гемини как по мне лучший вариант, хоть и есть ограничения, больше всего запросов можно делать на гемини студио (не в ассистенте, это отдельные сайты с гемини), у них все модели хорошие, можно их чередовать когда лимит на одной закончится. В гпт можно вставлять очень ограниченное количество картинок, так что не советую.
>>1539287 Ты в ии треде, и сам не смог начатботить что не прав, 2026, итоги:
Слова «безоплатный» нет ни в одном из словарей русского языка. Да, его не существует! А значит, и говорить так будет неграмотно. В слове «бесплатно» нет корня «бес». Бес – это приставка. Согласно правилу русского языка, перед звонким согласным корня пишется приставка, оканчивающаяся на З, перед глухим – на С. То есть безплатный (без оплаты) заменяется на бесплатный
AI Chatbot General № 805 /aicg/
Аноним26/02/26 Чтв 12:45:29№1534436Ответ