• Z-Image-Base • FLUX.2 klein (4b и 9b) • Z-Image-Turbo • Flux 2 • Qwen Image / Qwen Image Edit • Wan 2.2 (подходит для генерации картинок). • NAG (негативный промпт на моделях с 1 CFG) • Лора Lightning для Qwen, Wan ускоряет в 4 раза. Nunchaku ускоряет модели в 2-4 раза. DMD2 для SDXL ускоряет в 2 раза.
Попробовал чужую base-лору на turbo - нулевое влияние на лицо. Турбо-лоры работают отлично, очевидно. Ну и нахуя тогда эта base-параша вообще нужна. Думали, что будем обучать на base и юзать на турбо. Разочарование года. Когда там ждать первые потуги хороших файнтюнеров? Предвещаю хуйню уровня флаксотюнов с инференсом как у хромы. Тот же турбо-тюн епикреализма - полное копро. Причем та же самая лора у него - на порядок лучше и даже заслуживает внимания.
>>1509461 Ну ты посмотри что генерят лучшие лоры на флакс и на сколько порядков хрома делает это лучше (не в руках ленивых криворуких уебанов). Хотя я всё ещё надеюсь на слова китайцев, что они вместе с базой должны были выпустить гайд как делать дистилляцию и все файнтюнеры её сделают так же идеально как турбо, ещё сильней улучшив такие детали. >>1509468 More like >anime slop
>>1509596 Какие настройки? Качаешь portable. Ставишь ComfyUI-Manager. Открываешь TEMPLATES. Берёшь типовой workflow. Качаешь модели, которые к нему идут и custom nodes, если нужны.
Версия Desktop обновляется позже всех. У многих с ней проблемы.
>>1509820 Что не надо ставить через stability, нативный или васянские "сборки", а надо ставить portable и только portable. Потому-что все сидят на portable, все гайды и траблшуты для portable, и когда анон полезет что-то искать/пердолить (а он полезет), то столкнется с тем, что придется решать кучу нетипичных проблем. Давно пора уяснить - на данном этапе просто не будет, придется пердолится, ручками зависимости править, лазить в венву. И если в portable это относительно безболезненно и у тебя все добро в одном месте, то с другими вариантами все сильно хуже. Кнопки "генерировай заебись" нет и не предвидится.
>>1509867 В стабилити ставится портейбл и все гайды на портейбл работают на стабилити версию. Только вот ебаться с комфи в стабилити не надо, ведь там весь функционал вшит
>>1510257 > половина Это какие? У меня ни одной не слетело. Может у тебя там некрота, которая джва года не обновлялась и ломается от No explicit any коммитов во фронтэнде?
>>1510255 Полагаешь, стабилити будет волшебным образом угадывать твои мысли, сама догадываться о твоих пожеланиях, скачивать воркфлоу из небесного хранилища тайных знаний, а также ставить сверхсекретные ноды? На самом деле портабле самодостаточна, и ее никуда не надо вшивать, чтобы она работала как надо.
Потыкал тут сэмплеры для кляйна, может кому пригодится. Зеленый текст - на мой взгляд лучший в линейке. Синий - уникальные без пересечений. На сером фоне приблизительно одинаковые, но есть нюансы.
>>1510668 Можешь еще exp_heun_2_x0, gradient_estimation, seeds_3 попробовать, если текст не нужен. А если нужен, то тестируй сразу с текстом, чтобы потом не было фрустраций.
>>1510692 Что для тебя сложная сцена? Тут >>1508366 → dpmpp_2m_sde_heun smg_uniform. На четвертой получился обосрамс, т.к. кошка и крыса должны были бежать справа налево и крыса должна была гнаться за кошкой. Остальное всё попало.
>>1510594 Ты в курсе, что ancestral samplers относятся к стохастическим сэмплерам и не сходятся, потому что на каждом шаге шум подмешивают? У тебя результат рандомный будет.
Очевидно, что если не выкладываешь workflow со всеми использованными prompts и настройками (для подтверждения и воспроизводимости результатов любым желающим), без prompt непонятно вообще какой должен быть конечный результат. Предположим, следования prompt на некоторых samplers/schedulers нету, колбы и предметы будут расставлены в другом порядке, с содержимым других цветов, геометрия, формы, освещение будут другими и так далее. Эти моменты только из prompt понять можно: что именно указано в prompt (что сверять), а что рисуется рандомно и не имеет значения.
>The distillation process causes some damage to text (especially very small-sized text), with rendering clarity and completeness inferior to the original Z-Image.
>>1510723 >ancestral samplers относятся к стохастическим сэмплерам и не сходятся, потому что на каждом шаге шум подмешивают? Ты в курсе, что есть стандартная нода, где уровень подмешивания шума этого семплера настраивается? И значит можно легко сделать сходимость. Хватит шуметь в тред.
>>1510829 Кстати, у ваших любимых res_2s тот же принцип подмешивания шума и их легко нечаянно превратить необдуманными настройками в анцестрал и не заметить.
>>1510829 Можно и троллейбус сделать из буханки хлеба. Я очень сомневаюсь, что в том >>1510594 «тесте» >есть стандартная нода, где уровень подмешивания шума этого семплера настраивается? И значит можно легко сделать сходимость.
Не плоди сущности без необходимости ради софистики. Когда большинство втыкает стохастические ancestral samplers они даже не знают в чём их отличие от детерминированных. Этот пост был для них. Если ты такой прошаренный, который с помощью говна и палок из стохастического семплера пытается сделать детерминированный, флаг тебе в руки.
>>1510834 > сущности без необходимости ради софистики > большинство втыкает стохастические ancestral samplers они даже не знают > они не знают > большинство, Карл, не знает > 6-й год подряд один и тот же пост Череп не жмет, теоретик?
>>1510834 >>1510840 Можно я встряну? Как вы объясните тот факт, что даже при euler_a семплере в comfy картинка получается одинаковой на одинаковом fixed sid? Даже если уйти на другой sid и вернуться потом обратно, чтобы comfy уж ТОЧНО заново перегенерировал а не из кеша вытащил? По вашим рассуждениям, картинка должна быть всегда разной несмотря на sid, не? IMHO - этот шум который он подмешивает - не случайный, а псевдо-случайный, и тоже зависит от sid. Вот и все.
Кто шарит скажите, установка ноды через manager это на 100% то же, что ручное git+pip или менеджер делает ещё какие-то микро движения? Я знаю, что будет работать и без менеджера, просто ocd дрочь. Вопрос лишь: 100% или 99%?
>>1510995 Менеджер проверяет совместимость версий зависимостей при установке. Например, долгое время для работы дохуя всего нужно было numpy<2.0, а для установки зависимостей нужен был numpy>2.0, менеджер ставил новую версию, ставил зависимости и откатывал на старую версию. Хотя вроде они какое-то время назад начали это делать в том числе при запуске комфи, так что хуй знает. Безопаснее, наверно с менеджером, чтоб потом не охуевать от отвала других нод.
>>1510666 по поводу >2 sgm на отдалении разъёбывает кисти рук при промте hand-in-hand и что-то делает с оскалом если перс улыбается. Резюмируя: тут получается рандом, на каком-то сиде с каким-то промтом лучше эйлер, где-то лучше dppm_2m_sde_ХХХХ, второй бывает, что заметно упрощает, эйлер туго реагирует на лоры-слайдеры, то есть куча недостатков одновременно с достоинствами, имбы нет, в каждом конкретном случае перебираю 2-3 семплера и смотрю кто лучше ракрывает перонажа.
>>1511056 Ну с zit много сэмплеров нормально работает. Из планировщиков в основном simple и smg_uniform, в редких случаях linear_quadratic выдает что-то годное, но это скорее спрей энд прэй, чем стабильный вариант.
>>1510834 >Я очень сомневаюсь в этом «тесте» Ой, да иди нахуй. Я вообще это делал для себя, просто решил поделится. Ну проведи тест как надо, раз такой умный, подготовь презентацию, а мы тут с умным видом пообсуждаем.
>стохастический Да мне похую, как он там. Твой ancestral на всех картинках - говно. Хоть подмешивай шум, хоть не подмешивай.
Прикол в том, что сидят тут прохфессора, с умным видом теорией размахивают, а все генерации - типа скульптура из говна
>>1511077 >прохфессора, с умным видом Тут ты прав. Как только я что-то своё выстраданное выкладывал в тред, прибегал этот профессор и требовал презентацию, всю мою цепочку исследований, воркфлоу и обязательно промпт. Хотя все понимают, кроме него, что любой совет/фича должна испробоваться и исследоваться лично. Но он пишет свои возмущения с таким контекстом, что вот если бы ему представили воркфлоу то он мгновенно бы включил совет в свой пайплан и сразу бы использовал во всех своих генерациях не глядя.
>>1511135 >бязательно промпт ну, а как ты хотел? чтобы понять насколько семплер следует промту, нужно значть что имеено в промте, иначе как ты это поймёшь? при клоузапе ты не можешь понять как отрисовывается тело, нет ли там сороконожки, лицо и руки тоже не сильно показательны, разве что для теста сигн)
В статье по ссылке была анимированная гифка с демонстрацией кота, которого корёжит на каждом шаге ancestral с добавлением шума. Она, вместе с сопровождающим текстом, конечно же совсем ничего не объясняла.
>но не смог объяснить ньюфагу Спасибо, что ты помог, или не ты. Я понимаю, я же должен 24/7 в треде сидеть. Вычтите штраф за отсутствие на рабочем месте с моего счёта в банке двощей.
Серьёзно, если полдня спустя так болит, ты там свечечки поставь или таблеточки прими.
А теперь по существу: я откровенно не понимаю, почему материалы по ссылкам избирательно игнорируются, сводя всё к битве с соломенным чучелом. Вроде не /b, а тематика. Здесь и так поддержки почти никакой. Всё, что я вижу в треде за последние полгода, это вбрасывание 1girl и подобных картинок в jpg без workflow (некоторые из них даже не сгенерённые Аноном, а индексируемые поисковиками). Исключение составляют некоторые Аноны, которые постили workflow и различные приёмы для изучения (не обязательно всё было полезным или пригождалось, но для повышения общего уровня это хорошо). Я тоже старался по возможности. Сравнения скидывал с workflow для проверки результатов. Даже те, кто тащит сюда всякое сомнительное говно с сабреддита /stablediffusion, /comfyui, CivitAI, тоже по-своему полезное дело делают. В отличие от тех, кто ведёт себя как крабы в ведре (специально они это делают или нет, непонятно), фактически способствуя гейткипингу.
>>1511147 У тебя дурацкие советы. Лучше бы ты молчал иногда. Пару тредов назад кто-то что-то про семплеры спросил и что ты ответил? Совет типа " никто не мешает тебе самому экспериментировать". Это как: если вы бездомный, то просто купите дом, если заблудились, то просто идите домой. Не пиши так. Зачем твоя вода?
Тупой вопрос, но может кто знает: не могу заставить флакс сгренерить изображение стены плашмя, т.е. без перспективы. Всегда получается ёбаная перспектива и vanishing point
>>1511147 Да, Euler_ancestral лучше чем Euler_ancestral_cfg_pp, хотя оба хуже, в чем противоречие? Пытаешься сманеврировать очком? ну ок.
>я откровенно не понимаю, почему материалы игнорируются Ты либо показываешь на конкретных примерах почему данные не верны, либо идешь нахуй со своими шизотеориями и мануалами. И я тебе еще раз говорю, это не научная работа по сэплерам, это личный рабочий процесс. Сделай как надо, подкрепи теорией, выложи в тред.
>>1511135 > если бы ему представили воркфлоу то он мгновенно бы включил совет в свой пайплан и сразу бы использовал во всех своих генерациях не глядя На самом деле все наоборот. Обычно твой совет настолько тупой, что при наличии твоего воркфлоу и результатов использования совета даже объяснять не нужно, почему совет тупой.
>>1511147 > я же должен 24/7 в треде сидеть А тем не менее сидишь и строчишь изо дня в день эти посты ни о чем, где все кругом пидорасы, а ты дартаньян. Вместо тысячи псевдоинтелектуальных строк, мог бы с первого поста в двух словах ньюфагу объяснить про ancestral семплеры, если считаешь своим величайшим долгом делиться своими знаниями. И нет, кинуть ньюфагу статью на 20 страниц из 2к23 - это не объяснить, так, чтобы вкатун понял.
>>1511200 Естественно. Вот, разгадай и бегом на реддит постить. Detailed grainy film photograph of a teenage girl 14yo holding a small handwritten note that says "Ценный Совет На 2ch 06/02/26". .This photo was captured with Bolex H16
>>1510447 половина людей не сможет поставить тритон без сотни гайдов, а стабили это делает по 1 клику плюс там расширения удобно качать, а не клонировать с гита
Как я понял в Klein Edit можно подключать гирляндой довольно много картинок на вход (сколько?). Вопрос: можно ли подключив гирлянду датасета определенного лица получить что-то хорошее? Как будто лора без самой лоры. Единственное неудобство нужно упомянуть в промпте все эти имага1, имага2... Будет ли такое работать? Кто проверял?
>>1511284 >половина людей не сможет поставить тритон без сотни гайдов. >имангине ебало дегрода, коупящего, что он не единственный, кто не в состоянии скачать давно уже собранные под все что угодно whl.
>>1511589 Можно не ебаться с говном в виде программы а скачать нормальный портабл с питоном, при условии что у тебя куда нужная нормально на сперму встанет
FreeFuse: Multi-Subject LoRA Fusion via Adaptive Token-Level Routing at Test Time https://github.com/yaoliliu/FreeFuse Нода позволяет использовать несколько лор одновременно. И не просто использовать, а объединять этих персонажей в одном кадре с сохранением консистентности каждого. Поддерживает flux и sdxl.
Я подсел на онлайн image to prompt генераторы и теперь задался вопросом - есть ли что-то для локалки? А то с грядущим чебурнетом придётся опять самому промпты писать
>>1511863 Я abliterated версии Qwen3-VL-30B и Gemma3 27B для этого использую, через llama.cpp server и ноды для OpenAI API в комфи. Они мне промпт переписывают и видят референс, если его прикладываю. Каждую генерацию перегенериваю промпт, работает как сид, вариативность генераций ахуенная. Некроту вроде джойкапшенов не рекомендую, оно слишком устарело и плохо промптится в нужный формат. Если нет лишней карты на 24 гига, чтоб параллельно гонять модель, то можно Qwen3-VL-8B попробовать, жить можно с ним.
>>1511931 Да в общем-то если обе модели влазят в ОЗУ, то оверхед туда-обратно модель выгрузить - единицы секунд. А так я первым проходом генерю пачку промтов в txt. Вторым проходом - генерю основу. Третьим проходом - апскейлю. Так только одна модель в памяти, быстрее, и можно параллельно комфортно капчевать.
>>1511928 >вариативность генераций ахуенная Я ещё добавляю немного искажений перед VLLM при помощи Image Random Transform. Столкнулся как-то, что gemma на одной фотографии упорно распознавала кота как пакет, как сид ни ролль. Вот с таким костылём VLLM действительно смотрит на референс каждый раз по разному.
Так что, сравнивал кто нибудь турбу Zimage и Base модель с дистиль лорами? Я потыкал старые гены, вроде бы лучше в вроде бы и нет, вариаций больше теперь. Может для дистилей какие то сэмплеры подходят хорошо, типа res2s или bleh?
>>1509245 (OP) Аноны подскажите. Имеет ли смысл менять 3080 на 3090 для SD? Увижу ли я какую либо сильную разницу? Или лучше сразу начинать смотреть в сторону 50хх линейки?
>>1512011 Нет. Но зашёл в тред, чтобы поделиться тестами Klein 9B base/distil и услышать выводы других об этих вариантах. В целом, ничего другого и не ожидал от того, что получил. Дистил отлично делает фото, сохраняет незатронутые детали почти безупречно, убирает что нужно, не трогает остальное, может заменить человека+позу, пытается в один стиль пиксельарта, некоторые промпты не понимает. База непригодна для фото абсолютно, превращает всё в резину, может сломать анатомию, но при этом, на мудрённых сценах может правильно всё поменять, сохранить рефы (например, сразу и вставить фото в сгенерированный телевизор и обработать это фото через лору); значительно хуже "генерит" по рефу. Единственный случай, когда база не была хуже дистилла - генерация пиксельарта по фото. По фото+арт она так же не выдала ничего сносного. Обе не могут перенести уже довольно популярный стиль по референсу (handpainted textures), серут позорной анимой позорной вместо этого. Ожидаемо, база непригодна для генерации, но чуть лучше слушает промпт, может делать больше, может пригодиться разве что как черновой набросок, когда дистил не может что-то сделать.
ZBase совершенно не тянет скачивать и сравнивать. Воспринимается как sd3 хрома, то есть нужен подход, только говно + без nsfw. Жду файнтюнов.
>>1512033 >Klein 9B distil Все бы хорошо, но почему она так всирает анатомию? При изменении позы у тянки например, она дорисовывает ей целюлит, или другую фигуру вообще. Как добится консистентости при edit? В корп. моделях такой проблемы нет, оно и понятно ведь там параметров в 10 раз выше, но все же.. Еще вопрос, можно ли в Klein 9B distil фейсвап делать полноценный?
>>1512034 Kontext для репоза по фото вообще лору требовал и сосал. Самая аналоговнетная фича - nsfw в полсилы, лишнее убирает, остальное почти не трогает, никакого пердолинга. Не пробовал BFS на klein, на Qwen Edit она иногда что-то выдавала с пердолингом, но внимания не стоит.
Я новичек. Подскажите воркфлоу для оффсета изображения. Ну типа я сгенерировал картинку и хочу расширить по какой либо из сторон и чтоб нейронка дорисовывала в этом месте. Я сделал сам как мог какую то хуйню и там через несколько прогонов работает, чтобы фиксить швы. Но наверное получилась тупая хуйня и есть где то нормальные решения?
>>1512384 Зависит от используемой модели. Ищи workflow для outpaint (это так называется). Последние inpaint/outpaint я ещё на Qwen-Edit делал, поэтому конкретный workflow не смогу подсказать для популярных Z-Image-Turbo или FLUX.2 [klein] . С тех пор нужды не было.
>>1512384 > Я сделал сам как мог какую то хуйню Ну норм сделал, если тебя устраивает. Можешь заменить VAE Encode (for Inpainting) на InpaintModelConditioning и добавить блюра к маске. Инпуты в сабграфе лучше проксиВиджетами наружу отправлять, а не тянуть провода, если на то нет особой необходимости. ПКМ на виджет и там Promote Widget.
>>1512438 >Promote Widget Вот это ценно, спасибо. Мне subgraphs не особо зашли особенно в том виде, как их используют. Когда workflow из TEMPLATES ComfyUI беру, то unpack subgraph это практически первое, что делаю. Такие приёмы оказываются полезны, но в справке ComfyUI про subgraphs я этого не видел. Вообще есть какие-то нормальные источники, где есть подробная информация о подобных tips and tricks? Я больше читать люблю и чтобы кратко и лаконично. Ещё и сохранить, если дельное. Какие-то обрывки встречаю, типа сабреддита /comfyui и других, а также разные comfyui-ориентированные сайты. Но там фрагментарно и подача оставляет желать лучшего. Если ты об этом узнал из какого-нибудь условного видео Top 10 ComfyUI advanced techniques by bloggername, то вопрос снимаю. Может, это лучший формат для демонстрации, но я такие видео не перевариваю и обращаюсь к ним в последнюю очередь.
>>1512565 > Я больше читать люблю > и чтобы кратко и лаконично Конкретно про proxyWidgets я в описаниях к коммиту фронтэнда читал, точнее, когда это еще PR было, потому что оно частично фиксило мое иссью и было туда линкануто. Такой себе способ узнавать tips and tricks. Впрочем, если есть лишние 5 минут в день, никто не мешает пролистать коммиты и первым узнавать про фичи.
>>1513075 Всегда пожалуйста. Если без иронии, правда из метаданных открылось? А то я привык, что здесь от png метаданные режутся, подозревал, что и с webm так же будет. Не особо переживал, потому что есть тред генерации видео, а тут вроде оффтоп бы было. Этот workflow малость поломан конкретно под это видео (не хотелось TTS подключать, чтобы правильную речь сделать; кстати встроенная генерация звука LTX-2 довольно достойная, я вообще не ждал, что хоть как-то справится). Вообще, я чужой workflow утащил, заточенный под lipsync со звуковой дорожкой под музыкальные видео или TTS. Если нужен, могу попозже скинуть. На счёт workflow из TEMPLATES для LTX-2 согласен, он неприятно удивил. Я всегда default workflow рекомендую, а в этом случае, даже не знаю. Зато понятны жалобы на производительность LTX-2. Если диспетчер задач открыть, то видно, то потребление RAM за 70 Гбайт вываливается при offload. Пока мне LTX-2 больше WAN 2.2 нравится, хотя я WAN особенно плотно не использовал.
>>1513400 Нет. Именно по этому я показал дефолт. А те два клоуна, что использовали клип скип от -4 и ниже - нет. Потому что картиночка-то сильно уж меняется у них.
>>1511400 Вообще-то одного лица достаточно, но делать это все придется в несколько шагов. Сначала генерируешь темплейт персонажа с нужной тебе одеждой, затем этому темплейту приделываешь лицо, и теперь это уже рабочий темплейт. Вот его затем можно юзать в референсных картинках. Правда в отличие от лоры результирующий персонаж не каждый раз одинаков, а подчас дажне не узнаваем, но на беглый взгляд норм.
>>1513414 > картиночка-то сильно уж меняется у них По сравнению с чем? Ты думаешь кто-то вбил твой промпт, но от клип скип -4 поменялся текст, а от клип скип -8 еще поменялся еще и пол?
>>1513412 В mp4 тоже сохраняется. Это база кидать файлы из видео-треда в комфи. Хорошее кидай в тот тред. Нормальный вф на t2v, v2v и какие-то особенные фичи вроде кейфреймов и генерации аудио по видео или i2v по аудио не помешают там.
>>1514454 Да, что-то маловато постят одинокую бабу, стоящую по центру изображения. Дело наверняка в нехватке более продвинутых моделей. Один только пан ебаный педобир еще как-то сопротивляется. Видимо, тяга передернуть на лоли настолько непреодолима, что заставляет превозмогать несовершенство доступных генераторов стоящей по центру одинокой бабы.
>>1514454 А что можно генерировать 3 года подряд и ненагенерироваться с этого? Какие бы модели бы сейчас ни вышли, былого интереса они не вернут, хайп прошел, плато хорошего качества достигнуто - дальше только отличное качество, незначительные улучшения. Контент будет сдвигаться в сторону комплексности, но допетрят до этого еще нескоро, а освоят и того позже. Произошла инфляция визуала, народ устал, народ спит. Все, расходимся.
>>1514493 >плато хорошего качества достигнуто хорошее качество это грок допустим, даже без анимации, зетка даже рядом не валялась и по консистентности, и по пониманию концептов. самой заебательской модели на сегодняшний день (у всех свои варианты), до грока как до луны пёхом.
>>1514496 > грок так охуенен, что вместо того, чтобы постить консистентные пикчи в онлайн-дрочилень-треде буду постить шизопосты в локальных-генераций-треде Cute:>)
>>1514508 я это о твоём воображаемом плато-путарана консистентности, которое таки уже достигнуто (если верить твоим словам), и причём достигнуто таким образом, что у генераторов от такой консистентности на пол шестого, возможно это накопленная усталость он всей этой опостылевшой и тупой Эй-ай ебанины, но виной всему, как я считаю именно соевые кастраты, которые насрали в штаны буквально всем, и тем, кто хотел в сиськи-письки, и кто не очень, в итоге отсосали все. жизнь человека (землянина) на 90% состоит из секса, и вырезав эти 90% ты получишь то, что имеешь - абсолютный тупизм и непонимание элементарных, базовых вещей.
>>1514493 Качества в локале никакого нет, качество в онлайновых корпомоделях в комплекте с анальной цензурой. Реальная проблема: онлайн оставил локал настолько далеко позади, что все эти квены, зетки, флукс-клейны и прочее нищеебство на пэка для учебы вызывают только грусть. Единственная модель с открытыми весами, которая хоть как-то сопоставима с онлайном - это Хуньян Имидж 3. По ее системным требованиям можно сделать правдоподобную догадку, сколько жрет модель уровня Сидрим или Бананы. Столько vram в доступных потребителю карточках не-бу-дет. Так что локал можно закрывать.
>>1514524 >в комплекте понимаешь, они хоть и в комплекет, но по утечке видно, что они сами по себе не кастрированные, они знают обо многом, так скажем... чего не скажешь о локалке, спрашивается, кто вас сука за ноги держит и заставляет высерать кастрированный кал неумеющий ни во что сразу. почему вы такие трусливые мрази?
>>1514515 Цензура мешает, но больше мешает принципиальное непонимание, как устроен физический мир. Сиськи-письки в датасет вернуть можно, а модель мира ты туда никак не запихнешь, в архитектуре нет для нее места. По этой же причине и текстовые нейронки - тупиковая ветка технологий.
>>1514529 Один герой умудрился с большим скрипом заставить этот хуньян работать на 5090 32 GB, но хуй знает, сколько у него ram, которая нынче тоже дороговата, и скорость там наверняка была такая, что интерес чисто академический. Для этой модели надо что-то типа H100 или DGX Spark.
>>1514540 >они знают, что мир трёхмерен по крайней мере Не знают.
>что нщё требуется по твоему? Для начала, чтобы на картинках стены не имели невозможную геометрию как здесь: >>1434313 → Самая продвинутая модель в мире не может нарисовать блядские стены и реалистичные пропорции людей относительно помещения, в котором они находятся, и ты спрашиваешь, что еще требуется? Серьезно?
>>1514535 Да, это безусловно так. Под капотом в корпомоделях цензуры практически нет, что положительно влияет на их- общее качество. Они себе это могут позволить, так как есть возможность цензурить промпты и выдачу модели. У разрабов моделей с открытыми весами нет возможности ограничивать пользователя таким образом, поэтому они тупо лоботомируют модели. После системных требований, вторая причина, по которой локал обречен сосать у онлайна.
>>1514628 >если там шиза в промте, то кто виноват в этом по твоему. Это не вопрос, а гнилой пиздёж, что якобы в промпте скиль ишью, хотя промпт ты в глаза не видел.
>>1514665 >и не увижу судя по всему))) Промпт был такой: на первом плане два мужика дерутся в воде по колено, на втором плане лысая баба в той же воде почему-то по щиколотку, машет ногой хуй пойми куда и зачем, вокруг них левитируют набитые мусорные мешки, которые проглядит ебущийся в глаза анон и будет спрашивать, что не устраивает, 8к, мастерписс, RAW фото.
>>1514680 формально почти всё написанное соблюдено. ты не удосужился написать, что вода разлита по всему полу, здание затоплено. в понимании модели вода может быть только в строго отведённых для этого местах: ваннах и бассейнах, (если не описано обратное), если-бы ты промтил ручей, то там бы не было никаких бетонных конструкций. мир нужно описывать, понимаешь? мастерпис 8к кодак 88мм это не описание мира.
>>1514706 На первой только один мужик. На второй баба не по щиколотку в воде, а по колено, и мешки не левитируют, а подвешены на ниточках. Следование промпту — кал.
>>1514742 Да чего мелочиться, лучше просто все это заменить на то, что няшная тяночка одна стоит в центре изображения, и сисечки видно. А то бабу лысую какую-то приплели, мужиков, мешки непонятные, хуй вообще знает, как на такое дрочить.
Я snapshotы снимать стал перед обновлениями, после того, как пару раз сломалось (особенно обновление dependencies). Потом постепенно разобрался что и где может сломаться, и что через -m pip install можно починить. Обновляться есть смысл, если нужна 0-day поддержка актуальных моделей «с пылу с жару» или какие-то критичные bugfix (ну и ещё, когда ComfyUI ноет, что frontend слишком древний; причём, можно только его обновить). В остальных случаях, если у тебя всё работает, и модели и custom nodes, и привычные workflow, то можно сидеть ровно и дегенерировать.
>>1514814 Так-то эту хуйню раз в два-три месяца обновляю, когда выходит что-то что не поддерживается, ну или когда venv по пизде из-за обновы системного петухона идет, тупа лень в контейнер завернуть.
Z-image base стала основой для лор, как и ожидалось или нет? Почему на цивите до сих пор клепают на турбе все, может они не в курсе просто эти слоупоки тупые?
>>1514988 Чем вас всех флюкс первый не устраивает? Прекрасно же рисует все эти хуи в пездах. Некоторые вон вообще на пони реалистик файнтюнах генерят и им норм.
>>1515054 >флюкс первый Надо попробовать. Есть хорошая турбо-лора на него? Универсальная (универсальная тем, что не только клозап генки) nsfw-лора? Может воркфлоу подкинешь с настройками?
>>1515105 >Их вообще много разных. А вот это не очень хорошо. Во времена сдхл тоже было разнообразие и всё время ушло на перебор вариантов. Нужен просто аналог назвиза в новом воплощении.
Покажите хороший менеджер лор для комфи. Что-то хоть примерно сопоставимое с тем удобством, которое было в a11/forge. Хочется наводить курсор на название лоры и видеть справа инфу, примеры свои или автора. а не рыться в огромном списке по папкам, тыкать три раза и потом снова повторять, как это сейчас сделано в Power Lora.
>>1515400 А ты знал, что если рядом с файлом лоры положить свою png картинку с таким же названием как и лора, то в интерфейсе выбора лор (слева в меню комфи) лоры будут с маленькими превьюшками? Так же и с моделями.
Кстати, действительно интересный вопрос по поводу Flux1/Dev/Schnell, а что по поводу качества, производительности и железа для него. То что Flux2 лезет только в топовое железо, это понятно. А тут как ситуация? Еще интересный момент: InvokeAI больше ориентирован на редактирование и вот он, в качестве базовых моделей предлагает скачать SD1.5, SDXL, Flux1 Dev, Zimage. Очень бы хотелось заслушать начальника транспортного цеха флюксовода на топовом ПэКа.
>>1515406 Не подозревал, вкладки Nodes и Models казались бесполезными. Может ещё можно увеличить размер элементов и спаун обычной loramodelonly вместо loadlora или даже прокидка лоры в список powerlora, если поковыряться в коде, тогда почти юзабельно будет.
>>1515465 > а что по поводу качества Сходи в /nf. Там орудует флюксо-шиз и чуть ли не половина "залейте одноклассницу/мамку" пикч - это флекси-слоп под видом реквест фоток. Если дальше превью не открывать, то вроде и не заметно.
>>1515465 Flux1 теперь уже полная хуйня. Klein вроде как мало потребляет и во всём лучше. Я долго хранил все модели, но вот Klein впервые позволил мне удалить flux.dev (включая нунчаку), удалить все qwen edit вместе с лорами. Klein либо сходу, либо с появившимися лорами ебёт все предыдущие юзкейсы. Но я не рассматриваю локалки для таких фич как трансфер поз, лица, перемещения человека на фото, поэтому может какая-то из сотен версия qwen эдита умеет делать это лучше, но я ебал держать эту махину. Мне проще открыть вкладку с бананом и сделать то же бесплатно, в несколько раз быстрей без ебли своей карты. Один хуй у них цензура одинаковая, у бананы даже лучше в этом плане.
>>1515489 ахпхахахахахахах сота блядь Уноси нахуй этот сд 1.5 2.0 кал. Ещё и без опенсорса, без первоочередного фокуса на дистилляции. Из-за одной приписки Qwen опять схавают. Найдешь тред в б, в шапке увидишь что легко генерят на реальной сота модели, а не этой помойке. Это даже до сидрима обоссаного не дотягивает.
>>1515472 Кстати, древние люди в прошлую эпоху еще умели правильно интегрировать инфу в саму лору. Картинку, дескрипшен и кейводы всё в самой лоре. Современный клепатели так уже не делают.
>>1515479 > позволил мне удалить flux.dev (включая нунчаку), удалить все qwen edit вместе с лорами. Ну ты и дурашек. 9b Klein это озалупленный огрызок с поебаной анатомией и консист, в отличие от квена где благодаря большим параметрам там все с этим лучше намного. Просто посмотрел старые генерации едит из квена и новые и кляйна, выкинул нахуй последний и забыл. Лучше тогда уж корпы юзать
>>1515523 Не, я >2, взял третий чужой промпт на пробу - и какая же разница. Я даже не буду другие примеры кидать. Эти черти вообще там охуели такой кал и не выкладывать в опенсорс со всей инфраструктурой в первый же день. >>1515517 Какая анатомия в локальных эдит моделях. Ты там чё, генеришь на них, а не редактируешь? Не занимался такими извращениями после пары траев, оно ещё не готово для такого применения.
>>1515489 Я так понял что у них основной дроч был ну создание консистентых упорядоченных изображений, диаграм, инфорграфик. В общем-то молодцы, они у гугла/гпт в этом сосали. В стили не умеет, практически всегда сваливается в фотореализм. Короче своя ниша, в этом ИТТ как бы и не нужная.
>>1515692 Да, забыл сказать: открываешь TEMPLATES, открываешь оттуда workflow, там будет написано чего надо докачать из моделей и куда их складывать. Для вката сойдёт, а потом, когда разберёшься, уже сам будешь с Hugging Face тянуть то, что тебе будет нужно.
>>1515470 >Расскажите какой сейчас положняк по Эдит-моделям, на которые можно тренить лоры. Flux Klein все что тебе нужно до релиза Z-edit/QwenImage-2
>>1515495 >Но вангую там даже не 20В, а ещё больше. нет, подтвердили что 7b, а значит релиз весов и не за гороми, а иначе нахуя такую маленьку модель тренить было им?
>>1515489 Уровень следования promptу фееричен. Слева FLUX.2 dev, справа, ну понятно. Я был уверен в Qwen, он не подвёл с лулзами. { "scene": "a fantasy setting of a late afternoon fantasy city busy market street with medieval fantasy knights, traders, magical artifacts, the stall with with potions, amulets and trinkets, the middle-aged chubby man exchanges a laptop for a gold bar, striking a deal, blue hour lighting, mildly surprised medieval passersby looking at the laptop", "subjects": [ { "description": "a chubby middle-aged man, wearing a paper bag on his head as a mask with holes for eyes and a smile drawn with a charcoal over the bag, light t-shirt, modern semi-dark bathrobe, decorated with hand-painted neon computer themed icons, modern jeans, slightly worn light modern sneakers", "position": "center foreground", "action": "handles the medieval trader a laptop with a glowing screen with his left hand, takes the gold bar the trader gives him with his right hand", "pose": "standing" }, { "description": "a tall trader in a medieval fantasy outfit, weathered face, grey hair", "position": "left of center foreground", "action": "reverently takes the laptop from the chubby man's hands with his left hand, gives him the gold bar as a payment for the laptop with his right hand", "pose": "standing, slightly leaning forward" } ], "style": "Documentary-style photojournalism with natural authenticity, artistic expression", "lighting": "dramatic lighting, cinematic lighting, late evening, magic warm light lamps illuminating the market stalls", "camera": { "angle": "Eye level", "distance": "Full shot", "lens-mm": 80, "f-number": "f/4", "depth_of_field": "Everything sharp", "focus": "Hyperfocal, near to far" } }
>>1516016 Второй prompt проще и для сравнения слева default workflow Z-Image-Turbo.
A close-up shot depicting a Caucasian man and a Caucasian woman looking at each other. There is a spherical object hovering between them in the centre of the image, left half of the object is Earth, right half is an intricate clockwork mechanism. There is a birch tree with lush leaves in the foreground. Sunny day. Cinematic lighting. Hyperfocal, deep depth of field.
>>1516028 FLUX.2 dev запускается локально. Этот второй Qwen-Image пока только в качестве онлайн демо. Если выпустят в качестве локальной модели, все претензии сразу сниму. За это не надо будет платить и это может лежать просто как ещё одна дополнительная модель с уклоном в «реализм» типа Z-Image-Turbo.
>стиль тоже что-то уродский у обоих Согласен. FLUX.2 dev из коробки такой себе. Его нужно либо тщательно уговаривать с помощью его встроенных фотостилей через JSON-prompts, либо обвешивать LoRAs. Я сначала, на релизе, очень расстроился, пока LoRAми и уговорами не убедил его выдавать что-то похожее на то, что мне бы хотелось видеть. С другой стороны, всё за один проход генерируется.
>>1516340 > Теперь это норма? Всегда норма была. Просто добавляй flux в файлнейм и смехун будет хвалить твои пикчи. Господь свидетель, отличить он не способен.
>>1516342 Не знаю кто там что не мог бы отличить, но я бы реально не удивился, если бы это назвали каким-то фт флакса или krea моделью, типичный уровень 2024-2025.
Как напромтить подушку подложенную под бёдра? зетке неизестен этот концепт. на некоторых сидах она появляется но подкладывается в основном под локти или просто у изголовья.
>>1516389 small pillow under her crotch making her butt stick out > на некоторых сидах она появляется но подкладывается в основном Вангую, что это из-за ног. Как только ноги поднимаются - нужно роллить, чтобы она не переместилась, куда не надо.
>>1516415 >нужно роллить вытянул ноги вдоль лежака, но подушка как появлялась только у локтей так и появляется, отключил все лоры, один хер... написал что это массажная кушетка, на 1-2 шаге подушка появляется, но потом пропадает.
Что по итогу с лорами ZIB, особенно на Turbo? Попробовал несколько обученных на ZIB лор от malcolmrey - на ZIT модели они генерируют результат явно хуже, чем похожие лоры, обученные на ZIT. Повышение веса только портит. ZIB на ZIB не пробовал, ибо даже не качал саму модель. Base годится только для крупных файнтюнеров? Есть инфа, когда ждать результатов от кого-то? Дохуя желающих было и дохуя больных, которые прям ZIT файнтюнили.
>>1516457 Добавь небольшое описание подушки, чтобы модели было за что зацепиться. wide shot, shot from the left side, petite naked young woman laying in a prone position on a wooden chaise longue, there is a small yellow pillow under her crotch making her butt stick out, the scene takes place in a rose garden by the pool, the woman has short curly hair, her head is turned 45° left exposing her adorable smile, her head is resting on a stripped towel, her legs are bent at the knees and her feet pointing straight up
> на 1-2 шаге подушка появляется, но потом пропадает Заметил такую хуйню на ZIT, когда она рогом упирается и после первых шагов убирает что-то с пикчи. Ничего лучше, чем генерить на kl_optimal, а потом разгладить артефакты парой шагов на simple, пока не придумал. Но это так себе вариант, т.к. нужно потом пальцы фиксить, зато изначальный промпт удерживается.
Сап нейрач! В моей поделке встал вопрос о визуале/графике, а мой скилл рисоваки - на уровне подростка самоучки... Очевидно, буду использовать нейронки.
Какие варианты сейчас есть, чтобы сделать своих персонажей? Сделать референсы в каком нибудь 2D/3D-конструкторе и потом прогонять через нейронку? Тут в некоторых случаях всё упирается в ассеты, но фотошопами, думаю, можно выкрутиться, пока хз. Склоняюсь к более простому для меня варианту: использовать существующие Лоры персонажей + Лоры на одежду и через промт немного менять детали (волосы, цвет волос/глаз, детали фигуры и т.п.). Не думаю, что вывезу промтами или тренировку Лор.
Можете так же посоветовать что-то для бекграундов/архитектуры/изометрии? Видел в тредах ± ровную архитектуру/предметы - это вопрос в моделях же? Тут думаю делать референс в какой-нибудь Банане и потом со своей моделью прогонять локально (+ в некоторых случаях использовать инпеинт), чтоб подогнать в один стиль.
В общем, мне хотелось бы сделать несколько постоянных персонажей, чтобы они были не прямой копией существующих. Более-менее приемлемые спрайты/бекграунды в рисованном стиле, которые не придётся чистить вилкой доделывать в ручную месяц. Небольшой опыт в Фордже и немного Комфи. Компуктер 12Gb VRAM, 32Gb RAM. На пикрилах - рандом проба промтов, моделей. Продублирую из соседнего треда. Я походу не в тот тред написал. Моды не стукайти больна если что
>>1516660 >Какие варианты сейчас есть, чтобы сделать своих персонажей? >сделать несколько постоянных персонажей Что такое "сделать персонажей"? Если достаточно того, что на первой картинке, то непонятно, в чем вообще проблема.
>>1516706 Проблема в том, что без Лоры при последующей генерации много деталей меняется (Пик 1, 2). А с Лорой на персонажа и одежду (Пик 3) персонаж сохранился, а в одежде можут уже в одной генерации детали меняться и если в одной позе не критично, то для другого ракурса проблемно. А с Лорой на конкретный концепт персонажа (внешний вид + одежда), я думаю, такого меньше и можно просто ролить, но мне не хочется брать популярных персонажей как бы.
Моё текущее унылое развлечение: кинуть картинку в кучу промптов Кляйн-едит и попив чаю смотреть что там получилось. Кто сейм? Дайте несколько хороших промптов в коллекцию.
>>1516504 подскажи чем победить колхозную ширококостную фактуру? мне нужны худенькие фитноняшечки, но к сожалению все скинни-слайдеры или толком не работают, или руинят персонажа, либо её (ZIT_Skinny_slider_v1.1) добротность сильно ограничена суммой применённых лор, как на пикриле. особенно это сказывается на лежащих фигурах, на стоящих в меньшей степени.
>>1509245 (OP) Не знаю в какой тред лучше, но какая сейчас самая бюджетная сборка пека для локальной генерации картинок в 1024х1024? В основном покемонов фуррей и поней. За моделями не следил последний раз трогал пони хл на хорде давно еще.
>>1516839 > чем победить колхозную ширококостную фактуру? > все скинни-слайдеры или толком не работают, или руинят персонажа Без понятия. Ни разу слайдеры не использовал. Я хз, что для тебя колхоз. У тебя на пике колхоз? Нужно худее? Попробуй anorexic или еще чего.
>>1516824 Все непонятные концепты разбираются одним и тем же способом: просишь qwen сделать реверс промпт. Надо, чтобы text_encoder сам назвал визуальные элементы понятными себе словами. А уж потом подгоняешь это под модель.
> A rustic Russian izba constructed from weathered logs with a thatched roof, featuring small barred windows and wooden shutters, perched atop two enormous chicken legs with sharp talons, layered feathers, and knobby joints.
>>1517118 Повышенный уровень тестостерона. Дает +10 к смывке от древопитеков-каннибалов, инопланетных динозавров-мутантов и кибер-улучшенных некромантов, но причиняет гирсутизм.
>>1517212 Ну так ты мужик. А тут вообще волосня как у кавказца какого-то. Не только на руках, но и по всему телу. На животе, на бедрах...
>>1517213 И чего только не придумают вместо того, чтоб просто написать "Модель облажалась, бывает". Ну или "Я больной ублюдок, мне нравятся очень волосатые женщины".
>>1517468 Интересный факт, если поинтересоваться историями про снежного человека в районах Кавказа и Ср. Азии, то половина историй будет про то, как снежную обезьяну поймали и сделали женой выебли Вот и думай после этого.
>>1516978 >Нужно худее? не на всех лорах персов это можно сделать, у меня почти получается это только с денойзом: 0.9 если ставишь 1 (по умолчанию), то баба-столб с пережаром и широкой дефолтной костью - обеспечена. некоторые юзают ksampler advanced так там даже понизить его нельзя.
>>1516978 >Попробуй anorexic для сдохли была lora, называлась fatless pony-bony, я её юзал буквально с весом: 0.2 и результатом я был доволен. с нормальными весами там действительно получался боди-хорор с анорексией, но в малых дозах эффект был охуительным. получался тонкий мускульный рельеф без халк-анатомии.
>>1517552 на пикриле денойз: 1 вместо 0.9 поза менее естественная, более прямолинейная. но более яркая, с меньшим количеством Z-мха, лора персонажа содержит в своём дата-сете анатомические особенности, и как может сопротивляется колхозу с его жирными ляхами и толстыми неандертальским лодыжками, но такое есть не у всех, в большенстве своём это просто фейс-лоры даже без торса.
>>1517648 >настройки какие там нахуй настройки? всё стандартно, всего 3 лоры: перс, мускул-слайдер, худоба-слайдер, всё... тебе всё разжевать надо да? что-б всё готовенькое? да, вот хуй тебе, я не твоя мамаша, сам грызи... сам сочиняй свой поридж-промт, может хоть мысли излагать научишься самостоятельно без своей ллм-ки тупорылой.
>>1516757 Не думал что Флюкс заведётся у меня, ещё и без пердолинга с Гитами и прочим, а тут прям из коробки, просто скачал - запустил.
Когда получались мутации, у меня пролетела мысль о том, как буду в инпеинте возиться, но...НО! Потом просто закинул результат обратно и написал: "тут три ноги, оставь две" - и оно получилося О_О
>>1516836 Это одинаковые блоки с разными промтами? Разве Флюкс/Квен не зацензурены? Как ты так сделал? Как делоть сисик/писик друг спрашиваетхе-хе Попробовал через Multiplie Imput - он у меня просто одну картинку на другую накладывает.
>>1517596 9b что-то не качает, логин просит. Да и места уже не будет наверное.
Можете, пожалуйста, ещё подсказать кнопку "сделать красиво" как лучше апскейлить/детализировать? Для этого нужны другие модели? Или можно добавить ноды? Или мне проще будет в Фордже использовать Hires. fix/апскейлить i2i?
>>1517552 Я смотрю, ты ценитель лор. Не встречал нормальную general-purpose nsfw лору для ZIT? > некоторые юзают ksampler advanced так там даже понизить его нельзя SamplerCustom в помощь, если не хочешь шагами денойз выставлять.
>>1517842 Всё что я видел, это попытка вкорячить поневские концепты в дата-сет файнтюнов а-ля васян-эдишн на основе турбы, с ужасающими для модели последствиями. Я думаю, что выйдет рано или поздно. Один хер у турбы нет конкурентов.
>>1517921 > попытка вкорячить поневские концепты в дата-сет Да тут хотя бы просто соски нормальные и письку на 1гирл стэндинг. Шесть триллионов лор от sarahpeterson на каждый чих, и ни одной лоры на анатомически правильную промежность, которая не ломала бы весь промптинг к хуям. На квен хотя бы Snofs есть, который большинство стандартных поз знает и не ломает понимание промпта, а на ZIT пиздец какой-то.
>>1509245 (OP) Бля, пацаны, меня расстраивает тенденция - выходит модель, ее никто не может переобучить и расцензурить и в итоге модель умирает. Сука меня заебало сидеть на noobxl, но банально нет альтернатив. Zimage очень хорошо рисует фотореализм, но если речь заходит за соски и пизду с очком, все там никак, никакими лорами не пробиться. Хотя есть лора для сосков неплохая и даже раз в 10 генераций нормально получается, но сука когда уже без костылей будет модель полностью анцензуренная? Когда уже будет арт модель? Какието новости по поводу данных проблем есть? Где почитать? Люди пытаются или хуй забили?
>>1517665 >Это чисто промтом? Да. Сначала приседает, взгляд направлен вверх в задумчивой позе, динамичная перспектива снизу, затем Естественная (живая) фотография на основе изображения-референса. Она сохраняет ту же позу и выражение лица, что и на оригинальной фотографии. Фон и освещение остаются без изменений. Реалистичная зернистость пленки, детализированные текстуры. >Это одинаковые блоки с разными промтами? Да. Некоторые с двумя входами (сиськи прилеплять с рефа image2, лол)) >Как ты так сделал? Моим гениальным промптом (спасибо Грок!) exact girl from image1, but the bare breasts from image2. No cloth from image2 only bare breasts with nipples and areola. Overall image quality is the same as in image1 И лора NSFW-klein.safetensors возможно я её переименовал и как она называлась хз. Проси ллм тебе помочь с промптами. Указывай модель Flux2.Klein Edit и проси промпт. ----- Еще вот попытка править анатомию(шестипалость) : Anatomically correct human figure. Correct deformities: centered symmetric pupils; natural, even teeth with proper occlusion (if visible) — do not force a smile; correct number of fingers/toes (five each) with realistic joints and spacing; no extra limbs or toes; single pair of legs; properly shaped symmetric ribcage; proportionate head (≈1/8 body height). Accurate muscle and bone landmarks, correct joint placement (shoulders, elbows, wrists, hips, knees, ankles). Natural hand poses, high anatomical fidelity, photorealistic detail, avoid deformities, no extra digits, no fused or missing fingers, no warped facial features. Preserve original pose, expression, and clothing.
но как я понял это плохо работает так как енкодер не поддерживает условия - if. Например "если на фото мужчина то добавь красную кепку, если женщина то добавь синюю кепку." - очень рандомно работает так как надо распознать картинку м или ж и снова послать в энкодер уже безусловный промпт. К сожалению, что-то отдаленное от дефолта, здесь не хотят обсуждать и разбираться. На реддит тоже хрень по дефолту. Будут вопросы пиши - может быть отвечу.
>>1517932 >На квен хотя бы Snofs На флюкс вроде бы тоже что-то появилось, причём вот только-только, хотя флюксу уже 100 лет в обед. Я думаю, что на основе этой квеновской залупы тоже можно что-то собрать.
Ахахахаха. Как давно я этого ждал. Даже дефолтные StringReplace и CLIPTextEncode поломались в 1.40.1 фронтэнде. Неужели No Explicit Any даже core ноды умудрилось поломать.
>>1517665 >Это локально или как? Нет, это онлайн: GPT Image 1.5, Seedream 4.5, Nano Banana Pro. Картинки без обнаженки тебе онлайн модели сделают проще и лучше. Пердолиться с локалом есть смысл, только если необходимы сиськи-письки.
>>1515581 пытался на L40, нихуя так и не получилось. вроде по инструкции этого пидора с гитхаба. ошибки скармливал gemini, пару часов проебался и нихуя.
>>1518073 >Пердолиться с локалом есть смысл, только если необходимы сиськи-письки. Заниматься с локалом имеет смысл, если необходимо всё и сразу. Пердолиться с онлайн-генераторами в свою очередь имеет смысл, если пользователь имбецил.
>>1518178 >Заниматься с локалом имеет смысл, если необходимо всё и сразу. Достаточно прокрутить тред вверх, чтобы найти наглядные примеры твоего "всё и сразу" и убедиться в том, что оно делится на две категории: 1) изображения, которые sota онлайн модель сделает лучше и с меньшим пердолингом; 2) оголтелое кумерство.
Что происходит с Хромой сейчас? Полностью заглохла или автор пытается что-то еще с ней делать? Мне она нравится из-за стилистического разнообразия, но базовая зетка лучше.
>>1518301 Прямо сейчас он учит три новых сетки: Chroma1-Radiance со своим нескучным VAE, Chroma2-Kaleidoscope на базе кляйна 4б и Zeta-Chroma на ZIB. ВСе в зачаточном состоянии. > но базовая зетка лучше По консистентности конечно лучше. Но есть стили которые в хроме лучше, чем в ZIB. Те же скриншоты игор. Есть сложные ракурсы и планы которые хромка хоть и с искажениями но рисует. Короче за ним всё ещё имеет смысл следить, если тебе интересны стили и nsfw
>>1518406 >Radiance со своим нескучным VAE Да что вы дрочитесь с этой хуйнёй как будто это какое-то чудо. Ну, пизда, не нужно декод делать, микропиксели теперь будут точно как задуманы, вот это событие. Уже сто лет как vae почти не дают шума даже на I2V, а уж на обычную генерацию совсем похуй. Лучше бы этот долбоеб что-то сделал с тем, что у него модель соревнуется по генерации мутантов с сд3. Но только если сд3 делала это по-крупному, то хрома делает мутации среднего масштаба вроде искажения анатомии, пальцев, плохих кистей и ступней. С макро уровнем у хромы заебись, ей нахуй не сдалась та vae-оптимизация. И что более примечательно на этой радианс параше он только сломал модель, она выдает срань на настройках, которые нормально генерили на обычной. Больше всего раздражает, что никто об этом не пишет, даже наоборот только хвалят, а поэтому решения не будет. Вся галерея в резиновом пидорском кале. Я не говорю, что на ней нельзя генерить хорошее photo nsfw, но это делать сложней чем могло было быть.
>>1518406 > со своим нескучным VAE У радианса нет VAE, там голые пиксели в модель подаются. Вообще этот мамкин экспериментатор заебал уже. Тренит бесполезный поломаный кал, вместо того чтобы сделать как положено, как все делают. В Хроме шифт забыл и проебал семплинг, радианс вообще топ кек, в калейдоскопе специально проигнорил нормальную модель и взял кривой огрызок.
Новая модель DeepGen 1.0: A Lightweight Unified Multimodal Model for Advancing Image Generation and Editing with only 5B parameters (3B VLM + 2B DiT). https://huggingface.co/deepgenteam/DeepGen-1.0
>>1518090 Чем полировал (апскейлил)? Я вообще не знаю как в лапше это делать, + я смотрю ты лору сосков какую-то заюзал, подскаажи какую именно, я пробовал парочку, но они руинили перса. Я честно говоря устал от борьбы со мхом, хотелось-бы какое-нибудь не сильно замороченное решение.
>>1518711 > (апскейлил)? Yep. > не знаю как в лапше это делать Обычный ksampler с денойзом 0.32 и tile controlnet, который Z-Image-Turbo-Fun-Controlnet-Tile-2.1-lite-2601-8steps. Если хоть по одному из высоты/ширины пикча получается больше 2048, то нужно еще на тайлы бить чем-то типа TiledDiffusion или USDU, но они model_patch конторлнеты не поддерживают, поэтому денойза особо не насыпать. Вообще какой-то пиздец с ней, будто какой-то какой-то хард лимит на 2048, если больше - края по пизде идут. Даже сдохля в 8К может с контролнетом, а у этой сразу артефакты лезут. > лору сосков какую-то заюзал Да хуй там был. Лора есть - ZITnsfwLoRAv2, но она почти ничем не лучше голой модели, особенно на мелких деталях. Соски и писка - обычный инпейнт. После пары дней с ZIT я понял, что проще в сабраф инпейнта добавить сдохлю на свиче, чем пытаться что-то NSFW фиксить на z-image.
Как добится такого же разнообразия в зетке или кляйне как в Grok image? Заметил что чем меньше промпт там тем больше простора для разных ракурсов, действий и прочего. Но вот на лоКАЛках совсем не так, она будет просто срать одним и тем же не смотря на сид. Может просто грок делает промпт энчанс и дописывает просто туда всякого за капотом?
>>1518830 Это другое - то кондишн тайлится. А я про то, что сам латент (а может и не латент, а что-то другое, с тайловой диффузией всё тоже в одном латенте, просто он диффузится тайлами) херится почему-то. На пик2 - обычный апскейл - правая сторона вся в артефактах (денойз 0.5). Пик3 - тайловая диффузия (денойз 0.32, т.к. нет возможности контролнетом удержать содержимое на тайлах, как выше написал). У этой >>1518711 девки также правая нога всралась, а левая нормальная, т.к. она в пределах 2048 пикселей, считая с левого края.
>>1518970 Так в базе ( с лайтинг лорой и без) тоже самое, может чуть меньше. И наверное все таки проблема больше фундаментальная, не столько в разнообразии, а в знаниях и кол-ва параметров (мозгов) у локалок
>>1518985 По моим наблюдениям база зетки на порядок вариативнее турбо. Я ее даже для генерации случайных оригинальных лиц стал использовать вместо sd1.5, как раньше.
>>1519214 >оригинальных лиц A high-detail, close-up headshot of three distinct young women posing closely together for a selfie in a vibrant nightclub. From left to right: (1) a girl with soft heart-shaped face, almond-shaped hazel eyes, and full lips with a subtle cupid's bow; (2) a girl with an oval face, high cheekbones, deep brown eyes, and a slightly wider smile showing a hint of dimples; (3) a girl with a square jawline, striking green eyes, arched eyebrows, and naturally plump lips. All three have radiant olive complexions with flawless skin and a soft party glow, laughing and pouting with high-fashion makeup—dramatic winged eyeliner in varying thicknesses, glossy lips in different shades of berry and mauve. Background: neon purple and blue laser lights, moving silhouettes, glowing bar. Atmospheric haze, sharp reflections on layered gold jewelry. Photorealistic, natural skin texture with individual pores and subtle imperfections. Shot on iPhone 15 Pro, 24mm lens, f/1.8, Night Mode, computational bokeh.
Вопрос к специалистам. Давно не лазал на пинтересте и наткнулся на тату дизайны ебанутого качества, очевидно созданные нейросеткой. Вот 2 примера закину сюда (пик 1-2). Я тоже давненько увлекаюсь нейросетками как генерация идей, но в плане коллажирования они выдают у меня какое-то говно. То есть грубо говоря на пике 1 есть рыцарь, у него на груди крест, снизу какой-то замок и всё это пиздец как идеально скомпановано. Я когда задаю несколько объектов со своими Lora которые сам обучал по гайдам получаю в 90% случаев результаты уровня пик 3-4. Версия SD 1.5 у меня. Что я делаю не так? Это более новые версии SD так научились делать? Или если это просто Lora для 1.5 версии, их можно как-то найти по имеющимся изображениям?
Уже давно вышли нормальные модели, любая едит модель может легко натянуть дизайн на руку по референсу (Klein4b-9b, qwen-image-edit), или сгенерировать по запросу (z-image-turbo/base)
>>1519593 >>1519596 Хорошо, чатгпт мне тоже говорит что такого коллажирования на 1.5 не добиться. Подскажите в каком направлении тогда копать, это SDXL? И в новых версиях там тоже Lora или уже по другому обучается сетка?
>>1519536 >на пике 1 есть рыцарь, у него на груди крест, снизу какой-то замок и всё это пиздец как идеально скомпановано. А как по мне - ничего особенного. Типичный нейрослоп и галюны нейросети.
С татухами можешь гемини того же спрашивать. Или ГПТ. Они поддерживают ввод картинок, скармливаешь скетчи или просто объекты, просишь разработать дизайн татуировки из входных данных. Но можно и текстом целиком запросить. Для локального варианта тоже есть модели. Но они тупее будут.
>>1519649 >А как по мне - ничего особенного. Типичный нейрослоп и галюны нейросети. Не все татуировщики даже с опытом 10+ лет могут создавать коллажи такого уровня. Тут опять же только 2 примера, но вот ещё. У скелета цилиндр сидит ровно на башке, рука с нормальным разворотом и пропорциями и ещё и молния в неё бьет. Или череп как четко на часах сидит. Видно конечно, что это нейронка, но на столько круто она не умела делать буквально до недавнего времени, я слежу за этим плюс сам рисую уже около 20 лет, я понимаю о чем говорю. >>1519649 >С татухами можешь гемини того же спрашивать. Или ГПТ. Они поддерживают ввод картинок, скармливаешь скетчи или просто объекты, просишь разработать дизайн татуировки из входных данных. Но можно и текстом целиком запросить. И они будут в одном стиле раз за разом фигачить картинки учитывая композиционный порядок? Прям сильно в этом сомневаюсь, тут выглядит слишком в едином стиле будто это определенная лора или модель >даже SDXL генерит лучше чем 1.5 Генерит то может и лучше, но мне надо не "лучше" а прям в яблочко >Тебе же написали: зависит от твоего железа У меня 9950x + 4070 super от msi на 12гб. А что он написал, я честно говоря вообще не понял. Этот анон писал про "натянуть дизайн на руку" - это вообще похуй + похуй. А сгенерировать по запросу - что такое z-image-turbo base?
>>1519781 > Не все татуировщики даже с опытом 10+ лет могут создавать коллажи такого уровня. Даже не только лишь все, но никто из них не сможет набить куриный палец за пределами руки.
>>1519791 Это вообще хуйня, композиция коллажа вообще не так определяется по уровню проработки. Здесь например пчела очень круто вписана как к банке, так и к головному убору. Они не выглядят отдельно друг от друга, всё очень цельное
>>1519809 Композиция коллажа охуенна, безусловно. Жена татуировщика со стажем 40 лет не даст соврать. Но как куриный палец набили на воздух, и как он там держится? Это какие-то трюки от опытных татуировщиков со стажем, которые следят за этим и сами рисуют уже 20 лет? Если это секрет фирмы, можешь не разглашать.
>>1519781 >что такое z-image-turbo/ z-image-base Это модель. Она генерирует по запросу. К ней есть Лоры.
>Flux2 Klein 4b/ Flux2 Klein 9b >Qwen/ Qwen-Image/ Qwen-Edit Эти модели еще умеют в редактирование изображений. Даешь фотку руки и картинку тату - она их совмещает. Вот на эти модели и смотри.
>>1519939 >>1520033 Мне и не надо татухи генерировать, меня именно дизайны интересуют, но всё равно спасибо за советы, крайне благодарен. В целом меня ожидает погружение в sdxl и создание собственных лор
>>1517873 >>1518139 Был акк оказывается, походу просто разлогинилось. 9b генерит в 2 раза дольше - естественно. Ощущается "мощнее". Мб текстовый - энкодер решает.
Всё же 5 минут на ожидание почти рандомного результата (пик 2, 3 "doggy style" если что. Просто раздеть получилось, но цвет кожи поменял полностью) + мой skill issue - это такая попаболь, что, думаю, можно сгенерировать персонажа по промту, сделать правки, потом edit моделью собрать дата сет и попытаться натренировать Лору. Хз. Ну или тупо подставлять голову/детали edit моделью. Тут время не так важно, главное результат.
>>1518003 Спасибо за гайд! NSFW лору только на 9b нашёл. Для 4b только NippleDiffusion. У тебя для 4b? Если да, то есть ссылка?
>>1518073 В чебурнет верится больше, чем в сингулярность :d Если есть возможность пользоваться локально - лишним не будет.
Теперь пердолиться с нодами. Ладно сообразил закинуть пик со страницы лоры, чтоб велосипед воркфлоу не изобретать. С Upscale тоже вроде разобрался.
>>1519781 Ну скелет вот нормальный. Нож кривой в хлам. Часы очень средние. И везде галюны, посторонние объекты, нейромусор всякий... >И они будут в одном стиле раз за разом фигачить картинки учитывая композиционный порядок? Как напишешь, так и скомбинируют. Это гибкий инструмент, у него хорошее понимание промпта, он не только на рандом полагается. Стилистика тоже задается.
>>1518968 >в пределах 2048 пикселей ценное наблюдение, спасибо. >>1519426 с ней очень мало материала, а то что есть с большими угловыми искажениями, из-за чего она выглядит как головастик (была лора на пони, где это прям бросалось в глаза). на indexxx с ней ничего нет, только 2 ролика amature allure и фотосет от туда же. откуда ты надыбал дата-сет?
Подскажите что сейчас актуально для NSFW с разрешением 2048x2048 и с хорошей детализацией без пластика. Может что на основе FLUX.2 [dev] есть? Или еще что хорошего..
>>1520402 ну так я про это и писал выше. Это даже не файнтюн как таковой, может вмерджили пару лор. Их киллер-фича это системный промпт, написанный кем-то из ИИ (выше скрин). И, хоба - сойджек волна новой SOTA запущена.
>>1520345 Я FLUX.2 dev пользуюсь, но не для NSFW. Сама по себе это очень соевая модель. На CivitAI NSFW LoRAs для неё вроде не попадались. Вообще на неё LoRAs очень мало. Если тебе кумерство нужно, тебе лучше на CivitAI поискать NSFW workflow для старой SD с NSFW checkpointом с SEGS выделением сегментов для inpaint гениталий и прочего, tiled diffusion с ControlNet (типа xinsir из workflow на tiled diffusion ControlNet upscale 4x), для разбиения изображения на тайлы и diffusion каждого тайла по отдельности с низким denoise, так как если в высоком разрешении загонять, SD не справится. А ещё этот подход подмешивает мерзкий цветовой оттенок и уводит исходные цвета, с этим тоже нужно дополнительно заниматься.
Первый проход делаешь а FLUX.2 dev, получая композицию и основные детали. А NSFW врисовываешь уже с помощью какого-нибудь NSFW-тюна SD. Я с SEGS только workflow смотрел, сам не пробовал. Без надобности. А вот tiled diffusion с ControlNet пробовал, но результат не впечатлил. Всё равно влияет на исходные мелкие детали. Если кроме тебя исходное изображение никто не видел, то хорошо.
Для SFW хвататет одного прохода FLUX.2 dev на 28 шагах (хотя в default workflow — 20). Если всё-таки хочется докрутить на низком denoise через img2img, то берёшь узел SplitSigmasDenoise, подключаешь его в разрез после Flux2Scheduler, а выход low подкидываешь на вход sigmas в узел SamplerCustomAdvanced. Такой бюджетный рефайнер.
>>1520228 Чел, окстись, у тебя пердолинг ради пердолинга, который на качество итогового результата влияет примерно нихуя. Если хочется часами ебать себе мозги вместо создания картинок, можно с тем же успехом вообще забить на нейронки и стать рисобакой.
>>1520875 > у тебя пердолинг ради пердолинга > часами ебать себе мозги вместо создания картинок Как ты себе это представляешь? Типа сгенерил картинку, сохранил. Переключил на вкладку имг2имг, кинул картинку, выставил за час параметры, проапскейлил, сохранил. Переключился на вкладку инпейнт, выставил за полтора часа параметры, заинпейнти, сохранил. Думаешь это так делается? Комфи - это не а1111 и не фокус. Вся процедура делается за пару минут тремя нажатиями в одном воркфлоу, где все параметры на лету рассчитываются внутри сабграфов. Вместо того, чтобы четвертый год про рисобак один и тот же пост писать и жаловаться на сложность локальных генераций, лучше бы сам сгенерил что-нибудь, ей-богу.
>>1521149 я просто неправильно тебя понял) я думал, что ты тот, который мне делал лору на Ka55andr'у, вот она: https://www.indexxx.com/m/kassandra-a там около десятка сетов, выбери то, что тебе больше понравится. Кстати с ней есть и хард, но это опционально) Пока аплодится, скорость черепашья, завтра выложу ссылку на гуглдрайв, размер - чуть больше гига.
>>1516824 > избушку на курьих ножках > нихуя толкового не получается > flux2 Это было непросто, но я раскопал с файлопомойки почти трехлетние генерации на deliberate11.
Как это правильно сделать, он нужен от случая к случаю, а так почём зря отжирает нехило так память. На какие педали жать, чтобы его замьютить на время (не сносить)?
>>1522137 Я понятия не имею, что там ставится в батнике. Если там обычный менеджер, то зайди в ComfyUI/custom_nodes/ и перемести папку comfyui-manager на рабочий стол, например, а когда нужен будет - перемещай обратно.
Временно отключить manager
Аноним15/02/26 Вск 20:41:54№1522272452
>>1522272 Никак. Кастом ноды отключаются менеджером, сам себя он отключить не может. Если тебе позарез нужно его отключить, единственный вариант - убрать его папку из custom_nodes и закомментить строку в твоем бантике, которая его ставит.
ребят, всем добра. вопрос - сильно ли это отличается от webui (или че там в другом треде за софтина, вроде в anime diffusion нашел) и чем? я там пользуюсь модельками типа cyberrealisticpony - и вродь норм все. в чем отличие конкретно этой софтины, и что она умеет что не умеет та в плане генерации картиночек?
если что, вопрос в контексте моего железа - 3070 и 32 гига озу.
>>1522549 Буду краток. Да. Это отличается от того сильно. То умеет то, что в него добавили разработчики, а это умеет то, на что у пользователя хватит фантазии.
>я там пользуюсь модельками типа cyberrealisticpony - и вродь норм все
Так пользовался бы дальше, если тебя результат устраивает.
>что она умеет что не умеет
ComfyUI это оболочка для запуска актуальных моделей (тех, которые имеют поддержку в ComfyUI) для генерации изображений, звука, видео и не только. Workflow позволяет получить на выходе требуемый результат и, по сути, представляет собой скорее мини-программу Node graph, нежели обычное приложение с меню и диалоговыми окнами. Примерный вид workflow представлен на пикрилейтед.
К преимуществам относится поддержка актуальных моделей, гибкость в прототипировании и изменении workflow для достижения различных результатов. То, чего нет и не будет в приложениях, где все параметры меню, сами меню, порядок обработки строго фиксированы.
Обратной стороной является необходимость изучения функционала базовых (а потом и Custom Nodes) узлов и принципов построения workflows под различные задачи. Это требует знакомства с интерфейсом ComfyUI, а также разбора чужих типовых workflow на начальных этапах, так как некоторые моменты могут быть неочевидны (особенно тем, кто пользовался генераторами с одной кнопкой). При этом с точки зрения документации и help подразумевается, что пользователь уже знаком с основами pipeline для генерации (например, знает что такое и зачем узлы CLIP Text Encode, VAE Encode/Decode, KSampler, разные Samplers/Schedulers и прочее) и в целом знает, что делает.
Вообще, ничего страшного для вката нет. Если тебе это действительно нужно и ты этим займёшься, то от нажатия кнопки Run в чужих workflow без малейшего понимания происходящего, до построения собственных workflow с Custom Nodes, вычислениями, ветвлениями, списками тебя будут отделять пара месяцев. (Сроки приблизительные. Всё зависит от твоего background и элементарных знаний в этой области. Может как многократно ускорить процесс, так и оказаться «китайской грамотой», особенно, если тебе не нужно ничего кроме однокнопочной генерации и ты не хочешь во всё это даже минимально вникать).
>>1522610 хуя, хорошо обьяснил - доходчиво. да, я работал несколько лет в блендере, в т.ч. с материалами, так что примерно понял что грамотная и творческая работа с нодами может в теории дать в таком контексте.
>>1522610 >подразумевается, что пользователь уже знаком с основами pipeline для генерации На самом деле ничего такого не подразумевается - просто ставишь портабле и оно работает. Только тут в треде этого не признают, опасаясь истерики местного психопата, на которого в детстве часто падали черные ящики.
>>1522622 >На самом деле ничего такого не подразумевается
Не согласен. Я специально написал об этом, так как https://docs.comfy.org/ и конкретно https://docs.comfy.org/get_started/first_generationhttps://docs.comfy.org/development/core-concepts/workflow нормально не сказано про то, почему так расставлены базовые узлы и в каком порядке они должны следовать. Не написано что такое latent, какие бывают Samplers/Schedulers и на что они влияют. Что такое conditioning, чем checkpoint отличаются от отдельных загрузчиков моделей, что такое и зачем VAE и text encoders, на что влияет CFG и так далее. Для тех, кто всё это знал со времён SD и прочего, это очевидные моменты, не требующие пояснений. Для вкатунов, которые перешли с кнопки Generate и не слышали о подобном, это неприятная встреча прямо на старте, которая может снизить желание разбираться дальше.
Я не могу судить о том, должно это быть в документации или нет, потому что для целевой аудитории ComfyUI это всё подразумевается как самоочевидное. Кроме того для разных моделей будут разные узлы, например Sampler Custom Advanced с sigmas, вместо KSampler, поэтому информация не будет универсальной. И ещё раз повторю то, что писал выше: на вкате запустить чужой workflow кнопкой Run можно. Понять вкатуну с околонулевыми знаниями как осмысленно строить свой собственный workflow — нет.
>>1522648 > какие бывают Samplers/Schedulers и на что они влияют. > чем checkpoint отличаются от отдельных загрузчиков моделей, > на что влияет CFG и так далее. Вкатуну нахуй не надо.
> Не написано что такое latent, Что такое conditioning, что такое и зачем VAE и text encoders Это настолько примитивные базовые концепции что их любая сеточка тебе сегодня на пальцах разжуёт, да хоть нарисует.
>>1522724 > изображение.png Долбаёб какой-то рисовал пикчу. Сама модель в диффузии не денойзит, она предсказывает шум. Это семплер уже потом на основе предсказанного шума пытается вычесть его из пикчи и сделать деноизинг.
>>1522648 >запустить чужой workflow кнопкой Run можно. Понять вкатуну с околонулевыми знаниями как осмысленно строить свой собственный workflow — нет. А вам генерировать или разбираться? Если генерировать, то даже встроенных шаблонов в Комфи хватит на это. А если разбираться, то мы уже несколько лет разбираемся и всегда что-то новое находим. Ты почему то думаешь, что люди по умолчанию, как и ты, пришли копаться в проводах. А я думаю, что большая часть пришли жать кнопку Run. И вот это надо первое у них спрашивать.
>>1522648 свой воркфлоу на самом деле достаточно просто построить. в основе любого воркфлоу лежит сама генерация, а расширяешь в основном оптимизациями или улучшениями удобства настройки генерации. >>1522750
Все так, для начала всегда хватает шаблонов и кнопочки ран. а потом когда плотно разберешься с конкретной моделью - то начинаешь обвешивать свистоперделки всякие в процесс.
>>1515400 просто несколько букв из названия нужной лоры вводишь и все, нахуя какие-то превьюшки-хуюшки, ты че скачал гигапак лор на случай отключения интернета и без понятия что каждая из них делает?
Протестируйте моё изобретение для Z Image Turbo. Воркфлоу во второй картинке (webp). 1 дофолт. 2 моё. 3 слева девять картинок дофолта, справа моё. 4 суть идеи. ------------------ Мои выводы. Меньше плесени, правильнее пальцы и другое, разнообразнее сюжет, правильная передача запрашиваемого возраста. ------------------ Что скажите?
>>1522889 >Что скажите? допустим ты сформировал сид на ddm, чем он хорош? да, он неплохо формирует сцену, но дальше нахуя дробить, если не меняется семплер, это абсолютно бесполезное действие.
>>1520043 чел, sdxl это говно мамонта, которое не умеет в позиционирование объектов и в целом нихуя не умеет. тебе нужна либо z image либо flux 2 klein 9b
>>1522907 >целом нихуя не умеет согласен, а тем более в тату, я перебрал несколько лор с якобы заточенностью на татухи, сказать что это кал - ни сказать ничего. я даже скажу, что вообще без лор на импаинте получается лучше нежели с ними.
>>1522909 >что-то дает? Жаль, что ответа мы так и не услышим) По идее, если ты открыс свою эврику, то будь добр псравнить 2 картинки: 1-я с твоим лайфхаком, вторая без него (всмысле ddm - 1 шаг, и остальные с дефолтным без дробления). Вот тогда всё бет понятно и ясно.
>>1522895 >>1522901 >>1522909 Вы можете запустить воркфлоу со своим промптом и ГЛАЗАМИ посмотреть что получается и ТОЛЬКО ТОГДА что-то сказать о результате ГЕНЕРАЦИИ? Зачем вы мне это сейчас пишете о моих скриншотах? Воспринимайте субграф как черный ящик. Не смотрите что в нем, если иначе у вас не получается нажать Ран.
Мне лень прям щас, потому что занят попытками чтонибудь выдоить из ZIB, поэтому и спросил. Конечно с токсиками ты щас наобщаешься, но это нормально для рунета.
>>1522889 ты ведь понимаешь, что твой колхоз с 1 степом не делает ровным счетом нихуя? только кэш забиваешь в хламину, т.к. он хранится свой для каждого семплера >>1522923 > Воспринимайте субграф как черный ящик так это для тебя ноды это черный ящик, чел, не морочь голову хуетой.
>>1522926 Я тебе одно скажу, у ксемплера (эдвансед) нельзя понижать денойз, он там гвоздями прибит на еденице, а на еденице как правило всегда получается унылое говно, да оно слепо (в основном) следует промту, но выхлоп традиционно убог (баба столб - руки по швам). у обычного это сделать можно, но нельзя дробить шаги.
>>1522952 ну это бессмысленно, ты передаёшь из одного семплера в другой совершенно одинаковый набор параметров, и типа в сумме это должно что-то коренным образом поменять. это просто глупо.
>>1522960 >это просто глупо Нет, чел, это работает и хорошо работает. Возможно это экспойт какого-то бага семплера мультистеп и др, так как на многих других нет такого.
>>1522952 ddm хорош в живописи, где нужно показать крупные объёмные мазки или типа того. я х.з как он может тебе помочь в формировании сцены всего на одном шаге, чтобы он там не нарисовал будет похерено под грудой случайного хлама при передаче из одного в другой.
>>1522941 > да оно слепо (в основном) следует промту, но выхлоп традиционно убог (баба столб - руки по швам) попробуй использовать более детальный промпт чем 1girl standing, возможно в этом причина
>>1522972 по идее если каждый шаг подмешивать шум, то это будет больше шума чем семплер успевает снять за шаг, то есть к концу там вообще пиздец будет, обратная генерация емае
>>1522750 >Ты почему то думаешь, что люди по умолчанию, как и ты, пришли копаться в проводах.
Налицо классический пример лукавства. И соломенное чучело.
>А вам генерировать или разбираться?
Повторю: как одно возможно без другого? Стандартные workflow близко не дают того качества выходного изображения, которое позволяют получить комбинация нескольких моделей, img2img refine проходы на низком denoise, inpaint и так далее. И вы сами точно не на default workflow сидите. За всё время я не видел, чтобы на CivitAI, reddit или где-то ещё годные рабочие workflow (а не вводящий в заблуждение мусор) со всеми этими фишками раздавали и в карманы запихивали (к слову, годные workflow для изучения всё же встречались, но скорее как исключение; их авторам благодарность, много из них почерпнул). Про этот тред я вообще не говорю. Наоборот, жёсткий gatekeeping, а информацию о действительно работающих способах повышения качества изображения приходится собирать по крупицам. И без соответствующих знаний в default workflow эти редкие находки не интегрировать.
>>1522994 > img2img refine проходы на низком denoise, inpaint и так далее да это все базовая элементарная для понимания хуйня. а вот такое ты видел когда-нибудь?
civitai и годные воркфлоу это антонимы, там постят в основном отбитые на голову дауны.
>>1522994 >вводящий в заблуждение мусор Твоя проблема в том, что ты ищешь научно обоснованные ворфлоу. С четким подключением по документам в 50 страниц. Иногда шедевры рисуют кистью для побелки. Ты ее никогда в руки не возьмешь - ее нет в инструкции к картине. Я серьезно тебе пишу. Подумай.
>>1523088 прикинь, а вот ещё: после кфг: 1.2 начинает работать негатив (если ты его не занулил), не сильно конечно, буквально 2-3 тега можно занегативить если припрёт. как тебе такое? ты наверно сегодня хуй уснёшь, я чувствую...)
>>1523118 это конечно вкусовшина, но первая мне нравится больше, на больше инфы, (композиция лучше построена), если уж отстраниться от того что девка на первой охуенная, а на второй как-то не очень.
>>1522941 > у ксемплера (эдвансед) нельзя понижать денойз, он там гвоздями прибит на еденице Чел, ты. Он там к шагам прибит, бай дизайн, а не к единице. Если у тебя выставлено 10 шагов, старт - 3, енд - 4, то денойз 0.1. Я тебе еще в начале треда писал, возьми SamplerCustom и дроби до тепловой смерти вселенной, хоть шагами (SplitSigmas), хоть денойзом (SplitSigmasDenoise).
А есть вообще способ быстро вставить ноду, если у первой нет инпута? Допустим, в чужом воркфлоу загрузка модели тянется на десять других нод, а хочется между ними вкорячить загрузку лоры. Придётся много раз таскать ноды. Грубо говоря заменить первую ноду на рераут и перед ней уже прокинуть нужное.
>>1524256 Не понял, что ты написал, но если нужно как на пикриле, то делаю так:
1) добавить нужный новый узел; 2) зажать Shift, а затем схватить output первого узла (там где у тебя две связи выходят). С зажатым Shift они подхватятся все сразу, сколько бы их оттуда не выходило; 3) не отпуская Shift перецепить их на output нового добавленного узла (они все сразу подцепятся); 4) соединить output первого узла с input нового обычной связью.
Проблема только с Custom Nodes if (any), их чуть пошевелишь, у них порядок входов слетает. Со всеми остальными проблем пока не встречал.
>>1524280 Если как на пикриле, то всё равно довожу до нужного входа (удержание Space для перемещения по рабочей области), даже если связь не отображается. После соединения связь отрисовывается. Но это у меня так.
>>1524275 О, хитро, я о таком не подумал. >>1524289 >зажать Shift Бля, я кончил. Обожаю тебя. Это оно. Одного "Shift" хватило бы. Даже странно, что не попробовал.
Ни разу не странно. Этим ComfyUI меня накаляет. В документации и хелпах про это нигде не сказано при знакомстве с интерфейсом (может, не увидел, но я несколько раз искал эту функцию). Я был уверен, что такой функционал должен быть, поэтому целенаправленно гуглил, пока не наткнулся на пост с reddit, где про это писалось.
Субграфы багованы. Я не понимаю как ими пользуются? Вот, например, если скопировать субграф и отсоединить связь в клоне, то она зачем-то рвется и в оригинале, но не восстанавливается. И не должно восстанавливаться, но и рваться оригинал не должен! Запостите им в ишью на гитхаб, плиз?
>>1524318 Я прямо сейчас не могу проверить, но интересно, а если не клонировать, а копировать через Ctrl-C, Ctrl-V так же себя вести будет или нет? Я к subgraph отношусь настороженно, после того как поддержку group nodes взяли и одномоментно бросили, без обратной совместимости, поломав старые workflow. Идея с библиотекой заготовок на subgraph мне нравится, но куски для re-use я теперь как дурачок в отдельный нерабочие workflow файлики складываю и отткда копирую по мере необходимости.
>>1524330 >а копировать через Ctrl-C, Ctrl-V так же себя вести будет или нет? То же самое, но в обоих случаях это точно бывает в первый раз, потом может работать как надо - не рвется оригинал. Я даже сначала подумал что при "клонировании" субграфы это как инстансты в блендере.
>>1524353 >подумал что при "клонировании" субграфы это как инстансты
Мне эта мысль сразу и пришла. Спасибо, что проверил. Следующая идея, попробовать переименовать копию после копирования/клонирования, изменить заголовок. Но, скорее всего, это ничего не даст и поведение останется таким же. Вообще на работу subgraphs были жалобы в issues. Я только не смотрел внимательно на что именно.
>>1524318 Это не баг, а фича. Это была такая фича, когда только добавили сабграфы, типа они все реюзабл внутри воркфлоу, чтобы не json не засорять одним кодом дохуя раз. Потом она работала через жопу и её пытались убрать, очевидно безуспешно. >>1524330 Через Ctrl-C, Ctrl-V всё нормально работает, т.к. создается отдельный инстанс в json, в отличие от клонирования, где код реюзится (точнее должен был реюзиться, но всё сейчас хуй знает, что там). >>1524353 Я обычно сабграфы в отдельной вкладке верчу, и копирую уже готовый в нужный воркфлоу, чтобы наверняка не было такой хуйни.
>>1524359 > Вообще на работу subgraphs были жалобы в issues. Я только не смотрел внимательно на что именно. Там с каждым latest релизом хуева туча всего ломается, так-то. Начиная с 1.40.1 поломано практически всё. На данный момент лучше на stable сидеть, туда хотя бы фикс автосейва забекпортили.
Сижу на stable. В nightly хватанул как следует и всё понял.
>туда хотя бы фикс автосейва забекпортили.
Не знаю, связано с этим или нет, но пару workflow так потерял, когда работал с ними как с несохранёнными (чтобы не вносить изменения, а просто проверять работу в разных вариантах) и параллельно другие workflow открывал и редактировал. Потом при отказе сохранить изменения содержимое workflow повреждалось, исчезало, а предложение диалогового окна сохранить изменения зацикливалось при повторном открытии workflow (хотя измений никаких внесено не было). Теперь эксперименты провожу только на копиях workflow (даже просто содержимое можно скопировать в новый несохранённый workflow, а исходный сразу закрыть на всякий случай).
>>1524392 Был баг, что при отключенном автосейве, все изменения всё равно сохранялись в воркфлоу. Из-за чего можно было конкретно похерить сохраненные вокрфлоу. Нормальное поведение - открыть вф, удалить рандомно половину нод, закрыть вкладку вф, открыть воркфлоу заново и всё нормально. С багом, после закрытия вкладки, открывался поломаный вф, а не сохраненный, т.к. автосейв сохранял все изменения. Фикс был пару дней назад и тогда же бэкпорт в 1.38.14 вроде. То, что ты описал - это скорее Persist workflow state and restore on page (re)load - с этим вроде проблем сейчас нет, должно быть включено, чтобы несохраненные вф не терялись при перезапуске комфи или закрытии вкладки в браузере.
>>1524678 что блядь ВЫШЛА-ВЫШЛА? Ты пейпер читал, зумерок? Она нахуй14B, под нее риг науй нужен. Это тебе не ванильная диффузия, авторегрессия - это для взрослых дядей, которые на хую вертели все, кроме обратного распределения и лоссов.
>>1524956 Road rage. Два автомобиля остановились посреди дороги, водители вышли и орут друг на друга. Первый: - Роллю бананай по 600 пикч в день, пока не получу удачную картинку. Локалки и инпейнт не нужны. Нищуки соснулей. Второй: - Подключил последовательно шесть 5090, что дает 768ГБ врам. Дрочу на сетап, картинки не нужны. Нищуки соснулей. Оба в ярости. Вокруг образовалась пробка. Вот тебе и автоагрессия.
Комфу с каких-то хуев(версий) стало скромно падать на квен-имаге2511. А я уже раз пять обновлял. После обновления проверил несколько своих шаблонов - все работало(квен не проверил сразу). Как же вот это подзаебывает, когда надо после обновления прогнать свои 100500 шаблоны. И так же ван2.2 опять замедлился. У, сука!
Именно. Но в основном тех, кто ими пытается пользоваться, подталкивая к платной pro/max версии.
На FLUX.2 [dev] не могу определить откуда иногда подгаживает пиксельным шумом (как правило, зелёного цвета; такое чувство, что специально сломали). Проявляется в тенях и тёмных участках изображения, но не всегда. Убирается рефайном или editом самого же FLUX.2 [dev] (сначала restore image 1, а затем make image 1 darker), но сам факт неприятен. Пикрилы FLUX.2 [dev] практически из коробки только с SA-ODE Stable Sampler и AdvancedNoise, без рефайна, апскейла и других модификаций (только одна LoRA Olympus_Flux2.safetensors и то не везде). И мусорный шум не убирал.
>>1525822 С LoRA, названной выше, выдаёт такое: Тоже один проход без рефайна, детейлинга (и с зелёным пиксельным шумом; которым подсирает при случае вне зависимости от настроек sampler/scheduler даже на default workflow).
>>1525826 Без LoRAs, совсем из коробки, даже с JSON-prompt выдаёт что-то такое: Причём нормально сделать «фотореализм» (хотя бы подобие; кроме предметки в специальном режиме commercial product photography) из коробки мне не удалось, несмотря на большое количество профилей «фотокамер» и их настроек. Вообще, для быстрых генераций среднего качества distill FLUX.2 [klein] мне кажется для массового использования даже лучше. Из-за более обширных знаний и следования promptу я ещё с FLUX.2 [dev] до сих пор вожусь, несмотря на его жирные требования к объёму RAM/VRAM и, в целом, не такой уж выдающийся результат.
>>1525849 Картинки да, пост вряд ли. Я Edit пробовал на FLUX.2 [dev] и [klein] и результаты выгружал.
Да, раз уж написал про Edit, скажу главное, на мой взгляд. Ещё один момент, который мне понравился во FLUX.2 [dev] это сильный Edit. Неплохо (для edit) подхватывает референсы, вставляет и вписывает в сцену, делает переосвещение. Из изображения делает крупные планы, меняет ракурсы, пытается держать стиль. Здесь прямо кайфую. Все пикрилы сразу после первого прохода и без какой-либо доводки (опять виден пиксельный шум). Тут кроме меня FLUX.2 [dev] практически никто не использует. Слишком жирный и результат из коробки разочаровывающий.
>>1525849 > СУКАЧТОПРОИСХОДИТ? 5090-боярин заходит в тред раз в пару недель напомнить о своей 5090, если картинки будет новые - его не узнают. Ничего необычного.
>>1525853 >5090-боярин Не угадал. 4080s и 128 Гбайт DDR4 @ 3000 МГц.
Картинки постить смысла не вижу, потому что это всё вторичность и банальность. Я до сих пор допиливаю workflow, чтобы хоть как-то лучше с FLUX.2 [dev] подружиться. Сейчас пытаюсь с ControlNet для FLUX.2 [dev] рефайнер слепить. Пока результаты meh. Если честно, вообще не чувствую, что у меня есть что показать в треде. Полуготовые workflow для FLUX.2 [dev] могу отдать, если нужны. Не жмусь и не жалко.
>>1525861 > Картинки постить смысла не вижу, потому что это всё вторичность и банальность. Ну хуй его знает. Ты же в картинко-треде пишешь, а не в техно-треде. > вообще не чувствую, что у меня есть что показать в треде По сравнению с чем? Уж лучше оригинал мид, чем одну и ту же картинку из треда в тред таскать.
Я непонято выразился. Сейчас по-другому напишу. В технотреде последний пост датируется ещё прошлым годом. И я от него далёк, так как LoRA не тренирую.
>По сравнению с чем? Уж лучше оригинал мид Я сохраняю мало изображений, потому что пока не чувствую, что качество получается сопоставимое и достойное публикации. Без нормальной пост-обработки (в виде, например, рефайнера и детейлера) сразу после генерации изображения выглядят очень слабо по сравнению с результатами пост-обработки. С одной стороны, конечно, интересно честно показывать что могут современные модели «из коробки», без приукрашивания. Нормальную пост-обработку я делать так пока и не научился, хотя пробовал уже с tile ControlNet для SDXL, Z-Image-Turbo (и результаты меня не удовлетворили, там вылезают другие проблемы с которыми приходится бороться). Вчера вот до ControlNet специально для FLUX.2 [dev] добрался: https://github.com/bryanmcguire/comfyui-flux2fun-controlnet
Единственное, что ещё пока не разобрался с автоматической сегментацией изображения и детализацией сегментов. А просто прогнать всё изображение через SeedVR2, как я делал раньше, уже не устраивает.
Кроме того, хочется поделиться с комьюнити именно приёмами, повышающими качество генерации выходного изображения, чтобы не просто картинки, а workflow в комплекте для всех желающих, какие-нибудь ценные наработки, полезные приёмы построения workflow в ComfyUI, а для этого у меня грамотёшки не хватает.
Пока workflow для генерации на FLUX.2 [dev]: 1) 3 reference images (вместо двух в default workflow); 2) выбор default ComfyUI workflow sampler/SA-ODE Stable Sampler; 3) выбор обычный prompt/FLUX2 JSON Prompt Assembler; 4) выбор 28 steps/8 steps Turbo LoRA (не рекомендую гнаться за скоростью, страдает детализация и освещение); 5) work in progress.
Для нормально работающего и показывающего хорошие результаты workflow повышения качества генерации с помощью tile ControlNet для FLUX.2 [dev] или detailer на SAM3 я ещё близко не готов.
>>1525936 > хочется поделиться с комьюнити именно приёмами Кому надо, сам спросит при виде картинки, как это было первые два года треда. > какие-нибудь ценные наработки, полезные приёмы построения workflow в ComfyUI Аналогично. Никто не стеснялся спрашивать раньше. И им отвечали, а потом вместе фаинтюнили настройки. Пока ты там будешь свой воркфлоу в идеальный вид приводить, тут никого и не останется.