• FLUX.2 klein • Z-Image-Turbo • Flux 2 • Qwen Image / Qwen Image Edit • Wan 2.2 (подходит для генерации картинок). • NAG (негативный промпт на моделях с 1 CFG) • Лора Lightning для Qwen, Wan ускоряет в 4 раза. Nunchaku ускоряет модели в 2-4 раза. DMD2 для SDXL ускоряет в 2 раза.
>>1501537 >Чё за турболора на хрому? В стили умеет? да какаята непонятная лора: Hyper-Chroma-low-step-LoRA Насчет стиллей незнаю. С склоняюсь к тому что это я криворукий дебил но я немогу получить нормальную картинку, какойто бодихоррор постоянно или пластик сплошной.
TLDR: в этом треде на реддит очередной гаруспик с «магическим мышлением» притащил фантазии и бред (с экивоком на какого-то бетатестера, имя которого ему нельзя называть) (от том, что prompt guide от разработчиков FLUX.2 не гайд потому что prompt не настоящий) @ был тут же раскатан прямо в своём же треде на reddit.
Прочитал @ потерял время. Думал, узнаю что-то новое. Пользуюсь FLUX.2 dev, а теперь и [klein] с момента релиза по этим самым руководствам. Во FLUX.2 [klein] нет upsampling prompt по default. И его не рекомендуют и говорят: «пиши достаточно и развёрнуто, но строго по делу, воды не лей». Для FLUX.2 dev как вариант рассматривалось использование LLM для upsampling, но особо не настаивали.
NAG - Кто пробовал?
Аноним25/01/26 Вск 06:51:17№150173112
>>1501674 Я так понимаю ты пытался (но не фартануло )промтить какую-то оптическую оберацию или х.з как это называется, когда возникают сферические круги от оптики?
Где klein лора на кончину? BFL зря высрали модель что ли? Анон делал неплохую, но меняющую лицо лору. У меня Qwen Edit остался по этой единственной причине.
>>1501907 Как вариант: Ставишь fixed, на 10-й раз вручную меняешь на randomize after generation. Только не совсем ясно зачем ты так хочешь делать. Если не менять prompt и другие параметры генерации, то на одинаковом seed будут одинаковые изображения. ComfyUI даже не будет новое рисовать, если ничего не менялось и seed fixed.
Я искал что-то, что позволило бы управлять параметрами генерации по сценарию (например для сравнения, с указанием шага изменения параметров, выбора моделей и LoRAs). Такие custom nodes существуют. Но то, что мне попалась оказалось неудобным и сложным для простых задач.
>>1502108 > на 10-й раз вручную меняешь на randomize after generation Ну примерно так и есть сейчас. > не совсем ясно зачем У меня компоненты промта генерятся через llm. Там нет нужды некоторые стилистические куски перегенерировать постоянно. Но оставлять их без изменений и топататься на одном месте тоже не хочется.
Кто нибудь регался на хаггинфейсе в последнее время? У меня даже с впн последняя стадия регистрации происходит очень долго, страница бесконечно грузится.
>>1502171 Подозреваю, что в самом первоом subgraph вот эта нода автоматически подгоняет размеры изображения до 1 мегапикселя, выбирая подходящее разрешение.
Кляйн хорош, но каждая итераия редактирования по-прежнему выжигает цвет (и ещё и каждый раз немного зумит по-моему) и даже если маску для инпеинта больше не нужно рисовать самому, то отредактированную часть изображения всё равно приходится накладывать на оригинал в фоторедакторе. Либо делать ВФ для инпеинта с рисованием маски, но зачем тогда кляйн?
>>1502178 Кинул гугловскую почту и зарегался под впн, теперь могу заходить под аккаунтом. Но вот подтвердить почту не могу, походу отслеживает откуда идет переход.
>>1502178 >>1502193 Короче зарегался. Эта залупа не терпит любой русский след. Во-первых никаких мейловских и яндексовских почт, только гугл. Во-вторых от момента начала реги и до конца, включая подтверждение с почты не должно содержать русского следа.
>>1501349 (OP) Что сейчас самое актуальное для рисунков? Для фотореализма знаю zimage, а для комиксов/cgi/3d? Чегонибудь из этого? Что-то лучше NOOBAI было? Я посмотрел ту же flux новый - какаято поебота.
>>1502438 >С ней интереснее всего экспериментировать. Ага, она всегда что нибудь новое подкинет. И понимаение промпта на достойном уровне(по сравнению со сдохлей).
>>1502171 Отдельно с помощью узла PrimitiveInt подкидываешь любое разрешение для генерации, если нужно, вне зависимости от размера reference image как на пикрил:
Сначала subgraph разверни, чтобы удобнее работать было, как тебе уже посоветовали.
>>1502181 >Подозреваю, что в самом первоом subgraph вот эта нода автоматически подгоняет размеры изображения до 1 мегапикселя, выбирая подходящее разрешение.
ImageScaleToTotalPixels в этом workflow применяется для приведения reference image к 1 Мп, так как при работе с изображениями высокого разрешения для edit могут быть проблемы: как со стороны производительности и объёма потребляемой памяти, так и со стороны качества результата. В теории, но лично я этого не проверял, edit FLUX.2 [klein] поддерживает разрешение входных изображений до 4 Мп (2048×2048) без необходимости их скукоживания. Для скукоживания изображений здесь предлагали Ланцоша (lanczos) вместо nearest-exact. Когда я проверял >>1498662 → разницы в деталях особенной не заметил.
Аноним, подскажи нормальную general purpose nsfw лору для zit. На цивитае пиздец какой-то - под тысячу лор на каждый концепт по поиску nsfw, будто в 2к22 попал.
>>1502531 Вчера только изучал, судя по семплам любая из них гарантирует приступы геометрического хохота. То пизда везде одинаковая, то хуй какой-то мятый, хуйня короче. Если приспичило, то можно использовать чисто для поз а места сопряжения полировать какой-нибудь свежей поней в фокусе, потому как импаинтить в лапше без швов не получится.
>>1502435 >Я тоже непонимаю почему все забили на хромую потому что 1. генерит как чмо долго 2. там большое семейство моделей которые продолжают тренировываться 3. есть более пиздатая хрома радианс которая в пиксель пространстве генерит напрямую без вае, но она точно такая же тормознутая хуебесина
в целом только изза скорости и отсутствия дистиллей всем похуй на хрому
>>1502639 >генерит как чмо долго Ну я хз, у меня турбо версия, генерит в 6-8 шагов за наносек. А радианс я так и не смог запустить почемуто, качал несколько разных версий, ошибками при загрузке сыпит и это на 16 гигах видеопамяти.
>>1502686 Ты не понимаешь сути тренировок лодстоуна. Это не ретрен модели кляйна, это создание другой базовой модели на основе кляйна, количество параметров как у сдхл вполне достаточно чтобы делать нормально, если нормально тренировать.
https://civitai.com/models/2239072/snowing-slider Так и не получилось напромтить стену из снега на переднем плане, с понижением кфг с 1.5 до 1.2 появляется марево, но на передке снега (белых размытых точек) всё равно недостаточно. вес: 0.7-0.8
>>1502205 Идешь на Ютуб или даже РУТУБ. Вбиваешь stable diffusion. Там есть канал с тройным названием, там достаточно детально все объясняется. Или просто вбивай comfy ui и смотри то, что подошло. Если совсем нубинко, то роликов за 5-10 вдуплишь, а дальше методом тыка разгонишься до субгенеративной.
>>1502210 Ты хочешь, чтобы оно рисовало за тебя в твоем стиле? Такого нет будет даже с лорами, все равно будет заметен след ИИ. А чтобы включить в пайплайн рисования это на каком-то этапе, достаточно SDXL или даже 1.5 с контролнетами. Ты, похоже, слишком много ждешь от моделей, того, что они будут следавать твоему готовому процессу рисования. Нет, не будут. Flux хорошая модель.
>>1502210 >актуальное для рисунков? Парадокс в том что все современные модели целятся в наивный реализм, реализуют правдоподобную модель мира с округлением линий и стандартизацией образов. И это противоречит всегда немного искажённым рисункам. Я пришёл к выводу, что лучше всего генерить рисуночки в старпёрских хромах/сдохлях и потом править артефакты небольшим дейнозом wan/zit.
>>1502760 Да, кстати, если ему не для рисования, а именно стиль рисунков, то SDXL уже был на пике рисования, по сути, по 2д - стилизации. Модель проебывалась только в анатомии и глубине рисунка, а по уровню графики она была вполне. Это вообще занятная ситуация, когда люди ищут какой-то грааль непонятный, хотя все у них уже перед носом. Почти любая модель хороша в своих рамках, даже SD3. А вот ее однообразие в образах и стиле, похоже, накаляет нижнюю часть туловища, возникают попытки делать на фоторелистичных моделях рисунки или наоборот, а потом сообщается, что модель - говно, нужна новая. Круг замыкается.
>>1502779 >Почему у них всегда сиськи вырастают. Что за магия такая? Цензура, десу. Все стоически тренируют на арбузах, чтобы не дай б-же не обвинили в генерации процессоров.
>>1502793 >письку то сравни Абсолютно все нейрописьки тут сгенерены с похуём на анатомию. У живой стоящей женщины брухлю едва видно, пизда глядит вниз. Вот этот приклееный мясной разрыв почти до пупка - прямое следствие наивного промптинга "баба стоит голая, и чтоб пизду видно было, ух подрочу сейчас".
>>1502806 Ну, первая ещё куда не шло, видали и похуже конечно, но остальное это васянство в духе nsfw-лор на все случаи жизни. >>1502801 >а то мы не видим а, ну вот, видим конечно... А ты чё думал-то, бля? Ишь ты...
Недавно установил портейбл версию, до этого сидел на "полной". Была какая-то удобная нода типа "Lora Loader Stack (rgthree)". Там можно было бесконечно добавлять лоры, все в одной строке: переключатель активна лора или нет, далее название, и вес. Не могу вспомнить и найти.
>>1502836 Спасибо. На самом деле очень недурно. Это уже уровень 20-30 хромы. Есть потанцевал, буду следить за эпохами.
Покажи ещё Subject: lone desert cartographer on a wind-polished plateau, full body, calm standing pose, hands open showing a glowing translucent map-disc, serene half-smile; delicate facial features, enigmatic gaze; Clothes: pale sandcloak with high collar, thin utility belt, soft boots, minimal visor, small shoulder satchel, subtle biomechanical jewelry; Proportions: elegant adult human proportions; clear silhouette; consistent anatomy for character and props; Setting: vast alien desert under two moons; floating cities drifting on silent anti-gravity plinths in the far sky; eroded starship ribs half-buried in dunes; luminous pastel clouds, thin atmosphere haze; a few odd gentle creatures watching from rock spires; editorial “Heavy Metal” magazine double-page illustration, European bande dessinée composition; Style: Moebius-like clarity, precise clean ink lines, sparse crosshatching, soft watercolor gradients, airy negative space, print-ready magazine texture, high detail without clutter; Lighting: diffuse twilight glow, rim light on cloak edges, subtle specular highlights on the map-disc, long soft shadows; Mood: quiet phantasmagoria, contemplative silence, mysterious yet inviting
>>1502989 А нету какой нибудь легкой версии стейбла? И мне установливать все по гайду ? можно ли как то повысить производительность этого на моем пк, можешь подробнее объяснить если не влом
Анончик, подскажи пожалуйста что я делаю не так. Хочу заменить диски на авто. Пробую с помощью Flux2 Klein модели с встроенным в ComfyUI шаблоном. Результат не устраивает совсем. Я новичок
>>1502959 Видосы ты генерировать не сможешь. Статичные картинки - да, но очень медленно если захочешь хотя бы SDXL использовать. Ищи гайды на ютюбе, я не думаю, что в треде тебе смогут помочь, настолько древних карт тут ни у кого нет. Comfyui тебе наверняка зайдет лучше всех альтернатив, потому что потребляет меньше vram.
>>1502959 > Братцы, а можно к вам вкатиться на древней видюхе 1030 ти 2гб? Я сидел на 1060 3 гига в 2022-2023, там в принципе была жизнь на полторахе аж в фп16, но было больно и картинки по 20-30 сек. На твоем говне будет еще дольше. Насчет двух гигов не скажу, но возможно можно полторашко чекпоинты сконвертить в фп8.
>Проц тоже слабый ай3-10100ф. Проц не важен
> Очень хочется генерить видосы и аняме картиночки Видосы не сможешь. Аниме есть.
Лучше конечно не ебать мозги с таким инвалидным экспириенсом и пойти купить хотя бы 3060 12 гигов срук.
>>1502997 > А нету какой нибудь легкой версии стейбла? Должна быть сниженная точност >И мне установливать все по гайду ? Просто скачать комфи портабл для некросерии 10
>можно ли как то повысить производительность этого на моем пк, можешь подробнее объяснить если не влом Производительность повышается только более лучшей картой
>>1502772 Попробуй 9b-distill. Алсо, я тестил разные версии, быстрей генерит на fp8 модели и обычном енкодере. От пожатого енкодера только генерация хуже и потребление рам на 3-4гб меньше. Если с рамом такие проблемы, то ок.
Как заставить Комфи пересобрать .venv? Что-то он пытается, но постоянно падает. Уже и ВПН включил, думал, что к сервакам не коннектится - все равно крашит.
>>1503178 Свинтэссенция может и есть, но кто тебе в век нейросетей захочет ее пересказывать? Иди спроси выжимку у Гугыла какого-нибудь, он тебе всю базу даст в 4-5 постов, отсальное в видосах доберешь.
>>1503178 Есть. Найди канал pixaroma на ютуб. Пару дней назад вышел 5и часовой ролик. Я только благодаря ему всё понял. В остальных местах только говняк раскидывают и воздух пускают типа шарят (как и тут), заставляя себя чувствовать тупым
>>1503148 Такая же хуйня была, помогла установка через впн и не с первого раза (я бы сказал раза с 18 минимум), он там постоянно на чемто рандомном обрывался и приходилось начинать всё заново... По итогу с какогото там раза всё поставилось.
>>1503206 Пришлось полный реинсталл делать, с нуля практически. Раза с 4-го завелся. Пытался через траблшутинг венв пересоздать - нифига не получалось. Качал 20 мегов, и стопорился. А автоматик это нормально делал...
ERROR: pip's dependency resolver does not currently take into account all the packages that are installed. This behaviour is the source of the following dependency conflicts. mediapipe 0.10.20 requires numpy<2, but you have numpy 2.4.1 which is incompatible.
File "C:\Ai\ComfyUI_windows_portable\python_embeded\Lib\site-packages\torch\cuda\__init__.py", line 417, in _lazy_initraise AssertionError("Torch not compiled with CUDA enabled")
>>1502959 Вкатился на старом i5, 16 оперативы и 1070ti. Генерит, но долго. 1024х1024 SDXL - в районе 40 сек. Zimage и Qwen в 2 раза дольше. Твои 2 гига, наверное надо умножать на 2-3. Про видосы забудь.
>>1503430 Если откатили на бекап, при условии что ломали, то значит таки сломали А вот если ничего не ломали, но пришлось откатиться - значит синьор девопс ресурса - собака сутулая. Это утверждение косвенно подтверждает факт того, что бэкапы не проверяются на усешность и\или настроены на слишком большой промежуток (3 дня так-то дохуя для ресурса с таким постингом как соскака)
A slender, fair-skinned young Asian nun is crouching on a rooftop with her legs spread in an M-shape. The girl is lifting her black long skirt with one hand. She has silvery-white long hair, white eyebrows, and sky-blue pupils. The girl is smiling with a lewd gaze directed at the camera. Her face is Asian, coldly beautiful, and exceptionally gorgeous. The girl is very tall, with large breasts. Behind her is the rooftop railing. She is wearing a black-and-white sexy fetish nun outfit, with a long black skirt that covers her feet and the area between her thighs. The black skirt is completely soaked, and all her clothes are drenched in sweat, making the wet nun habit semi-transparent. The front of the nun habit is open, revealing her breasts. She is barefoot. Her long, straight white hair flutters slightly in the wind. The background features a blood-red sky, with a group of pigeons near the nun and a flock of black crows flying in the sky. Strong sunlight shines from above, creating a high-contrast backlit silhouette. The nun’s cap is completely soaked. The girl has a succubus heart tattoo on her thigh.
В Негативе - эмбединг easynegative и пару слов чтобы NSFW не было и фотореализьм
>>1503630 Пойдет. А Team Z показала как делать идеальную turbo из файнтюнов, как обещала? Иначе он опять наклепает хуету хуже хромы, которая абсолютно не нужна при имеющейся хроме.
Помимо увеличившегося времени генерации, результат в целом разочаровал. Про стили и вариативность здесь уже отметили, это действительно хорошо, повторяться не буду. А вот от геометрии, анатомии и деталей ждал большего.
Дальше я пробовал разные фантазии, что ещё с ней можно сделать для генерации (не обучение). То есть я не совсем понимаю, зачем в ComfyUI добавляют workflow для базовых моделей (такое уже было для FLUX.2 [klein]), когда получается, что такая база нужна для обучения, а не для использования её в качестве модели для обычного вывода.
Пробовал начать генерацию на 50 шагов Z-Image в одном KSampler advanced, а потом докрутить на Z-Image-Turbo в другом. Собрал workflow. Получилось долго и плохо.
Пробовал использовать в unsample/resample из RES4LYF для устранения недостатков предыдущего подхода. Неудовлетворительно. Допускаю, что-то мог неправильно настроить.
Потом стал пихать вывод из Z-Image в edit FLUX.2 [klein], чтобы придать результату хоть какой-то товарный вид.
Вот пример: prompt взял из этого треда: https://www.reddit.com/r/StableDiffusion/comments/1qou50z/zimage_base_test_images_so_you_dont_have_to/ Там не совсем честный результат, так как SeedVR2 используют для второго прохода. Я не сразу придал внимание. Поэтому вместо картинок только один prompt оттуда взял для чистоты эксперимента. Как писал выше скормил результат Z-Image base editу FLUX.2 [klein] 9B (имена файлов подписаны).
Результаты нерепрезентативны из-за недостаточной величины выборки.
Ещё для сравнения файл с пикрилом по тому же prompt, только на FLUX.2 dev (сырец без доводки). Никаких дополнительных детейлеров/апскейлеров и прочего. Вот и размышляю, стоит ли генерировать сразу в модели, которая выдаёт приличную геометрию, анатомию, детали, или пытаться натягивать сову на глобус, строя I2I пайплайны для Z-Image>Z-Image-Turbo, Z-Image>FLUX.2[klein], какой-нибудь другой модели, или вообще tile controlnet рефайнера на древней SD (я вижу её здесь до сих пор для второго прохода используют)?
Вообще, честно признаться, разочарование ещё и от того, что я ждал от Z-Image скорости при генерации. Не такой как у Z-Image-Turbo, понятно, но всё же. А так FLUX.2 dev на 28 шагах у меня генерирует изображение быстрее, чем Z-Image на 50 (с CFG 5–7).
Полезной информации о годных настройках на reddit(/StableDiffusion; /comfyui)/4chan не особо много. Бегло посмотрел чужие workflow для Z-Image base на CivitAI, ничего особо ценного не приметил. Буду рад если поделитесь другими местами, где можно какие-нибудь приёмы почерпнуть. В большинстве встречаются сомнительные обскурные практики, которые больше сбивают с толку и запутывают. Или на поверку вообще оказываются snake oil. Если у кого-то получается результат чуть лучше средней температуры по больнице, то приёмы и workflow прячут и стерегут как Голлум — Кольцо Всевластья. Полагаю, что для кого-то нейрослоп это не праздное развлечение, а источник дохода и коммерческое качество — trade secret.
>>1503590 >изинегатив это не только для SD 1.5? Нет, это по факту текстовый набор того, что обычно пихают в негатив. с эмбедом удобнее - не нужно копипастить каждый раз.
Ключевые особенности: отдельный custom sampler для Z-Image-Turbo и переключатель стилей в один клик в custom окне ввода prompt.
Стилей немного: 29 для фото, 27 для иллюстраций и ещё какие-то колбасные обрезки и подобие mock-up в other. Стили, как я понял, просто текстовое описание, которое добивается к введённому в узел prompt. Всё «удобство» заключается в выборе из выпадающего меню. То есть, это всё можно наpromptить и без всяких приблуд (если знать как эти стили описываются для Z-Image-Turbo). Работу custom sampler можно оценить на пикрилах.
Устанавливается через ComfyUI-Manager. Для работы в обычный workflow для Z-Image-Turbo достаточно подкинуть узлы: ⚡| Style & Prompt Encoder и ⚡| ZSampler Turbo. То есть использовать workflow от автора необязательно (можно только открыть и посмотреть как подключать узлы и их настройки).
Уже наигрался и наверно отключу. Может, кому-то пригодится.
На что вообще ваши стили в базе влияют, если их и так можно натренить? Типа если модель умеет в аниме из коробки, то аниме тюн типа нуба получится лучше или что?
так и не получилось запустить у себя базовую, вот такая у меня версия (репак из шапки) лапши (пик 1), какая это версия cuda и совместна-ли она с этой базовой, я без понятия, я не выбирал её специально но с ней у меня нихуя не выходит, (с турбой проблем никаких не возникает при этом), сегодня подцепил: базовую+квен+вае от автора турбо-версии, и результат такой-же, что и прежде (пикрил 2). С wf я ещё вчера упростил его до невозможности, поотключал всё лишнее, оставил только основные узлы, но результат был такой-же.
>>1503790 Sage Attention выруби. Всмысле из ВАТника удали соответствующий аргумент запуска. --use-sage-attention. Он супер-криво работает с Z-Image-Base
>>1503748 Были прописаны Art Nouveau, Arthur Rackham и Aubrey Beardsley. Но объективно на них не очень похоже. Вот полный промпт:
A fantastical scene depicting a group of ethereal, pale-skinned fairies bathing and frolicking in a moonlit pond surrounded by ancient trees and lush foliage. Two female fairies are emerging from the water, adorned with flowers in their hair and clinging to delicate, flowing gowns. They exhibit expressions of serene joy and playful abandon. A small group of mischievous, childlike fairies with pointed ears and earthy clothing gather on the bank, curiously observing the bather, with one playfully aiming a flower at her. The setting is a hidden glade within a primeval forest, evoking a sense of enchantment and mystery. Soft light filters through the canopy, illuminating the scene with an otherworldly glow.
Details & Style: Inspired by the Pre-Raphaelite and Art Nouveau movements, with strong visual references to Arthur Rackham and Aubrey Beardsley’s illustrations. The color palette is muted and monochromatic, dominated by shades of pale blue, green, and grey, with accents of white for the flowers and highlights on the skin. The composition is dynamic and asymmetrical, with flowing lines and organic shapes. Utilize a wash technique with delicate linework, emphasizing the textures of the water, foliage, and fairy skin. The artwork should evoke a dreamlike quality, suggesting a fleeting moment captured from folklore or a fairy tale. Use an antique paper texture to enhance the vintage aesthetic.
Technical Details: Highly detailed illustration, soft diffused lighting, volumetric light, intricate floral patterns, delicate facial features, detailed clothing. Emphasis on atmospheric perspective and depth of field. The artwork should be reminiscent of a vintage book illustration with a slight watercolor and pen-and-ink aesthetic. Style: Pre-Raphaelite, Art Nouveau, Fairy tale illustration. Artist inspiration: Arthur Rackham, Aubrey Beardsley. Medium: Watercolor, Pen & Ink, Antique Paper Texture. Mood: Ethereal, whimsical, enchanting.
траблы с базовой зеткой
Аноним30/01/26 Птн 10:34:27№1503806186
>>1503797 >--use-sage-attention У меня нет такого) ------------------------ .\python_embeded\python.exe -s ComfyUI\main.py --windows-standalone-build echo If you see this and ComfyUI did not start try updating your Nvidia Drivers to the latest. pause
>>1503806 Возьми да заново комфи поставь, там делов на час. И ставь портабл в отдельный сандбокс, чтобы не вычищать по всему харду что там петухон тебе насрет.
>>1503805 Это ты без этого: >>1503669 делал? меня интересует вся эта псевдо-эллинская тематика, наяды всякие, пастушки, сатиры и прочее)
траблы с базовой зеткой
Аноним30/01/26 Птн 10:46:25№1503819190
>>1503808 >И ставь портабл у меня и так портабл, я здесь всё расписал: >>1503755 возможно у меня портабл с несовместимой версией cuda для базовой зетки, но с этой версией у меня с турбой проблем нет, как узнать версию cuda на моей сборке, где она написана?
траблы с базовой зеткой
Аноним30/01/26 Птн 10:51:37№1503828191
>>1503818 Не, приклееные сбоку стили всегда херово работают. Я беру референсы (в данном случае пикрл), прогоняю их через vision-llm и немного правлю простыню при необходимости.
траблы с базовой зеткой
Аноним30/01/26 Птн 11:11:01№1503863194
>>1503836 на энта я пойтить не могу. с виндой всё в порядке, она не засрана, всё внутри портабл, дрова свежие, единственное что установлено это гит для ui менеджера, всё.
>>1503863 Тогда тупо жди и обновляй кумфи. У меня похожее с Lumina было. Всякие сдохли, флюксы и прочее работает, а при попытке в люмину (которая у всех работала) просто вылетал батник без ошибок. Дрова обновлял, систему перезагружал, с бубном танцевал. Через несколько обновлений кумфы внезапно все заработало.
траблы с базовой зеткой
Аноним30/01/26 Птн 11:19:46№1503889196
>>1503805 Эта штука не знает как выглядят сатиры (фавны), позорище какое-то, у меня сдохля знала кто это такие.
>>1503850 foliage, and fairy skin. The artwork should evoke a dreamlike quality, suggesting a fleeting moment captured from folklore or a fairy tale Зетка такая: что, что? fairy?? таак блэт, рисуем тинкербелов с крылышками, хуяк-хуяк...
>>1503914 без понятия, я просто скопипастил чать промта. я потом убрал вообще слова fairy от греха подальше. >>1503850 так (пикрил) согласно зетке выглядит сатир он-же фавн из древне-греческого лора диониса, познакомьтесь: вот ты какой северный оле... фавн бля. второй пикрил это лора для сдохли, частично сдохля (поня!!!) знала кое-то о фавнах и рисовала волосатых мужиков с рогами, хотя-бы на это у неё ума хватало) пик 3.
>>1503932 >fawn там толстючий контекст, его понимала даже тупая и отбитая поня. пикрил сдохля: реалвизикс. Styles:['Impressionism', 'Classicism Art', 'Cinematic Diva', 'Artstyle Art Nouveau']
>>1503938 вот эт я понимаю) >>1503943 >Достаточно нет, там голова козла будет как головный убор типа чувак из друидского лора закутаный в шкурах, я пробовал, ты не думай...
А хули тренить лоры на zib так долго? Или это везде так? Ai toolkit, хотел потренить свою первую лору на 3090, 7 картинок, 3к шагов, сначала ждал 10 минут пока пикчи сгенерятся, потом пошли шаги и я охуел, 4с на один шаг, ждать 3 часа пока карта жарится до 73°
>>1504221 то есть они универсальные и подойдут для абсолютно всех версий карточек, как-то: 20ХХ, 30ХХ, 40ХХ.... или есть исключения, как допустим для 50ХХ желательна версия с версией CUDA 128, а типа для старых пойдёт 126-я? Или вообще похую? Вот я о чём...
на реддите чел пишет, что LoKr лучше получается для ZIB, чем LoRA, по крайней мере на людях.
Он тренил на Ana de Armas какая-то известная пися, анон ее не знает, 22 пикчи, 2200 шагов в AI-Toolkit на 5090 сукаблядь голова дай денег, весь процесс - 32 минуты.
>>1504247 >что завести её невозможно в твоем уютном манямире - да, у всех кроме тебя - все заебись. Разберись уже с пайтоном, пайторчем, кудой, комфи и дровами.
Прога для бекапа
Аноним30/01/26 Птн 16:40:59№1504263230
>>1504259 >у всех кроме тебя - все заебись нет. разве что в >в твоем уютном манямире
>>1504208 ставь дефолтную, там всегда последняя поддерживаемая cuda (сейчас 130). 126 и 128 нужны тем, кто не хочет терять поддержку отдельных кастомных нод, которые еще не перекатились на новую cuda.
>>1503755 О! Я вспомнил - возможно это отсюда будет. Я когда вкатывался, у меня была 1650. Там была такая же хрень - иногда или черный квадрат, или такая пиксель-муть на выходе. Решалось отключением fp16 (или fp8?) для VAE. У автоматика1111 это был ключ "--no-half-vae", у comfy тоже вроде такой же. Попробуй с ним. Эта хрень затрагивала как раз 16xx и 20xx, ни у 10xx ни у 30xx проблем нету. Что-то там в архитектуре этих карт.
>>1504272 >нахуй сходи. рекомендуешь на основе личного опыта? Настолько зашло?
Ты блядь вторые сутки в треде ноешь и ждешь, чтобы тебе дали готовое решение, кидая какие-то куски ворфлоу и одну и ту же картинку спеков комфи. Перебери билды комфи по очереди, если не способен разобраться, спроси ГПТ, полистай issue репы комфи на конец. Тебе все выше уже написали.
>>1504286 Наличие --no-half-vae - это как раз отключение половинной точности. Раз у тебя его не было - значит она как раз включена. Его добавить надо а не убрать.
>>1504294 ну, пока это ты сидишь на хую своей тупости с шумными квадратами вместо генераций.
1. Напиши сюда название батника из папки Comfy, которым ты его запускаешь. 2. Выполни команду в терминале и запость ответ (не ссы, она показывает какие либы у тебя установлены)
python -c "import sys, torch, platform, importlib; print('Python:', sys.version); print('PyTorch:', torch.__version__); print('CUDA available:', torch.cuda.is_available()); print('CUDA version:', torch.version.cuda); print('cuDNN:', torch.backends.cudnn.version()); print('GPU:', torch.cuda.get_device_name(0) if torch.cuda.is_available() else 'None'); print('Platform:', platform.platform()); mods=['flash_attn','flash_attn_2','xformers','sageattention','triton','einops']; print('Attention libs:'); [print(' ',m, 'Installed' if importlib.util.find_spec(m) else 'Not installed') for m in mods]"
>>1504294 >сходи нахуй, кусок говна токсичного! ну что поделать, если ты криворукий гидоцефал. Тебе же все уже написали, за тебя еще кнопочки потыкать?
>ты в саппорте ростелекома не работал часом, не? откуда такая проекция? тебя дадя из РТ в детстве обидел чтоли?
Бляяяя, как-же долго эта базовая генерит, ёб вашу мать! И ладно бы оно того стоитло, так ведь нет, ну да, чуть точнее цвета, чуть лучше освещение. Но всё это можно вытянуть промтом в турбе, и это (чуть) точно не стоит потраченного времени. В пизду, удаляю нахуй.
Геноны, есть видос, в нем надо изменить персонажа. Это тот самый пингвин что идет к горе. В самом видосе за 30с пара разных ракурсов. Нихуя не могу разобраться как мне из видео и картинки персонажа получить этого персонажа внутри видое. Дайте правильный воркфлоу, который это сможет. Пока из того что нашел, это ван2.2 и он все время хочет из текста в видео или из кадра в видео, но нахуя это мне, когда у меня уже готовое видео? Да, хочу локально на 4080супер это сделать.
Моя личная армия, слушай боевой приказ: генерите и постите сюда такие картинки, чтобы на них была одна баба, голая или сексуально одетая, и она стояла или сидела на неком фоне, можно на улице, в помещении, или просто абстрактный фон. Разрешается также постить картинки, где больше одной бабы, но желательно, чтобы в этом случае они были близняшками.
>>1504187 Неплохо оно композицию и анатомию сделало, только цвета подводят, всё сливается. >>1504208 На 3.12.9, t2.9.1+cu130 всё работает. Для некоторых новых фич нужны новые версии. Для надежности ещё и CUDA Toolkit 13.1 стоит в системе, 13.0 или нет или не качает сразу.
>>1504858 Toolkit вроде не всегда нужен, но в каких-то случаях, какие-то библиотеки билдят на ходу, поэтому приходится ставить для гладкой работы. Я не просто про сд говорю, а глобально про комфи для аудио-видео-3д и прочих штук. Да, основа установки комфи это поставить скачанный торч в новый env и установить req.txt
masterpiece, ultra-HD, cinematic lighting, photorealistic, impressionism, high detail, depth of field, 1girl, adult, mature, beautiful, light skin, medium breasts, slim waist, (fit body:0.3), bright pink eyes, long eyelashes, red eyeliner, soft gaze, white silk bra, red lace trim, red silk panties, white side bows, long black hair, red highlights, high ponytail, long straight bangs, red hair ribbons, red silk hair ribbon, ornate gold hair needles, red bead necklace, gold stud earrings, standing near the red wooden bench, medium shot, dynamic angle, looking at viewer, blushing, sexy pose, warm golden sunset, soft orange glow, long shadows, clear air, traditional shrine courtyard, green maple trees, stone lanterns, red torii gate
Но когда прочитал тред, заморочился с тем, что стоит у меня. Выяснил, что сборная солянка со 128 cuda. Обновил драйвера на видеокарту, накатил 130. Полёт нормальный. Изменений особых по производительности не заметил.
>>1505357 >локальные аналоги Отстают по скорости/качеству от корпоративных.
А какое железо у тебя есть в наличии? От этого и отталкивайся. Чем больше — тем лучше и всё равно будет мало. Z-Image-Turbo предъявляет самые скромные требования. Следующий FLUX.2 [klein]. Актуальная видеокарта на 16+ Гбайт VRAM, 32+ Гбайт RAM. С потерей качества кванты можно на 12 Гбайт VRAM и 16 Гбайт RAM с офллоадом (убоем SSD) запустить. Медленно и некомфортно.
>>1505406 Актуальная карта NVIDIA 4000-й или 5000-й серии, (3000-й с тормозами) забыл добавить. Всё остальное, если хочешь создать себе проблем, а потом их героически преодолевать.
>>1505357 >>1505406 >>1505409 Точнее говоря - 3060 12GB VRAM и 32GB RAM - комфортный минимум, при котором хоть и неспешно, но без особой ебли со всем и вся. Это если только про картинки речь. Если про видео - то там надо уже до 64GB RAM добавлять, чтобы хоть как-то пощупать, и все равно мало.
>>1505357 >>1505406 >>1505409 >>1505415 С 3050 6gb тоже можно жить, запускать зету и кляйн, но скорость упадёт, да. А вот для анимешной люстры её хватит с комфортом.
подскажите нейруху для генерации реалистичных изображений. Люди не интересуют, нужны именно точно воссозданные объекты. Например коробку от процессора на диване мне какая нейросеть сможет хорошо сгенерировать?
>>1505559 ну тут вопрос в том, сможет ли она создать настоящую существующую коробку, а не просто то, что она там думает. Например такую, что бы ну не отличить было. это вообще реально? или лучше фотошоп использовать с его ии встройкой?
>>1505601 Вариантов масса - начиная от "наслопить любой эдит моделью", и заканчивая "подрубить пару-тройку контролнетов и зааутпейнтить всё, кроме самой коробки". Опять же, вопрос того, как сильно тебе это нужно, и сколько ты готов потратить времени, чтобы разобраться, какой вариант подойдет конкретно тебе и применить его. Ну и естественно, порог "что бы ну не отличить было" у всех разный, кому-то и вставка в пейнте сойдет.
два дня пытался заставить амудэ карту дружить с разными генераторами картинок, получилось только на fooocus и то, он захлёбывался и скидывал генерацию на проц. Получалось 5-10 минут в зависимости от модели и промпта. Просто пиздец. Может, ПРОШАРЕННЫЕ ШАРЯТ, как завести генератор на рыксах? Допустим, на моей RX5700XT.
>>1505695 > что за интерфейс? >>1501349 (OP) > → Приложение ComfyUI https://www.comfy.org/download >>1505695 > 3080 12гб на такое хватит же? Хуй знает. Размер можно подобрать, чтоб влезло в 12гб. Если не хватит, всегда есть SDXL c union контролнетом. Ну возвращаясь ко времени, если сильно нужно, можно хоть зафотобашить и по частям ипейнтить, если картофелина вместо ПК.
>>1505472 На 128 Гбайт RAM можешь FLUX.2 dev в FP8 с offload в RAM попробовать. Небыстро, но результат лучше всех остальных локальных edit-моделей, которые мне встречались.
>>1505601 >или лучше фотошоп использовать с его ии встройкой? Лучше банану через апи в том же фотошопе с плагинами хз какими но наверняка их уже дохуя. Даешь фотку фона, даешь объект, получаешь объект на фоне 1 в 1. По моему смысл пердолиться ради этого с локалками только чтобы было бесплатно. Но типа за 500 рублей на платимаркете есть абузные 6-месячные подписки с бананой. Немного, несколько десятков пиков в день дают.
>>1505601 FLUX.2 dev с тем, что писал выше. На вход в качестве reference image подкидываешь любую подходящую фотографию нужной коробки с процом из интернета. В самих моделях знаний о том, как выглядит какая-то прямо конкретная коробка с конкретным процессором («нарисуй мне в точности именно древний Pentium 200 MMX») скорее всего не будет. Поэтому для любой edit-модели лучше кидать референс-изображение с которого срисовывать.
>>1505746 Криво вкоряченый - это инпейнт-пиздец вверху, где даже коробка изуродована. >>1505747 Сделай разрешение побольше и подожди дольше 10 секунд, если VAE мешает.
>>1505794 Эта мысль тоже была тут >>1505623 озвучена. > порог "что бы ну не отличить было" у всех разный, кому-то и вставка в пейнте сойдет Чего ты так взволновался? Тебе платят за рекламу или ты по своей инициативе? Так или иначе, тебе нужно ориджинал постера вопроса тегать, а не меня. Только он может определить, подойдет ему такое или нет.
>>1505973 Ноу проблем. Подтверждаю, что ровно год назад оно 100% работало без проблем, если не считать необходимость fp32 на RDNA1. Судя по тому, что в репе сверху написано, он больше не планирует обновлять, но последний не ридми коммит за июль, так что на пару лет должно хватить со скрипом.
Сirclestone labs в коллабе с ConfyUI испекли модельку Anima на 2B.
Пишут что тренили на несколькиз миллионах аниме-изображений (кат-офф - сентябрь 2025) + 800К артов. Без нейрослоп-синтетики - только живые картинки с ye-pop и deviantart.
Структура : сама модель (2B) + текст-энкодер Qwen-3-0.6B и квэновский VAE.
Аутпут: 1024×1024 и вариации, 30–50 шагов, CFG 4–5. Сэмплеры: er_sde - четкие линии, euler_a — мягче и тоньше. dpmpp_2m_sde_gpu - дает больше разнообразия и креатива.
- Генерит персонажей, концепт-арт, стилизованные сцены в аниме-эстетике - Держит боро-теги, пони-стайл теги и простыни текста - Шарит за годы в анимэ. можно указывать тегами year 2025, year 2024 или периодами: newest, recent, mid, early, old - Есть NSFW - Реализма нет и не будет.
>>1506047 >Флюкс в 4 пальца не может Кожаные совсем охуели. Сначала джва года истерили, что ИИ не может 5 пальцев на руке сделать - а теперь кидают предъявы что 4 не делает.
>>1506135 Неожиданно не полный мусор. Конечно, хуже NoobAI, но в чем-то близка к Pony, может даже лучше. Что-то нормальное выдаёт уже на 8 шагах, какие в пизду 30-50. Пасёт лютым нейрослопом, особенно на этих 50 шагах. Пробовал только er_sde, 4.0. Не понимаю зачем и как применять при рабочей NoobAI, скорость сопоставимая. Хотя возможно лучше работает с детальным описанием сцены.
Подскажите пж шаблон в comfyui для генерации изображения ( НУЖЕН КОТ ) с "доступными" моделями. Выбрал первый попавшийся flux2 klein дак там модели и веса qwen3 8b не могут скачаться хагинфейс отдаем с микро скоростью...
>>1506158 Мне авторы нравятся больше чем на нубе и стабильность выше, но че за мода пошла, z base в 5 раз медленнее, теперь вот 2б вообще в 3 раза медленнее
>>1506183 > z base в 5 раз медленнее, теперь вот 2б вообще в 3 раза медленнее тому что код для трейна пишет ИИ, собственно как и ресерч и все остальное. Да практически все этапы создания ген-модели: 1. Планирование архитектуры - ИИ, энкодеры-декодеры никто с нуля давно не пишет, всегда берут уже готовые. 2. Сбор. генерация и подготовка датасета - ИИ 3. Код трейна - ИИ 4. SFT, RL - тоже ИИ
Нейрослоп не только в картинках\видосах и текстах - в коде тоже.
>>1505794 это тоже флюкс? Выглядит как надо, прям самое то. у меня есть еще отрисовщик, он может мелочи доделать. У меня 3080 12гб и 32гб озу, я так понимаю этого маловато будет на лучший результат? есть варианты где можно генерить за бабки?
Ананасы, а вдруг сможете подсказать. По поводу Qwen Image Edit 2511.
Модель не работает. Вот вообще. Проверял хэши, перекачивал, скачивал другие версии с встроенными лорами, смотрел разные воркфлоу, пробовал запускать из-под Линукса - результат один и тот же, на выходе быстро получается мусор. Выключение 4-steps лоры тоже не дает никакого эффекта.
gguf-версия запускается, но результаты получаются плохими, и не с точки зрения понимания контекста или вроде того - а картинка будто бы не переведена из латентного пространства до конца (или как там это называется, я не ML-щик) или запуск был на паре итераций (их количество не влияет) - в общем, видны артефакты по всему полю кадра.
С другими моделями такой проблемы нет. Qwen Image Edit обычный работает без проблем, 2509 вполне себе работает (хотя результаты мне, опять же, не особо нравятся - но там я с лорами не разбирался, так как думал сразу на 2511 пересесть).
Я не вижу, что я могу еще не так делать, но и не могу поверить в несовместимость конкретной модели с конкретным железом.
>>1506257 Это делается посредством фотографирования себя на мобилку в сортире а затем извлечения позы контролнетом. Это если этой позы в стоках нет, но она там есть.
>>1506244 В случае возникновения проблем всегда проверяй на default workflow с default настройками. Зачем index_timestep_zero отключил? Там писали, что для моделей 2511, отквантованных не разработчиками ComfyUI, должно быть включено. А вообще, субъективно, Qwen-Image-Edit-2511, как и все Qwen-Image это фуфло. Как только опробовал FLUX.2 dev (и в довесок FLUX.2 [klein] 9B) сразу эту гору мусора под названием Qwen-Image бросил, хотя раньше мирился с её особенностями и искал им оправдание. Ещё подход у них: новое добавим, сломав старое, чтобы нужно было одновременно держать первый Qwen-Image (для вариативности стилей), Qwen-Image-Edit на inpaint/outpaint и смену стилей, Qwen-Image-Edit-2509, Qwen-Image-Edit-2511 (который не замена/апгрейд 2509, а фикс для pixel shift), Qwen-Image-2512 для крайне посредственного «фотореализма» (в котором его даже Z-Image-Turbo уделывает вчистую). В довесок half-tone dithering, который нужно лечить отдельным vae c дополнительной операцией upscale/downscale. Линейки Qwen-Image мне хватило выше крыши.
Нет, все-таки у кляйна (9b) сейчас нет конкурента как минимум в одном: это почти идеальная edit модель. (Может простой Flux 2 и конкурент, но только у тех, у кого оно заведется. :) ).
1. Очень хорошее понимание промпта для редактирования. Можно даже делать несколько вещей сразу - и почти без ущерба к качеству результата. 2. БЫСТРО! 3. Можно заниматься последовательными правками сколько угодно перекидывая выход обратно на вход. Картинка не деградирует (как это было с kontext или qwen-edit). Только sid менять нужно не забывать. Если править все на одном - бывает эффект "выгорания". 4. Воспринимает, и нормально принимает лоры во время редактирования. Во множественном числе (стаком). Обычные лоры (на концепт или персонажа), а не только специальные для edit. 5. Можно самому тренировать лоры даже на 12 GB vram. 6. Не трогает зоны, которые ему скажешь "не трогай", даже без негативного промпта которого нет с cfg 1. Просто в позитив пишешь "Preserve ..." и он слушается. 7. Кожа - не пластик как у квена, даже по умолчанию. Мало того - она еще и легко управляется. Нужны явно заметные детали, поры, волосяной покров, возраст, и прочее - только скажи. Кляйн сделает.
Хейтерам особо - я написал: "почти идеальная модель", но имею в виду - из доступного. Улучшать, разумеется, есть куда. И вообще - нет пределов совершенству. Но в текущем виде - это самый удачный, гибкий и удобный инструмент, из доступных массам. IMHO.
>>1506582 Да всем похуй на твои едиты, эта параша должна поскорее вымереть. Пиздец придумали, дайте мне аниме модель, а не фотошоп ебучий чтобы цвет одежды менять или бабу раздеть, нахуй оно вообще нужно.
>>1506597 Чё, быдлошоппер - работы лишился, или такому гениальному тебе теперь в ножки не кланяются, когда надо фоточку поправить слегка? Вымирать не хочется? Луддитам тоже не хотелось...
>>1506582 > и почти без ущерба к качеству результата Главное не постить оригинал и результат результат в тред, а только скрины воркфлууу, где размер сэйв ноды с превью не больше 64х96 пикселей.
>>1506608 Конечно, не нужно. Я ведь не троллей кормить пришел, или доказывать что-то, а просто личным впечатлением поделиться. Ну а если оно с чьим-то еще не совпадает - что поделать. Бывает. :)
>>1506619 Бедненький. Всего-лишь написал свою правду, а тут злые хейтеры набижали и попросили дополнить слова чем-нибудь, кроме еще большего количества слов.
>>1506665 Это не про то. Если ты перечитаешь его пост, то там три пункта про использование его вместо инпейнта, а остальные пункты - вода из общих фраз, которые подойдут к любой модели, и уже были тут сотни раз написаны про эту любую модель еще со времен тюнов 1.5.
Сколько RAM и насколько производительный NVMe SSD?
Скачай ComfyUI portable и FLUX.2 [klein] 4b и попробуй. Руководства по запуску и TEMPLATES, всё на портале ComfyUI. Для первого знакомства тебе хватит.
>>1506548 > Зачем index_timestep_zero отключил? Там писали, что для моделей 2511, отквантованных не разработчиками ComfyUI, должно быть включено. С ним точно такой же результат, а для gguf-модели вроде получше без этих кубиков
> А вообще, субъективно, Qwen-Image-Edit-2511, как и все Qwen-Image это фуфло Ну я не то, чтобы часто генерирую что-то, и думал, что это модели поверх Flux'а, и должны быть лучше него. В принципе, я и про сам ComfyUI вспомнил когда в начале прошлого года увидел какую-то новость о выходе Qwen Image (до этого только в Automatic'е с SD/SDXL развлекался, и было не супер).
То, что описываешь, звучит хорошо. Ниже вижу тоже хвальбу Клейна.
А если я попрошу скинуть хороший image-edit NSFW вокрфлоу - это слишком большая просьба, или нет?
Ну и да, для того, чтобы скачать FLUX, придется зарегистрироваться на Hugging Face?
>>1506582 Получается клейн щас заебца? Я выкатился из AI еще во времена wan 2.2, щас смотрю уже годноты завезли? Следил еще с z-image, но походу клейн таки лучше, плюс функция edit нужна
>>1506785 >То, что описываешь, звучит хорошо. Только при отсутствии альтернатив. Я и с FLUX.2 dev сталкиваюсь с ограничениями. Знал бы что-то лучше для локального edit, ушёл бы и с него.
>image-edit NSFW вокрфлоу А, так тебе для этого. Так бы сразу и сказал. FLUX модели это эталон соевости. Это у них на уровне политики. 1girl NSFW это не моё, но наверно тебе посоветуют LoRAs с CivitAI, которые не сильно ломают анатомию. На Qwen-Image я пробовал snofs, но быстро наигрался с мутантами. Подобное уже вроде наклепали для FLUX.2 [klein] на CivitAI.
>Ну и да, для того, чтобы скачать FLUX, придется зарегистрироваться на Hugging Face?
А ты ещё не встал на учёт зарегистрировался? С этим вообще смешно. FLUX.2 dev с NVIDIA отфайнтюнили в FP8 и разместили на ComfyUI org Hugging Face аккаунте, и она доступна для загрузки без регистрации. А вот FLUX.2 [klein] почему-то так не утащили. Поэтому качается уже с акка Black Forest Labs и там нужно прожать согласие с их соевыми правилами и честно-честно пообещать, что не будете использовать модель для генерации того, что вы обычно делаете.
>>1506814 А ты попробуй таких же стоящих людей на кляйне, там по 3 ноги и 4 руки периодически проскакивает а зимага в 99% справляется хорошо (что кстати странно).
>>1506813 > Я и с FLUX.2 dev сталкиваюсь с ограничениями. Знал бы что-то лучше для локального edit, ушёл бы и с него. Ну, это то понятно, что на любой модели столкнешься - и даже более того, с развитием моделей будешь понимать, что они научились всякому, и пытаться еще сложнее промпты делать в надежде, что тоже смогут - а они опять не смогут.
> А, так тебе для этого. Так бы сразу и сказал. FLUX модели это эталон соевости. Это у них на уровне политики Ну, было бы неплохо, да. И жабок по средам генерирую, и всякие приколы с фотографиями - но и тян пораздевать и поменять позу был бы не прочь. Жаль, если лор еще нет. На Qwen Image Edit я Qwen4Play пользуюсь, как правило, справляется (ну ладно, так-то 60% уходит в мусорку, ну а чего еще ожидать, у всех на уровне политики ограничения)
> А ты ещё не встал на учёт зарегистрировался? > С этим вообще смешно. FLUX.2 dev с NVIDIA отфайнтюнили в FP8 и разместили на ComfyUI org Hugging Face аккаунте, и она доступна для загрузки без регистрации. Да даже более того, я на неделе случайно скачал какую-то NSFW версию "на попробовать, что там с FLUX'ом", и воркфлоу был готов - отсутствовал только энкодер. Пошерстив по интернету я понял, что надо регаться, и решил, что фиг с ним - все-равно Qwen Image казался лучше, да и txt2img мне не особо интересен (кто же знал, что там одна модель на txt2img и img2img)
>>1506135 Ну-ка, ну-ка, ну-ка. Может рисовать несколько кастомных субьектов одновременно как люмина. Неплохо понимает промпт. Вроде бы знает немало рисовак, по крайней мере больше Люмины.
>>1506943 Вангую, все эти дурачки просто не смогли в настройку моментумов и фуллточности на важных параметрах типа норм. И очевидно какие-то параметры в разнос пошли и надо искать какие.
>>1506135 > Без нейрослоп-синтетики - только живые картинки с ye-pop и deviantart. Почему же тогда на первом пике стиль один в один с миксов полторашной NAI?
Похуй на ZIB, один хуй дауны не смогли бы повторить ZIT. И тут я хотел написать как хорошо, что люди затрейнят Klein вместо этого, но понял, что юзал только дистил, а не base и там возможно всё тоже, что и с ZIB, и тюнеры столкнутся с той же сложностью создания хорошего дистила. Модель без дистила нынче - помойка, выдающая всякую кашу вместо того, что могла бы выдавать потенциально. Вангую, что в ближайшие годы изобретут ещё лучше технологию, сохраняющую разнообразие и следование промпту при ускорении инференса. >>1506956 he looks like he's about to drop new Flexy update >>1506982 >>1506183 >стабильность выше Да где? Я специально прогнал по старым пикчам из Pony и NoobAI, в подавляющем большинстве было хуже. И потом ещё с отредаченными тегами. Опять же, где-то стабильность выше чем у кривой пони, но нубай всё же ебёт. Интересно посмотреть что у вас получается. Художники действительно кое-как работают и существенно улучшают генерацию. >>1506992 Как точно описал типичную пикчу из этой модели.
>>1507032 Что мешает взять дифф между базой и турбой и использовать его как турболору? Если он сломается, от файнтюна базы, можно его дообучить чутка, по принципу "дистилляции" на регуляризационных пиках, от турбы. Сами пики надо предварительно засунуть в файнтюн базы, дабы обучилась именно ускорялка.
Ах да, мешает то что интеллект файнтюнеров сводится к выбору дефолтного лр по гайдам и бесполезного продроча капшнов тупыми ллмками.
Просто дайте мне 8 h100 и наскрапленных ключегов жемини штучек 500 позязя...
>>1507041 Что тогда помешало сделать лодстоуну нормальную Chroma Shnell? Я слышал, что у него там архиктура немного изменена. >>1507033 Спасибо, что согласился лаконично.
>>1507055 >Что тогда помешало сделать лодстоуну нормальную Chroma Shnell? А он весь пайплайн тренировки вместе с датасетом не палил, или все обсеры как обычно спрятаны под ковром? Тогда бы можно было сказать. Что он там менял я хз, выуживать инфу из пендоских дисов у меня как-то желания не хватает. >Я слышал, что у него там архиктура немного изменена. Ну это может быть причиной. Турбовеса то уже готовенькие есть, надо их просто причесать, чтобы они хорошо садились на файнтюн, я типа написал в общих чертах как это сделать, очевидные мысли. Если это не прокатывает, делать то же самое несколько раз во время тренировки, ну или вообще параллельно тренить. Но имхо турба особо-то и не нужна. Она конечно фиксит некоторые чисто технические косяки за счет gan-лосса, но их итак можно пофиксить пердолингом/черрипиками. И минусом дает потерю разнообразия Тот же gan тут поднасрал? У них это классическая болячка. одинаковые лица, позы. Это пофиксится уже только РЛем поверх, до чего не то что файнтюнеры, корпораты скорее всего не допетрят. Рл диффузий эта такая тема, не самая тривиальная, в отличии от ллмок. Где для достижения 80% результата надо потратить большую часть компьюта на то что бы модель просто научилась срать waitами и подобной хуйней в тхинкинге, а остальное не так важно.
Хотя я даже могу запалить вам темку как внести разнообразия в модель. Правда, идея будет 100% работать только на пиках аля 5 girl на одной пикче. Но может и обобщится на что-нибудь еще, хз. Есть такая штука как ES (эволюционный поиск), и там была одна интересная статейка, где его таки шмогли адекватно запустить на ллмках. Метод прост до безобразия, любой клодкод его закодит за один промт, ну может за 2. Только вкидывайте компьют. И... там не нужно классическое обучение вообще, там нет ни градиентов, не всей этой хуйни. Нужно просто запускать модель. Так вот. По разным сидам генерится популяция рандомных поправок к весам (рандомных лор с небольшими значениями). Каждая по отдельности эвалится, и в итоге вся эта хуйня тупо плюсуется друг с другом в одну поправку (в одну лору), ток за коэффициенты берется результат эвала, будь то он положительный, либо отрицательный (на отрицательный поправка идет с отрицательным весом). Дальше следующий шаг то же самое. 3 гиперпараметра, размер популяции, величина смещений, количество эвалов сида. Эвалить можно например взяв какую-нибудь готовую модель для детекта лиц, ну и смотреть разнообразие по сходству между ними. То есть тоже автоматизируется за пару промтов. Вот. Сам я это не проверял, надо бы потестить конеш... давно читал статью но чет только сейчас вспомнил как ее можно применить. Нахуя я это правда пишу хз, какбудто кто-то кроме меня тут серьезно шарит за мл... Я еще видел тут в тредах челов с 10 5090 хуй знает чем они занимаются, мне бы хотя бы одну... Там с фп4 оптимизоном реально все ускорить раз в 5 относительно фуллточности, конкретно для таких методов это прям разъеб, изи делается в отличии от полноценной тренировки.
>>1507115 я х.з о чём ты, но у базы есть один косяк, который множит ноль все её плюсы. я даже не беру в расчёт долгое время генерации даже если ты хуяришь на какой-нибудь 5080 ti, хуй бы с ним ещё. при генерации с синематик соотношением, допустим 16х9 и чуть больше, вертикальне персонажи как-бы становятся более кряжистыми, менее стройными, и обратный эффект известный ещё с 1.4 под названием длиннотян, чего-чего а такой хуйни я не ожидал. но тебе конечно-же ничего не известно о данной проблеме, а знаешь почему? потому что ты пиздабол, который нихуя толком не пробовал и не делал.
>>1507158 Как так получилось, что гунерские анимушники сделали ебущую модель на 2 миллиарда с ебическим следованием промту на текст енкодере в 0.6 лярда параметров?
>>1507170 2; 3; full body? Ах, да, ты так и промтил, но результат тебя разочаровал, и поэтому ты обрезал ей ноги. Но ты пожалуй прав - зачем все эти соотношения, если можно из квадрата выпилить нужное тебе соотношение натянув сову на глобус.
>>1507175 >full body? Началась эквилибристика. Проверяй сам, раз примеров высрать не смог
Highly detailed pulp sci-fi book cover illustration, depicting a voluptuous woman with long blonde hair, wearing a minimal futuristic bikini, standing confidently in a barren, rocky alien landscape. She holds two sleek, silver futuristic pistols, aiming them slightly downwards. To her left and right are distinctly alien creatures: a small, wrinkled, grey alien with large ears, and a large, furry, monstrous creature with glowing red eyes. A silver spaceship hovers in the vivid, dramatic sky filled with swirling purple and orange nebula.
The style should strongly evoke 1970s/80s sci-fi paperback art – specifically the work of artists like Boris Vallejo or Frank Frazetta, focusing on dynamic posing, hyperrealistic rendering of skin, muscle, and texture. Emphasize strong, dramatic lighting with hard shadows, highlighting the woman's figure and the alien creatures. Use a warm color palette dominated by oranges, reds, and browns for the landscape, contrasting with the cool silver of the spaceship and pistols. Composition should be centered around the woman, with the aliens flanking her as if guarding her or presenting a threat.
Focus on the atmosphere of adventure, danger, and otherworldly beauty. Render the landscape with realistic rocks and dust, and the sky with swirling, vibrant nebulae. The overall feeling should be one of classic, over-the-top science fiction, prioritizing visual impact and pulp aesthetic over strict realism. High resolution, cinematic lighting, detailed textures, and focus on dramatic perspective.
A breathtaking science fiction book cover illustration in the style of Frank Frazetta and Peter Elson, depicting a powerfully built, dark-skinned woman as the central figure. She stands confidently in a desolate, futuristic desert landscape, adorned with a shimmering gold halo-like headpiece and a torn, golden garment draped over her shoulders, paired with a minimalist, pale yellow bikini bottom. Her gaze is direct and commanding, radiating strength and mystique. Behind her, a line of imposing, armored figures in dark blue futuristic suits with visors, hold advanced weaponry, suggesting a tense standoff.
The background features a sprawling cityscape of bizarre, alien architecture – towering, bulbous structures with intricate details and rounded domes, rendered in muted browns and beige. The lighting is dramatic and vibrant, with a warm, golden glow highlighting the woman and casting long shadows across the dusty terrain. The overall mood is one of exotic danger and heroic defiance, capturing the essence of a classic pulp science fiction novel cover. Focus is on the woman, she should be dominant in the image.
Art style: hyperrealistic, detailed painting, vintage sci-fi illustration, 1970s aesthetic, highly saturated colors, dynamic composition, emphasis on anatomy and form. The image should evoke a sense of grand scale and cinematic quality, as if ripped from the cover of a forgotten science fiction masterpiece. Medium: oil on canvas, digitally painted with meticulous attention to detail. Aspect ratio 3:4.
>>1507184 Мне проверить сейчас не на чем, я это говнище ёбнул ещё пару дней назад. Я просто брал промты от турбы и менял модель. Кстати я юзал модель фула от автора турбы. Я не знаю насколько сильно она отличается от тру-базовой, думаю что не сильно, но результат меня разочаровал.
>>1507121 > допустим 16х9 и чуть больше, вертикальне персонажи как-бы становятся более кряжистыми Признавайся. Опять где-то теории начитался и принял за чистую монету?
>>1507214 > щас на примере сказочной дварфихи покажем А какая альтернатива? Будем верить рандому, который со времен 1.4 не осилил промптинг 1girl standing?
>>1507172 Узконаправленный трейн без слопа или серьёзного вмешательства в датасет, и то я почему то уверен, что даже так вышло не с первой попытки. Как ты такой слоп промптишь? Мне прямо интересно, в дефолте же нету вроде
>>1507228 На первом пике девушка гораздо стройнее, даже со светофором) То есть ты решил заполнить пространство предметом, дабы девуку не растянуло, респект за смекалочку) я бы так и сделал. Но не вижу смысла в этом, если модель лажает на такой хуйне, то смысл держаться за неё усираясь? Тебе платят за это как девушке Билла Гейтса?
>>1507158 >>1507172 Вы чё нубай проспали? Я уж не говорю про хрому, понятно что это бомжи пишут. Чтобы такую хуйню называть ебёт... Не ужас, но модель ни туда, ни сюда. >гунерские анимушники сделали ебущую модель Всего лишь тюн модели Cosmos от ноунеймов (Nvidia)
>>1506605 Ну, это ты зря. Рядовая девочка-унитазочка как не ставила Фотошоп, так не ставит и какую-то там непонятную модель. Ходят и кланяются до сих пор все к тем же людям. Только люди эти перепрыгнули с фотолавки на слоподавку.
>>1507232 Ты совсем дурак? Дельфины живьем рожают, а не яйца откладывают. Видишь, я тоже так могу. Придумать за тебя аргумент и с треском его разъебать. Промпт там один. Всё одинаковое, кроме аспекта. То, что там качество говно, я и без тебя вижу, но мы обсуждали не это. Одеть тапки и головной убор - прием еще с той самой 1.4, про которую ты говорил. Какая нахуй смекалочка?
>>1507246 > убери нахуй светофор Нахуя? Ты хочешь, чтобы все промптили, как ты, а потом ныли, что модель чего-то ниможит? На флаксе/хроме/клайне тоже 1girl standing, red hair промптишь?
>>1507235 >Вы чё нубай проспали? Нубай это сдохля обоссаная, вследствие чего нубай всратый кусок калыча на рандоме не слушающийся промтинга, требующий стену спам текста, если не прибегать к убыстрялкам. На аниме я просто пишу удобный мне промт и получаю что мне нужно. >Я уж не говорю про хрому, понятно что это бомжи пишут Хрома сось глоть делает, у лодестоне ест гораздо более гибкая и чуткая модель под названием радианс, но генерит еще дольше чем хромакал. >Чтобы такую хуйню называть ебёт... Не ужас, но модель ни туда, ни сюда Обесценивание от хромакаложора интенсифайс. >Всего лишь тюн модели Cosmos Да я вижу. Вопрос был в другом.
>>1506665 Это троллинг какой-то, надеюсь? Ну, в данном случае образы выглядят как будто их специально для китч-фильма категории Б готовили. Ладно сама баба, но что с этой одеждой? Она максимум несуразная, как будто собрали в кучу элементы разных костюмов и склепали их вместе кое-как и чем было. Надеюсь, это твой skill issue, а не особенности модели или конкретного промпта.
Что за чернота на втором пике в районе таза на пузе? Гуталином вымазалась перез съемкой? На третьем пике одна грудь некрозно-варикозная, и костюм - какой-то длинный пушистый плоский длинночервь, которого намотали на туловище.
В целом, это какой-то визульный пиздец. Если это не специально сделано, то лол...
>>1506705 Попробуй через GGUF - кванты и Nunchaku. Редактировать не факт что хватит, но на генерацию должно точно хватить. Сборка только через Комфи, остальное забудь. Или ты научишься им пользоваться, или будешь обходиться полумерами. А вообще, меня видимокарту хотя бы на 8-12 Гб.
>>1507205 Всрато же. Замылило все, резкость потеряна, на персонажах очень сказывается. Возможно, лучше генерить на 1 : 1 а потом просто кадр раcширять? Теоретик, если что.
>>1507260 >Нахуя? >>1507232 >То есть ты решил заполнить пространство предметом, дабы девку не растянуло, респект за смекалочку) >>1507256 >кок-пок, не виноватая я, он сам пришёл... хахах, как-же меня забавляют все эти виляния жопой) ну ведь ты видишь, что на большой высоте кадра выходит elongated body (даже модель знает про этот обосрамс и пытется как-то выкружить), нахуя ты упираешься, у тебя така фишечка: выйграть любой спор во чтобы ни стало, чтобы что? зачем ты так усираисся? >>1507298 кстати, кто-нибудь пробовал аутпейнтить на зетке???
>>1507298 > Всрато же На второй z-image-base, у которой свои тараканы. Хз, че тебе не нравится на первой, учитывая, что там 640 пикселей высота и на ебало, например, там всего 64х64 пикселя. > Замылило все, резкость потеряна, на персонажах очень сказывается faded film, Super 16mm film в промпте. > Возможно, лучше генерить на 1 : 1 а потом просто кадр раcширять? Не лучше. Лечится апскейлом. Аутпейнт приносит кучу своих проблем, которые лечить сложнее, чем низкое разрешение.
>>1507264 >лодестоне ест гораздо более гибкая и чуткая модель под названием радианс Что ты порешь. Это абсолютно тот же кал, только работающий ещё более криво, на сравнения сосёт у себя же.
Она даже руки нарисовать нормально не может. Надеюсь, это проблема текущей неполной версии. Впрочем, по стилям и цвету действительно неплохо, на что-то точно сгодится.
>>1507435 Так про неон просто шутка, видно же, в разных стилях картинки в треде. Основная претензия к рукам, слоп в этом проявляется. И детали кое-какие плавают. Вообще, интересная модель, если не проебутся в дальнейшем, у нее должно быть будущее. Ну и от лицензии зависит, проебутся с ее развитием или нет.
>>1507333 >>1507432 >>1507445 Можете ржать, но именно для упрощенных аниме стилей - это в порядке вещей. Мясные тоже часто так рисуют (4 пальца в упрощенной рисовке дают более изящную ладонь с малыми усилиями), в датасетах 100% попадалось, так что сетка это и выучила. :) В смысле - это не тупо артефакт самой сетки, а GIGA.
селебы в Z-турбе
Аноним02/02/26 Пнд 15:41:57№1507473481
>>1507446 А то ты типа не видишь разницы, проффессор, блядь... ладно, похуй на тебя, на говноеда. --------------------- интересное наблюдение: конкретно билл гейтс (не лора), за других не знаю, существует там в виде какого-то спрайта (картонной фигуры), на которого почти не влияет окружение, я уже полчаса пытаюсь заставить эту падлу таращится на девку, но он продолжает gaze at viewer, чтобы я ему не писал, это пиздец... выражение рожи-лица всегда примерно одно и тоже, что с этим делать я х.з.
на пикриле: один случайны из 30-ти попыток заставить его смотреть даже не на девушку, а куда-то в хотя-бы в сторону от зрителя. В промте нет ничего про (((eye contact:1.5))) если из промта убираю его имя, то всё как по маслу смотрит вертит башкой сколько угодна и как угодно, стоит вернуть, всё, пизда...
>>1507308>>1507436>>1507473 Ты лучше распиши, как у тебя получается чуть ли не на клоусапах консистентно выдавать такой слоп? Распиши подробно весь процесс, пожалуйста, чтобы ньюфаги знали чего точно остерегаться. Может твой гайд потом в шапку добавят еще, уж тогда тебя точно никто вниманием не обделит.
>>1507476 Жаль, что мы так и не увидели начальника транспортного цеха на нашем собрании, и его шедевральных контепорари бьютифул воркс, и не увидим судя по всему, он так и будет откуда-то из под стола подгавкивать изредка. Но я думаю мы как-нибудь привыкнем к этому, ещё ни к такому привыкали...
>>1507473 >если из промта убираю его имя, то всё как по маслу смотрит вертит башкой сколько угодна и как угодно, стоит вернуть, всё, пизда... Бля, я пруф забыл: просто old guy вместо Bill Gates
>>1507918 Не у всех есть 5090 и 128 гиг памяти, и вообще, шел бы ты нахуй со своей новой сверх-ценной базовой манечкой, если у тебя дурака хватило ума поставить это тошнилоао, это не значит, что все вокруг должны по твоему свистку всё поудалять нахуй, а потом по 5 минут генерить 1гирл 640х640.
>>1507931 Угу, вот такие там и сидят как раз, с подобными мыслями.
Для тренировки, по нужным ресурсам - что база, что дистил - практически идентично. А лора правильно натрененная на базе, потом работает на дистиле. Только лучше. И на всех файнтюнах ZIT тоже, а не только на оригинальной ZIT.
>>1508157 > зайти в рандомный тред и написать /nf Как же вы заебали. Достаточно написать что угодно в доску https://2ch.su/test/ . Не надо срать везде этими своими nf.
Комрады, подскажите по быстрому на чём сейчас актуально тренировать лору на digital 2d стиль, не аниму. Смогёт ли Z-Image-Turbo в годные иллюстрации или по старинке на SDXL?
Чет я малость в ахуе с этой анимы. Обычные чекпоинты на люстре ~6,6Гб (AIO), Анима же ~2,5Гб+1Гб квен енкодер. В джва! раза меньше получается, а ебашит как настоящая. Получается скоро нейронка на дискету влезть сможет?
Ну еще вопрос. Анима работает только со своим qwen_3_06b, а с qwen_3_4b выдает ошибку умножения. Почему так? Хотелось промптить на великом-могучем.
>>1508244 > Получается скоро нейронка на дискету влезть сможет? Есть нейрокалы которые на новых снапдрагонах работают уже. Но тут скорее анима показывает что гнаться за параметрами это шиза, можно эффективно тренить небольшое количество параметров и ебать всё. Ну и наверно космос в целом удачная архитектура.
> Ну еще вопрос. Анима работает только со своим qwen_3_06b, а с qwen_3_4b выдает ошибку умножения. Почему так? Хотелось промптить на великом-могучем. Словофомы переводятся в ембединги которые воспринимаются весами, которые были натренены с текстовым енкодером. Другой енкодер физически нельзя подставить.
>>1508204 1. Любой чекпоинт основанный на пони в6 с подходящим тебе выводом. 2. Турбо зимага нормально тренируется на стили. 3. База зимаги тоже, но на базе долго генерировать, а с турбой лоры от базы не работают.
>>1508348 >с турбой лоры от базы не работают Реально? Выходит зря ждали, хуй обучишь лоры, база для крупных файнтюнов, чтобы их потом превратить в турбо и уже на них обучить лору.
>>1508456 Видом интерфейса. Ноды и лапша в комфи, классические слайдеры и блоки в фордже. Возможностями кастомизации и модульностью. На комфи ты хоть что можешь сваять, на форде все более зарегулировано (но тоже многое можно, пусть и сложнее). Доступные архитектуры и типы моделей сюда же. Если используешь классику по типу sdxl и моделей на ее базе - сойдет фордж. Если нужны флюкс, квен или ван - есть forge neo с поддержкой этих моделей. Если нужно еще больше, включая генерацию речи от того же квена - уже только комфи. Либо отдельные интерфейсы по типу угабуги или эндфрейма.
>>1507089 >>1508529 >>1507922 Неиронически интересно, каков ход мысли, когда вы постите сюда подобное. "Вау, какая красивая картинка получилась, покажу анону, пусть тоже порадуется красивой картинке!" — как-то так, или некая другая мысль?
>>1508593 Лично я постирую в тредж когда у меня получается что-то, что раньше в сеточке не получалось. И раз в полгода у меня даже интересуются стилем, промптом, моделью. Очень приятно.
>>1507472 Это упрощение не должно случаться само по себе. Сейчас избыток моделей, которые просто что-то генерируют, и делают это вполне сносно. Картинка получается качественной, особенно в 2д-рисовке, этого уже на СДХЛ добились. А вот моделей, которые максимально послушны, до сих пор нет. Нейросеть должна из датасета доставать то, что у нее попросили, а не то, что получилось достать и всучить пользователю. От Анимы ожидают того, что она будет слушаться промпта и разнообразия стилей, посольку все прочее (и даже стили) и так уже есть в других моделях для 2д - генерации. Ранообразие стилей она предоставляет, а вот слушается пока не очень, судя по отваливающимся пальцам и кривым руками, но все же лучше, чем СДХЛ, и это уже хорошо. Еще бы было неплохо, если бы она умела держать стиль на несольких картинках, это тоже важно. Поскольку с этим есть проблемы на других моделях. Без лор, разумеется.
>>1508755 >Это упрощение не должно случаться само по себе. В случае нейросети, зашквар будет только если ты прямо запромптил: "five fingers", а она тебе 4 выдала. Потому, что сетка - не телепат, ничего тебе не должна, и "по умолчанию" она просто достраивает то, что похоже на уже имеющееся по промпту в процессе, на основе датасета. Вот если она реально промпта не слушается - это косяк. А так - свой "характер" у каждой сетки есть, из особенностей датасета сформированный.
>>1509013 Не обесценивай. Турба целенаправленно обучалась быть турбой, поэтому лоры несовместимы с базой, а тут костыль для модели, которого не должно быть.
>>1508841 Может оно и верно, однако какое число пальцев рисуется по умолчанию в аниме? Разве 4, а не 5? Я понимаю, все эти особенности работы связаны с архитектурой, но все-таки нейронки ж косячат не только в пальцах, а в куче других мест, где не должно быть разночтений и вроде как подразумевается конкретный результат по умолчанию. Иначе дело дойдет до асбсурда и для них всегда надо будет писать исчерпывающий промпт на пару миллионов символов.
>>1508843 Да ничего не мешает, и лоры ничего не мешает использовать и миксы нейронок, и другие инструменты. Но хотелось бы точности исполнения промпта из коробки, причем не только мне, я уверен. Должно же это когда-то случится.
>>1508755 > доставать то, что у нее попросили Хуйню сказал. Текст имеет слишком много неопределённостей. Достаточно большой текст к тому же полон противоречий. Сеточки, по крайней мере text2image, принципиально не смогут твоё "нарисуй то незнамно что, 8к, мастерпис" интерпретировать один в один как ты в своей тыкве нафантазировал.
>>1509190 >пик Интересно, вот как выглядит ее промежность без трусов? Я просто пытаюсь представить что там у нее в этом большом "трусарди-кошельке", похожем на титьку. Я наверно не так много эротики видел в своей жизни. Правильная ли у нее анатомия "того" места
>>1509162 >Может оно и верно, однако какое число пальцев рисуется по умолчанию в аниме? Разве 4, а не 5? Если бы в датасете были бы только "про" работы - вопросов бы не было. А там же дикий микс всего и вся, вплоть до простых cartoon и любительских додзи. Посмотри в гугл картинках по запросу "Homer Simpson" например. :) Анимешным чибикам тоже часто такие руки рисуют. Не так, чтобы чаще нормальных, но достаточно, чтобы сетка заучила как возможность при упрощенном стиле.