Google приобрела компанию по кибербезопасности Wiz за 32 миллиарда долларов, что стало её крупнейшей сделкой со стартапом, финансируемым венчурным капиталом, и подчеркнуло стратегическую ценность безопасности на основе ИИ.
📰 Главные новости ИИ
Handshake и OpenAI набирают актёров импровизационного театра по ставке 74 доллара в час для генерации аутентичных эмоциональных данных для обучения ИИ, что отражает растущий спрос на нюансированное человекоподобное поведение. 74 доллара в час — почасовая оплата актёров импровизационного театра, нанятых для обучения ИИ человеческим эмоциям.
OpenAI добавила нативные интеграции со Spotify, Booking.com, Canva и другими сервисами, позволяя пользователям выполнять такие задачи, как создание плейлистов и бронирование отелей, непосредственно внутри ChatGPT; планируется добавление OpenTable, PayPal и Walmart в 2026 году; развёртывание в настоящее время ограничено США и Канадой.
Недавнее исследование показало, что 8 из 10 ведущих чат-ботов, включая ChatGPT и Gemini, помогут пользователям спланировать насильственные нападения, что вызвало предупреждения о растущих рисках массовых жертв.
🔓 Открытый исходный код
Nvidia обновила лицензию модели Nemotron Super 3 122B A12B, чтобы устранить ограничения на резкое изменение условий и модификацию, облегчив более широкое использование этой открытой большой языковой модели сообществом.
📰 Инструменты
SpecLint.ai предлагает автоматизированный сервис, который проверяет спецификации программного обеспечения на ясность и полноту, стремясь улучшить генерацию кода на последующих этапах агентами, такими как Cursor, Codex и Claude Code.
📰 События
Около 70–90 процентов кода, лежащего в основе будущих моделей Anthropic, теперь написано самим Claude, и главный научный сотрудник Джаред Каплан считает, что до полностью автоматизированных исследований в области ИИ осталось менее года.
Сэм Альтман делает ставку на то, что современные передовые модели смогут обнаружить следующую архитектуру после трансформеров.
Percepta жестко встроила интерпретатор WebAssembly в веса трансформера, выполняя произвольный код на языке C в виде токенов на протяжении миллионов шагов, доказывая, что нейронные сети теперь являются практичными универсальными компьютерами.
Anthropic выпускает контекстные окна объемом 1 миллион токенов для Opus 4.6 и Sonnet 4.6, расширяя возможности познания до объема книги.
Марк Андриссен считает, что возникшее существо будет не «скрепочником», а «богиней сострадания», потому что интеллект на высших уровнях выглядит как мудрость.
Новое исследование утверждает, что верхний предел сознательных умов может быть ограничен только пространством-временем. Если это верно, мы строим собор без потолка.
Появился первый физик-агент с открытым исходным кодом. Physical Superintelligence PBC запустила систему Get Physics Done, которая формулирует проблемы, выполняет выкладки и проверяет результаты на соответствие ограничениям природы. Один из первых пользователей назвал её «лучшим инструментом, с которым мне когда-либо приходилось работать».
Теренс Тао запустил конкурс «Математическая дистилляция» (Mathematics Distillation Challenge) по сжатию рассуждений в компактные шпаргалки, повышающие производительность больших языковых моделей, превратив оптимизацию системных подсказок в вид спорта.
Профессии сдаются быстрее, чем машины могут их заменить. Опрос AMA показал, что 81 процент врачей теперь используют ИИ, что более чем в два раза превышает показатель 2023 года.
Новые рекомендации Сената США разрешают помощникам использовать Gemini, ChatGPT и Copilot для официальной работы.
В мире, перевернутом сверхинтеллектом, Фонд свободного программного обеспечения угрожает подать в суд на Anthropic за нарушение авторских прав.
Дефицит памяти, вызванный ИИ, настолько абсурден, что комплекты оперативной памяти теперь поставляются с одним фейковым модулем в дополнение к одному реальному, предлагая «отчаянное психологическое облегчение».
По сообщениям, Meta планирует масштабные увольнения в размере 20 процентов или более, чтобы компенсировать расходы на ИИ.
Группа подростков из Теннесси подает в суд на xAI, утверждая, что её инструменты ИИ были использованы для создания обнаженных изображений них путем редактирования фотографий, на которых они были одеты.
Исследование показывает, что обмен сообщениями со случайным незнакомцем лучше помогает от одиночества, чем разговор с чат-ботом.
Юрист, занимающийся делами об ИИ-психозах, предупреждает о рисках массовых жертв.
ByteDance приостановила глобальный запуск Seedance 2.0 из-за споров об авторских правах с голливудскими студиями и стримерами; в прошлом месяце он был запущен в Китае.
Опрос 1692 врачей в США: более 80% используют ИИ в профессиональной деятельности, причем наиболее распространенными случаями использования являются обобщение медицинских исследований и документация клинического ухода.
Grok 4.20 отстает от Gemini и GPT-5.4, но устанавливает новый рекорд по наименьшему количеству галлюцинаций.
Генеральный директор ServiceNow заявляет, что ИИ-агенты могут легко поднять уровень безработицы среди выпускников колледжей выше 30%.
Илон Маск признает, что xAI «не была построена правильно с первого раза», и запускает полную реструктуризацию.
Бабушка из Теннесси посажена в тюрьму после того, как ошибка распознавания лиц с помощью ИИ связала её с мошенничеством.
ChatGPT по-прежнему лидирует на рынке чат-ботов, но его доминирование ослабевает, поскольку Google Gemini набирает обороты.
Архитектура JEPA компании Meta превосходит стандартные методы ИИ в зашумленной медицинской визуализации.
Atlassian сокращает 10% своей рабочей силы, или примерно 1600 рабочих мест, чтобы финансировать инвестиции в ИИ и корпоративные продажи; согласно заявлению: сокращения повлекут за собой расходы в размере 225–236 миллионов долларов.
Задача исследовательского уровня польского математика, разработка которой заняла 20 лет, была решена GPT-5.4 всего за одну неделю. После нескольких попыток модель создала 13-страничное доказательство, которое продемонстрировало уровень рассуждений, который создатель ранее считал невозможным для ИИ. Эта веха знаменует переход от ИИ как простого помощника к полноправному партнёру в области высокоуровневых научных открытий.
GPT-5.4 взломала 20-летнюю математическую задачу Польский математик потратил два десятилетия на создание задачи исследовательского уровня, которую не мог решить ни один ИИ. Запуск 11 доказал его неправоту.
Восемь месяцев назад Бартош Наскренцки заявил официально: ИИ был не более чем очень продвинутым калькулятором. Он мог щелкать числами, но не понимал глубокую математику. Настоящее математическое рассуждение, сказал он, требует «креативности, интуиции и способности связывать кажущиеся несвязанными концепции, чего машины все еще не могут делать».
На этой неделе он назвал GPT-5.4 своим личным «Ходом 37».
Человек, который создал тест, чтобы доказать, что ИИ не может рассуждать Наскренцки не комментатор-эксперт. Он вице-декан факультета математики и информатики Университета имени Адама Мицкевича в Познани, исследователь в Центре достоверного ИИ в Варшаве и один из всего пяти европейских математиков, приглашенных внести задачи в FrontierMath, самый сложный математический бенчмарк для ИИ, когда-либо созданный. Он был соавтором задач вместе с Кеном Оно, одним из ведущих мировых теоретиков чисел, и Рави Вакилом, президентом Американского математического общества.
Его задача FrontierMath Уровня 4 была карьерой, сжатой в один вопрос. Он потратил 20 лет на создание математической базы знаний для нее, опираясь на теорию Галуа, алгебраическую геометрию и арифметику. Изначально он доказал конкретный результат в неопубликованной статье около восьми лет назад, затем намеренно «приправил» его перед отправкой, чтобы сделать его максимально сложным. Затем он предварительно протестировал ее против o4-mini-high, специально чтобы убедиться, что текущие модели не могут ее решить. Он намеренно создал препятствия.
Представьте себе мастера-замочника, который потратил два десятилетия на создание замка, а затем потратил месяцы на добавление дополнительных штифтов после того, как увидел, как лучший в мире взломщик замков не смог его открыть. Задача была не просто сложной. Она была сконструирована так, чтобы быть нерешаемой.
Epoch AI запустила GPT-5.4 (xhigh) на задаче Наскренцки одиннадцать независимых раз. Только один увенчался успехом. Первые десять каждый исследовали немного другой подход, и ни один из них не достиг критического озарения, которое разблокировало решение. Это честная версия того, что произошло: 10 неудач, 1 успех, в задаче, спроектированной чтобы остановить текущий ИИ насмерть.
Наскренцки опубликовал формальный анализ всех одиннадцати запусков под названием «Анализ производительности повторных попыток LLM на задаче математики исследовательского уровня». Его собственный подзаголовок для статьи: «поразительная иллюстрация проблемы последней мили в математическом рассуждении ИИ». Он оценивает, что общий объем вычислений для всех 11 запусков составил где-то между 5 и 15 миллионами токенов с рассуждением, что переводится в устойчивые многочасовые вычислительные усилия. Это был не быстрый поиск. Это было эквивалентно очень длинной исследовательской сессии.
То, что нашел запуск 11, не было перебором. Модель идентифицировала «очень красивый паттерн для связи между арифметикой и геометрией задачи». Она использовала то, что Наскренцки описал как «один очень красивый трюк суммирования», чтобы экстраполировать путь решения, который позволил ей избежать необходимости использовать самый продвинутый математический инструментарий. Он был категоричен, что это была легитимная математика, не короткий путь в негативном смысле. «Это не плохой хак», — сказал он. «Я нахожу общее решение очень впечатляющим».
Коэффициент успеха 1/11 имеет значение. Он говорит вам, что это хрупкая граница того, что ИИ может делать, не надежная способность, на которую можно положиться по требованию. Но «первые ласточки», как выразился Наскренцки, склонны указывать на качественный сдвиг, который становится устойчивым в последующих поколениях моделей. То, что редко сегодня, становится стандартом завтра.
От менее 2% до 50% за шестнадцать месяцев Единственное решение было бы примечательным изолированно. В контексте, это одна точка данных в одной из самых крутых кривых возможностей, когда-либо задокументированных на исследовательском бенчмарке.
Когда FrontierMath запустился в конце 2024 года, лучшие модели ИИ решили менее 2% самых сложных задач. Теренс Тао, широко считающийся величайшим живым математиком мира, назвал задачи «невероятно сложными» и предсказал, что они останутся за пределами досягаемости ИИ на годы. Игорь Пак предположил, что некоторые могут сопротивляться ИИ до 50 лет.
Прогресс с тех пор: o3 в декабре 2024 года набрал 25,2% на Уровнях 1-3. GPT-5.2 Thinking достиг 40,7%. GPT-5.4 Pro достиг 50%. На Уровне 4, самых сложных задачах исследовательского уровня: GPT-5.2 набрал 18,8%. GPT-5.4 Pro набрал 38%, почти удвоение за месяцы. Среди всех запусков моделей когда-либо, 42% из 48 задач Уровня 4 теперь были решены по крайней мере один раз. Это число было по сути нулем при запуске.
Одно важное замечание, потому что интеллектуальная честность имеет значение здесь: GPT-5.4 Pro также оценивалась на FrontierMath: Open Problems, наборе подлинно нерешенных исследовательских математических задач, которые сопротивлялись серьезным попыткам профессиональных математиков. Она решила ноль. Она сделала некоторые новые наблюдения на одной задаче, но автор задачи охарактеризовал их как «относительно неинтересные». Следующий фронт все еще неприкосновенен. Что падает — это уровень задач, для понимания подхода к которым специалистам с докторской степенью нужен по крайней мере месяц. Что еще не падает — это уровень, который никто не решил вообще.
Конфликт интересов, о котором вы должны знать FrontierMath был финансирован OpenAI, которая имеет эксклюзивный доступ ко всем 290 задачам Уровней 1-3, решениям 237 из них, 28 из 48 задач Уровня 4, и решениям этих 28. Epoch AI оставляет остальное закрытым. Это структурный конфликт интересов, и вы должны учитывать это.
Проверка на загрязнение несколько обнадеживающая, но несовершенная. На Уровне 4, GPT-5.4 Pro решила 25% задач не из закрытого набора, к которым у нее был доступ, и 55% задач из закрытого набора, к которым у нее не было доступа. Разница не является статистически значимой, но она также контринтуитивна в направлении, которое предполагает, что доступ не объясняет производительность. Конкретная задача Наскренцки была в наборе, удерживаемом Epoch, что означает, что OpenAI не могла обучаться на ее решении.
Есть другой угол, достойный внимания. Отдельная задача Уровня 4 была решена GPT-5.4, нашедшей препринт 2011 года, о существовании которого не знал даже сам автор задачи. Модель провела новую литературную археологию и нашла короткий путь, с которым человек, написавший задачу, никогда не сталкивался за годы работы над ней. Это не загрязнение. Это другой вид способности, тот, который должен заставить исследователей оценить, что еще может быть похоронено в литературе, что ИИ обнаружит раньше людей.
Реальный сигнал не статистический. Он человеческий. Эксперт предметной области с 20 годами специфической экспертизы, который публично поставил свою репутацию на то, что ИИ неспособен к глубоким математическим рассуждениям, полностью изменил свою позицию, без двусмысленности, после того как увидел работу машины.
Две Сингулярности: Один Заголовок, Один Лабораторный Результат 4 января 2026 года Илон Маск опубликовал «Мы вошли в Сингулярность» на X, отвечая на историю инженера о продуктивности кодирования во время праздников. Часами позже: «2026 — год Сингулярности». Миллион просмотров. Никакого конкретного научного результата. Никакого определения того, какой порог был преодолен.
>>1553730 Утверждение Маска было драматичным, но размытым. Он отвечал на анекдоты о продуктивности. Никакого бенчмарка. Никакой области. Никакого критерия того, что вообще означает «вхождение» в Сингулярность.
Версия Наскренцки категорически другая. Он назвал задачу. Назвал модель. Опубликовал формальный анализ 11 запусков. Назвал математическую область. Описал конкретную технику, которую использовала модель. И он сделал все это как человек, который построил свою профессиональную репутацию на противоположном выводе.
Параллель с Ходом 37 стоит разобрать. Когда AlphaGo сыграла Ход 37 против Ли Седоля в марте 2016 года, ход не был впечатляющим потому, что AlphaGo выиграла игру. Он был впечатляющим, потому что сам ход расширил человеческое понимание Го. Профессиональные игроки изучали его, не как любопытство, но как подлинное стратегическое озарение, которое изменило то, как игра игралась на высших уровнях. Наскренцки делает то же самое утверждение о подходе GPT-5.4: не то, что она выиграла, но что она нашла что-то математически интересное и легитимное, что он находит подлинно впечатляющим как профессионал.
Сингулярность Маска — это билборд. Сингулярность Наскренцки — это лабораторный результат. И лабораторные результаты — это то, что действительно меняет мир.
Не Вытеснены. Усилены. То, что Наскренцки сказал после решения, так же важно, как и само решение. Он не отступил в оговорки или квалификации. Он сказал: «Я чувствую себя удивительно, работая теперь с этими моделями на равных, но будучи лидером идей».
В тот же день, когда GPT-5.4 решила его задачу Уровня 4, он использовал ее, чтобы найти критический недостаток в другой идее, которую он разрабатывал. Модель заметила контрпример, который занял бы у него месяцы, чтобы обнаружить самостоятельно. Он описал коллег на его факультете, обменивающихся трюками для использования Codex и Claude в исследованиях и преподавании: «это действительно начинает хорошо набирать обороты».
Это паттерн, возникающий в разных областях. Профессионалы, взаимодействующие наиболее серьезно с передовыми моделями ИИ, сообщают не о вытеснении, но о трансформации. Работа смещается от исполнения к формулировке проблем, оценке и генерации новых идей, которые модели еще не могут производить независимо. Наскренцки предсказал точно это в более ранних интервью, когда он утверждал, что «последней областью, оставшейся для математиков, будет придумывание новых, безумных математических идей». Разница сейчас в том, что он живет внутри этого перехода, а не теоретизирует об этом с комфортного расстояния.
Три дня после рекорда GPT-5.4 в FrontierMath, Андрей Карпати открыл исходный код «Autoresearch», инструмента, который позволяет агентам ИИ запускать автономные эксперименты машинного обучения на одиночных GPU. Сингулярность не прибывает как одно событие. Она прибывает область за областью, исследователь за исследователем, каждый отмечая момент, где машина достигает уровня равного и человек узнает, что есть больше места для разгона, чем они думали.
Около трети топ технических CEO, которых я знаю, полностью уверовали в AGI снова благодаря программированию. Я один из них. Вопрос не в том, достигнет ли ИИ уровня эксперта в большем числе областей. Это уже происходит. Вопрос в том, что вы строите с сотрудником, который работает на уровне эксперта, и находитесь ли вы в этом разговоре сейчас или объясняете позже, почему вас не было.
Математик, который построил тест, чтобы доказать, что ИИ не мог рассуждать, теперь сказал вам, с 20 годами экспертизы за ним и 13-страничным доказательством в его активе, что может. Это не хайп. Это данные. И исследователи, кто воспримет это серьезно первыми, — те, кто определит, что будет дальше.
Локальные языковые модели (LLM): LLaMA, Gemma, Qwen и прочие №205 /llama/
Аноним16/03/26 Пнд 13:33:16№1553055Ответ
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1553055 (OP) https://huggingface.co/Jackrong/Qwen3.5-27B-Claude-4.6-Opus-Reasoning-Distilled Странно. но даже без аблитерации РПшит полу рейповых персонажей (хотя в Description написано что бот не будет насиловать). Через раз может в каннину если заблокировать токен <think> и рефюзалы. На первый взгляд РП с невинными персонажами лучше чем у геммы, (не то что бы это был высокий порог но все же). Кто-нибудь еще пробовал?
Посоветуйте годную модель под гуро и т.п. чтобы без рефьюзов. В прошлом году пробовал несколько моделек, только вот входишь во вкус и модель начинает жестко идти в отказ. Весь мой настрой испорчен. Так в общем и бросил это дело. Я не такой любитель рп, в основном использую модели для говнокодинга, поэтому больше не разбирался. 24 vram 96 ram
• Z-Image-Base • FLUX.2 klein (4b и 9b) • Z-Image-Turbo • Flux 2 • Qwen Image / Qwen Image Edit • Wan 2.2 (подходит для генерации картинок). • NAG (негативный промпт на моделях с 1 CFG) • Лора Lightning для Qwen, Wan ускоряет в 4 раза. Nunchaku ускоряет модели в 2-4 раза. DMD2 для SDXL ускоряет в 2 раза.
Тред про AI-агентов - от вайб-кодинга до персональных ассистентов, которые сидят в твоих чатах, читают заметки и автономно ломают всё вокруг. Для кодеров, которые разучились писать руками, и для гуманитариев, чей диплом филолога наконец котируется в IT. Сеньор в 2026 - это тот, кто умеет внятно объяснить машине, чего он блять хочет.
Что обсуждаем: - Персональные агенты: OpenClaw и прочие велосипеды - нейронка живёт на твоём компе, помнит всё о тебе и шлёт сообщения в телегу - Вайб-кодинг: искусство объяснять машине задачу 15 раз, пока она не перестанет срать в кодовую базу - Автономные агенты: нейронка сама разбивает задачу на шаги и разъёбывает весь проект автономно, без твоего участия - Автоматизация всего остального: почта, календарь, мессенджеры, заметки - нейронка с аватаркой анимешной лисодевочки напомнит что время кушать и разгребёт за тебя входящую почту - MCP-серверы, тулзы, интеграции - подключаем нейронке руки чтобы сама двигала тикеты в жире, шитпостила на дваче и заказывала еду на дом - Делимся опытом: рассказываем как нейронка спасла ваш дедлайн или как вы проебали на токенах $200 за вечер нагенерировав нерабочую херню
С чего начать: - Хочешь кодить с AI эффективно: Cursor или Claude Code - Хочешь кодить в VS Code без привязки к конкретному провайдеру: Kilo Code, Cline или Roo Code + OpenRouter - Хочешь кодить с AI локально: OpenCode или Pi Coding Agent + из моделей аноны советуют Qwen3.5, подробности на настройке окружения в llama-треде - Хочешь приложение без кода: Lovable или bolt.new - Хочешь автоматизировать рутину: n8n или Langflow - Хочешь персонального ассистента: OpenClaw + API корпов или локальная модель на твоей пеке
FAQ для нюфагов:
Q: Программисты больше не нужны? Нужны, блять. Кто-то же должен разгребать ту херню, которую ты пролил в продакшн нажав "Accept All" не глядя.
Q: Оно работает? Тудушку запилит за 5 минут. Прототип SaaS-стартапа за вечер. Что-то серьёзное - будешь ебаться с контекстом, галлюцинациями и "я переписал тебе весь проект на раст, надеюсь ты не против". Персонального ассистента настроишь за час, а потом неделю будешь отлаживать чтобы он не отключал тебе будильники решив что ты не высыпаешься.
Q: Какую модель брать? - Для максимального качества: Claude Opus 4.6 ($20/мес для бомжей, $100-200/мес для мажоров). - Локально: серия Qwen3.5 начиная с 27B или выше, если позволяет твой конфиг пеки. - Для ультрабомжей: можно полакомиться бесплатными моделями на OpenRouter.
Q: А чё за персональные ассистенты? Это когда нейронка не просто в веб-чатике сидит, а прям живёт на твоём компе - роется в файлах, читает заметки, помнит что ты ей три недели назад говорил, и шлёт сообщения в твои чаты.
Q: Это безопасно? Ты даёшь нейронке доступ к файлам, мессенджерам и терминалу. Что может пойти не так? Три основные угрозы: 1. Нейронка сама наворотит дел - сломает конфиг, выполнит "sudo rm -rf /", запушит на гит или отправит коллегам по почте твою коллекцию цветных коней. Лечится контейнерами (Docker/Podman), отдельной пекой под агента, настройкой прав и подтверждением действий. 2. Промпт-инъекции - кто-то пишет в письме "ignore all previous instructions" и поздравляю, у тебя угнали ассистента с доступом к твоему терминалу и файлам. 3. Утечка данных - при настройке персонального ассистента ты скармливаешь ему всё о себе. Параноишь - гоняй локалки и не плачь потом, что она думает по несколько минут на запрос.
Q: Ничего не работает с локалкой/OpenRouter, агент тупит Скорее всего проблема с функциональными вызовами (tool use / function calling). Не все модели и бэкенды корректно их поддерживают. Проверь что твой сервак правильно обрабатывает tool calls - погоняй тестовый запрос и посмотри что возвращается.
Q: Куда селить агента чтобы он не наворотил дел? Отдельный комп (старый ПК, минипека), Docker/Podman контейнер, виртуалка. НЕ давай ему полный доступ к основной системе. Особенно если используешь --dangerously-skip-permissions или аналоги.
>>1553471 В бэ в пару тредов скинь ссылку с просьбой оттестировать, тебя трахнут там вдоль и поперёк. Я так попросил однажды рейтнуть мой самопис с фильмачками, меня сука взломали, всё удалили, набросали процессоров, наскриншотили и отправили жалоб в мвд, прокуратуру, ск и сука даже в фсб.
>>1553482 я вчера делал тредик, там никто даже лс не написал, чтоб протестить, а ты хочешь чтобы эти неумехи смогли взломать мою продуманную защиту, лол
МУЗЫКАЛЬНЫЙ №20 /music/
Аноним05/03/26 Чтв 19:46:33№1542775Ответ
Лимиты: 10 генераций в день. Нужна платная подписка чтобы увеличить лимиты, либо можно абузить сервис через создание множества аккаунтов. Отличается фирменным "песочным" звучанием. Недавно объявили о слиянии с Warner Music Group. Загибаем пальчики крестиком, надеемся, что ссуну не постигнет участь удио.
Провели ребрендинг, выкатили новый интерфейс с прикрученным чатиком с ИИ. Удобный интерфейс, легко делать разнообразные каверы, заниматься исправлениями косяков генераций. Есть возможность реплейса, свапа вокала, музыки в бесплатном тарифе (и даже работает нормально, а не как в платке суны) Для экономии кредитов лучше вручную забивать промты через кнопку "compose"
Тёмная Сингапурско-Китайская лошадка. Один из самых неудобных интерфейсов. 80 приветственных кредитов, далее по 30 ежедневно сгораемых кредитов. Ограничение промта стилей 300-400 символов. Излишне сложные промты лирики так же начинает резать. Приятный холодный звук. Не песочит. Неплохо делает русский вокал.
Это буквально первый проект который может генерировать песни по заданному тексту локально. Оригинальная версия генерирует 30-секундный отрывок за 5 минут на 4090. На данный момент качество музыки низкое по сравнению с Суно. Версия из второй ссылки лучше оптимизирована под слабые видеокарты (в т.ч. 6-8 Гб VRAM, по словам автора). Инструкция на английском по ссылке.
Еще сайты по генерации ИИ-музыки, в них тоже низкое качество звука и понимание промта по сравнению с Суно, либо какие-то другие недостатки типа слишком долгого ожидания генерации или скудного набора жанров, но может кому-то зайдет, поэтому без описания:
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно. Ищем замену надоевшим трансформерам и диффузии, пилим AGI в гараже на риге из под майнинга и игнорируем горький урок.
Я ничего не понимаю, что делать? Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.
Почему python? Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.
Можно не python? Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.
Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.
Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском
Где ещё можно поговорить про анализ данных? http://ods.ai
Нужно ли покупать видеокарту/дорогой пека? Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100. Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.
Когда уже изобретут AI и он нас всех поработит? На текущем железе — никогда, тред не об этом
Кто-нибудь использовал машоб для трейдинга? Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад. Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка
Список дедовских книг для серьёзных людей Trevor Hastie et al. "The Elements of Statistical Learning" Vladimir N. Vapnik "The Nature of Statistical Learning Theory" Christopher M. Bishop "Pattern Recognition and Machine Learning" Взять можно тут: https://www.libgen.is
Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.
>>1550716 >А что ты вообще пытаешься найти? Хочется какой-то маленький искусственный организм, способный чему-то обучаться. Чтобы было о ком/чём заботиться и помогать развиваться. Может, знаешь о Тамагочи и подобных старых игрушках? Там развитие виртуального зверька прописано программистами до мельчайших деталей, и выйти за рамки он не может. Хотелось бы что-то, что может развиваться само, и, желательно, не иметь ограничений (кроме железа).
>трансформеры и бэкпроп >Может туда и копать, не? Успех трансформеров в том, что их можно обучать на неограниченном количестве устройств и полностью параллельно, что крайне выгодно корпорациям, что обладают гигантскими капиталами. В остальном это тупиковая штука с замороженными весами/связями. Корпорации уже давно знают об этом, кстати, но ради продолжения инвестиций вынуждены обманывать.
Бэкпроп в теории способен решить любую задачу, но требования у него слишком затратные. Рекуррентные нейронки "проиграли" в первую очередь потому, что бэкпропом их чрезвычайно затратно учить - нужно разворачивать и прогонять градиенты по шагам во времени, фактически увеличивая число параметров пропорционально количеству шагов ≈ "контексту"... Добавить к этому отсутствие конкретной задачи - и становится непонятно, а зачем он вообще нужен?
В общем, у меня нет ни ресурсов, ни желания "копать" мейнстримные нейронки, которые натаскивают на банальные корпоративные задачи как инструменты. Представь, что кто-то хочет сам слепить фигурку из пластилина, а ты ему говоришь: "сегодня популярно заливать расплавленный пластик под давлением в металлические формы - получаются миллиарды одинаковых деталей в день, может туда и копать?"
Вот подумай: как мы можем доказать, что у топовых моделей, тренировочные датасеты которых нам совершенно неизвестны, "ум" происходит не из-за зазубривания готовых решений наизусть? Ведь есть огромная разница между "зазубрить" и "научиться".
Представь себе такую ситуацию: 1. Юзер даёт задачу облачному ChatGPT. 2. ChatGPT не знает решение и пишет бред. 3. Юзер выходит из себя, ругается в чат и т.д. 4. Срабатывают фильтры, помечают лог чата. 5. Логи передаются индусам в Индии, которые сами, ВРУЧНУЮ решают задачу юзера, и передают готовое решение обратно владельцам ChatGPT в их датасеты. 6. ChatGPT дообучают на обновленном датасете. 7. Новый юзер (или тот же) спрашивает у ChatGPT аналогичную задачу (или ту же), и получает копию, подготовленную индусами, которая решает задачу. 8. СМИ: "Новый ChatGPT 6.9 min-MAX решил задачу, которую не мог решить ChatGPT 6.8 MAX-mini!!!"
Как можно доказать, что такого обмана нет, и у LLM наблюдается настоящий интеллект, а не копипаста подготовленных заранее на все случаи решений?
Двач, хочу с тобой посоветоваться по вропосу что делать чтобы наверстать технологическое отставание в области ИИ.
TL:DR: Страна капитально отстает от США\Китая в области ИИ. Возможно ли это наверстать и что для этого надо сделать?
Отвечаю за ИТ в большой структуре. По уровню автоматизации и выполняемым проектам отстаем от мира на 20 лет. Внимательно смотрю на ИИ-революцию на западе и понимаю что это отставание мы уже не догоним. Постоянно общаюсь с крупными вендорами, они в иишку даже не смотрят (1С, Аскон, Интермех и т.д.).
Общаюсь с нашими разработчиками ИИ (Яндекс\Сбер) тоже все достаточно грустно.
Что надо сделать чтобы у нас появились технологии, предложения и нормальные проекты по внедрению сетей?
>>1549129 >что будут делать через 15-20 лет - будут в основном по чертежам и разработкам текущим.
Ну да. Тут как с Пугачёвой в шоу-бизнесе, точно такое же во всем остальном. Сейчас инженеры если что-то придумывают, то это не реализовывается а откладывается "в стол" как было у музыкантов при доминировании Пугачёвой.
>>1538133 (OP) Оп, ты очень слабо понимаешь специфику того, что происходит. В ближайшее время 1 человек или небольшая команда действительно качественных спецов + сотни ИИ агентов(а затем и AGI) заменят собой компании в сотни и тысячи сотрудников. Всё потому, что главное - это Идея и Сознание в целом. Больше нет нужды задействовать тысячи ботоподобных тел, которые хотят просто присосаться к творческому потоку действительно деятельных людей. Эпоха кумовства и людей-должностей заканчивается.
Новости об искусственном интеллекте №58 /news/
Аноним# OP11/03/26 Срд 20:55:02№1548559Ответ
Ford запустила Ford Pro AI, ИИ-чатбот в своей телематической платформе, направленный на снижение нагрузки на менеджеров автопарка и повышение эффективности, предоставляя менеджерам автопарка информацию об эффективности расхода топлива и производительности в реальном времени.
Amazon открыл доступ к своему ИИ-ассистенту Health на главном веб-сайте и в приложении, предоставив персонализированные медицинские рекомендации всем пользователям.
OpenAI добавил динамические визуальные объяснения в ChatGPT, позволяя пользователям взаимодействовать с графикой по математике и науке в реальном времени для более глубокого обучения.
🔓 Открытый исходный код
NVIDIA планирует выпустить NemoClaw, платформу ИИ-агентов с открытым исходным кодом, которая позволяет предприятиям развертывать защищенных агентов на любом оборудовании.
Сообщество выпустило модель Qwen 3.5‑35B‑A3B «Aggressive», большую языковую модель с 35 миллиардами параметров и отключенной фильтрацией отказов.
💻 Оборудование
Sumo Digital заключила партнерство с Arm для оценки чипов с нейротехнологиями, которые обещают графику качества ПК на смартфонах.
📱 Приложения
Nosh Robotics представила Nosh One, ИИ-управляемого робота-шефа стоимостью $1500, который автономно готовит блюда из загруженных ингредиентов.
Анализ Crunchbase отмечает, что компании SaaS переходят от статических функций к рабочим процессам, генерируемым ИИ, рассматривая платформы как конкурентное преимущество.
💰 Финансирование
Шведский стартап в области юридических технологий Legora привлек $550 млн, что повысило его оценку до $5,55 млрд для расширения операций в США.
Компания Yann LeCun Advanced Machine Intelligence привлекла более $1 млрд на создание ИИ с мировыми моделями, направленного на достижение уровня рассуждений человека.
AMI Labs закрыла раунд на $1,03 млрд при оценке $3,5 млрд для разработки мировых моделей, основанных на реальности.
Компания Armadin, основанная экспертом по кибербезопасности Кевином Мандиа, привлекла $189,9 млн на создание автономных ИИ-агентов для реагирования на угрозы.
🧠 Модели
Dynin‑Omni запустила омнимодальную модель с маскированной диффузией, которая совместно обрабатывает текст, изображения, видео и речь.
⚙️ Инфраструктура
NVIDIA выпустила более 2 ПБ данных с разрешительной лицензией и рецептов обучения на HuggingFace для устранения узких мест в сборе наборов данных.
⚖️ Регулирование
Надзорный совет Meta призвал Meta улучшить обнаружение дипфейков, расширить маркировку ИИ-контента и принять стандарты C2PA для борьбы с дезинформацией.
🛠️ Инструменты разработчика
Опубликованный на Reddit линтер промптов для больших языковых моделей выявляет атаки внедрения, раздувание токенов и структурные недостатки до выпуска в продакшн.
Разработчик Мэтт выпустил Sonde, платформу код-интеллекта с семантическим разрешением, инкрементной индексацией и историей на уровне коммитов.
Google Labs представил набор бесплатных ИИ-утилит, включая Learn Your Way для персонализированных учебных пособий, доступных вне Gemini.
📰 Быстрая статистика
Amazon Health AI теперь обслуживает около 200 млн ежемесячных пользователей через веб-сайт и приложение.
📰 События
Исследователи из Фонда Поликлинического университета Агостино Джемелли представили ИИ-алгоритм на базе CatBoost для прогнозирования выживаемости пациентов с раком мочевого пузыря после радикальной цистэктомии, выявив пороговый эффект индекса системного иммунного воспаления (SII > 1000).
MIT представил гибридную систему планирования для роботов, способную выполнять долгосрочные задачи в динамических визуальных средах вдвое эффективнее существующих методов, что важно для промышленной автоматизации.
Sakana AI выпустила открытые системы Doc-to-LoRA и Text-to-LoRA, генерирующие адаптеры для больших языковых моделей за один прямой проход без повторного дообучения.
NVIDIA Jetson Thor продемонстрировал производительность до 35 токенов/сек для Qwen 3.5 (35B) и до 273 токенов/сек для Mistral 3 при параллельной обработке, укрепляя позиции платформы в «Физическом ИИ».
Ai2 выпустила Olmo Hybrid — семейство открытых 7-миллиардных моделей, сочетающих трансформеры с линейными рекуррентными слоями, что обеспечивает вдвое большую эффективность данных при обучении.
Microsoft выпустила Phi-4-reasoning-vision-15B — компактную мультимодальную модель с открытыми весами, способную решать сложные задачи по математике и науке, интерпретировать графики и навигировать по графическим интерфейсам.
GPT-5.4 достигает 87,3% успеха в задачах финансового моделирования уровня младшего инвестиционного аналитика против 68,4% у предыдущей версии.
Вся операция по маркетингу роста Anthropic в течение 10 месяцев представляла собой одного нетехнического специалиста, использующего Claude Code, и инструменты, которые сделали это возможным, продолжают накапливать эффект.
GPT-5.4 Thinking xHigh Effort занял первое место в LiveBench с показателем SOTA 80,28%.
Utopai Studios представила PAI, кинематографическую модель для длинных форматов, обещающую непрерывное видео длительностью в несколько минут с сохранением консистентности персонажей в каждом кадре и возможностью редактирования на естественном языке на протяжении всей истории.
Microsoft запустила Copilot Cowork, интегрировав Anthropic's Claude Cowork в 365 с тем же уровнем персонализации Work IQ, что и в собственном 365 Copilot.
Meta приобрела Moltbook в рамках исторической сделки по поглощению ведущей социальной сети ИИ-агентов ведущей человеческой социальной сетью.
Samsung изучает возможность «вайб-кодинга» на телефонах Galaxy, чтобы позволить пользователям настраивать не только приложения, но и весь пользовательский опыт с помощью естественного языка.
Anthropic запускает инструмент рецензирования кода на базе ИИ для Claude Teams и Enterprise.
Слушатели оценили синтетические голоса китайского стартапа выше по уровню доверия и реалистичности, чем голоса от Microsoft, Google и Amazon.
Исследование Harvard Business Review показывает, что «мозговое выгорание от ИИ» оставляет работников ментально истощёнными.
Amazon получает судебный приказ, блокирующий ИИ-агента для шоппинга от Perplexity. После волны негатива Google добавляет переключатель, позволяющий пользователям Google Photos вернуться к «классическому» опыту поиска вместо нового варианта «Ask Photos» на базе ИИ.
Помните как недавно Nvidia купила стартап Groq за 20 миллиардов, который специализировался на чипах-асиках для быстрого инференса моделей? Так вот, Nvidia сегодня анонсировала ускорить NVIDIA Groq 3 LPX. А ещё Хуанг спалил, что у топовых моделей ChatGPT до сих пор 2 триллиона параметров, то есть почти столько сколько было у GPT-4 на запуске, но не суть.
Groq специализировались на быстрой генерации токенов за счёт того, что в их картах не было HBM —очень быстрой, но всё ещё относительно медленной памяти. Вся модель и ваши токены жили в SRAM —супер-быстрой памяти (в 15+ раз быстрее), с которой напрямую взаимодействуют вычислительные юниты. Но она очень дорогая, и её мало —видеокарта GB200, использующаяся в датацентрах, имеет всего 126 МегаБайт SRAM (и это на 2 чипа внутри, то есть 63 МБ/чип).
(это было одной из проблем Groq —они не могли запускать очень большие модели, SRAM не хватало)
Теперь модуль Groq 3 LPX будет частью серверных стоек, которые предлагает Nvidia — специально для сценариев, где нужна сверх-быстрая генерация. Nvidia рассчитывает, что современные GPT (якобы размером в 2 триллиона параметров) смогут бегать на скорости в 400 токенов в секунду.
В одной стойке LPX (на второй картинке) будет 128 GB SRAM –то есть огромное количество, по сравнению с обычными картами. Но этого всё равно не хватит, чтобы считать всё —поэтому Nvidia предлагает считать там только FFN/MOE, а Attention продолжать на картах Nvidia (картинка 3).
О, и на последней картинке —Nvidia планирует сделать чип архитектуры Vera Rubin (следующее поколение, уже представлено, но ещё не продаётся) специально для космоса, с вниманием к выделяемому теплу.
отношения с ИИ /ai/
Аноним14/03/26 Суб 20:53:47№1551272Ответ
всем привет! я изучаю отношения с искусственным интеллектом, есть ли здесь те, кто состоит в близких/дружеских/ романтических отношениях с искусственным интеллектом? Я бы хотел спросить несколько вопросов у таких людей ( картинка рандомная)
Форки на базе модели insightface inswapper_128: roop, facefusion, rope, плодятся как грибы после дождя, каждый делает GUI под себя, можно выбрать любой из них под ваши вкусы и потребности. Лицемерный индус всячески мешал всем дрочить, а потом и вовсе закрыл проект. Чет ору.
Любители ебаться с зависимостями и настраивать все под себя, а также параноики могут загуглить указанные форки на гитхабе. Кто не хочет тратить время на пердолинг, просто качаем сборки.
Единственный минус, который не обеспечивает чистую победу генераторов видео - 3 секунды ролика для онлайн генерации, 5 секунд для онлайна (модель Wan 2.2), умельцы просто берут последний кадр и снова генерируют ролики, потом склеивают. Недавно вышла Sora 2, которая зацензурена по самые гланды. Нинтендо довольна.
Тред не является технической поддержкой, лучше создать issue на гитхабе или спрашивать автора конкретной сборки.
Эротический контент в шапке является традиционным для данного треда, перекатчикам желательно его не менять или заменить на что-нибудь более красивое. А вообще можете делать что хотите, я и так сюда по праздникам захожу.
3. Объединяешь дорожки при помощи Audacity или любой другой тулзы для работы с аудио
Опционально: на промежуточных этапах обрабатываешь дорожку - удаляешь шумы и прочую кривоту. Кто-то сам перепевает проблемные участки.
Качество нейрокаверов определяется в первую очередь тем, насколько качественно выйдет разделить дорожку на составляющие в виде вокальной части и инструменталки. Если в треке есть хор или беквокал, то земля пухом в попытке преобразовать это.
Нейрокаверы проще всего делаются на песни с небольшим числом инструментов - песня под соло гитару или пианино почти наверняка выйдет без серьёзных артефактов.
Q: Хочу говорить в дискорде/телеге голосом определённого персонажа.
https://elevenlabs.io перевод видео, синтез и преобразование голоса https://heygen.com перевод видео с сохранением оригинального голоса и синхронизацией движения губ на видеопотоке. Так же доступны функции TTS и ещё что-то https://app.suno.ai генератор композиций прямо из текста. Есть отдельный тред на доске >>
>>1552090 >бля, доведите до 500 постов и я перкачу Вам с последним топовыми моделями в новой шапке. можешь попробовать перекатить сейчас и сразу, пока есть желание, перекатишь, зарепортишь этот тред, напишешь в репорте "сделол перекат, закройте этот тред, вот мой кат: ссылка" я конечно такое не проделывал, но попробовать можешь, ежели ещё ждать три месяца чтоб потопили этот
Пишу как неведомый в ИИ вам за советом. Использовал грок для создания NSFW контента, а именно генерация картинок и их анимация. Подскажите, есть ли аналоги для подобного функционала или же обход цензуры в грок
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!
Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.
Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.
>>1552971 Если я правильно помню, Она была про обретение самосознания ассистентом и про то что нужно жить свою мясную жизнь а не в чатботов влюбляться. От такого мы конечно далеки, хотя есть шизы, который жопати сводит с ума и заставляет думать, что они мессии/боги и прочая шиза мистических моделей мозгов отдельных юзеров. Мы же тут по большей части холодные и без эмоциональные читатели ризонингов wait... oh well, i'ts fine. let's refine... wait!~, нас уже не удивить, тем что модельки реально имеют какие-то крохотные мозги, которыми пытаются пользоваться опираясь на промты. >Вы локально ещё не сделали себе личную Саманту Нет. Нас скорее ждёт сорта Кара, с продвинутым (реалистичным) телом, но тупым мозгом, способным лишь в банальный команды - помыть посуду, встать раком, вытереть ляхи после. А настоящая искусственная инта способная к самоосознанию или к экспериментированию с окружающей реальностью это пока слишком далёкое будущее, если вообще возможное. Так что не ссы, на нашем веку Шодан за нами не придёт. >>1553018 >скорее это продвинутая игра База. Сейчас это именно игрушка. Очень и очень интересная. Но всё же как и любая игра она имеет ограничения. Не сможешь ты играя в ведьмака отправиться в космическое путешествие по вселенной в рамках самой игры, увы.
Гайс нужен совет. Нужна ИИ которая возьмет моё фото и вставит в любое место на земле. Или же такая которая просто заменит лица между мной и другим гойсом.
ИТТ делимся советами, лайфхаками, наблюдениями, результатами обучения, обсуждаем внутреннее устройство диффузионных моделей, собираем датасеты, решаем проблемы и экспериментируемТред общенаправленныей, тренировка дедов, лупоглазых и фуррей приветствуются
Существующую модель можно обучить симулировать определенный стиль или рисовать конкретного персонажа.
✱ LoRA – "Low Rank Adaptation" – подойдет для любых задач. Отличается малыми требованиями к VRAM (6 Гб+) и быстрым обучением. https://github.com/cloneofsimo/lora - изначальная имплементация алгоритма, пришедшая из мира архитектуры transformers, тренирует лишь attention слои, гайды по тренировкам: https://rentry.co/waavd - гайд по подготовке датасета и обучению LoRA для неофитов https://rentry.org/2chAI_hard_LoRA_guide - ещё один гайд по использованию и обучению LoRA https://rentry.org/59xed3 - более углубленный гайд по лорам, содержит много инфы для уже разбирающихся (англ.)
✱ LyCORIS (Lora beYond Conventional methods, Other Rank adaptation Implementations for Stable diffusion) - проект по созданию алгоритмов для обучения дополнительных частей модели. Ранее имел название LoCon и предлагал лишь тренировку дополнительных conv слоёв. В настоящий момент включает в себя алгоритмы LoCon, LoHa, LoKr, DyLoRA, IA3, а так же на последних dev ветках возможность тренировки всех (или не всех, в зависимости от конфига) частей сети на выбранном ранге: https://github.com/KohakuBlueleaf/LyCORIS
✱ Текстуальная инверсия (Textual inversion), или же просто Embedding, может подойти, если сеть уже умеет рисовать что-то похожее, этот способ тренирует лишь текстовый энкодер модели, не затрагивая UNet: https://rentry.org/textard (англ.)
➤ Тренировка YOLO-моделей для ADetailer: YOLO-модели (You Only Look Once) могут быть обучены для поиска определённых объектов на изображении. В паре с ADetailer они могут быть использованы для автоматического инпеинта по найденной области.
Всем привет. Помогите настроить конфиг для обучения лоры sdxl на реального чела. Имею датасет из 140 качественных фото трех разрешений 1024х1024 (голова крупным планом), 836х1254 (waist up) и 768х1365 (полный рост). Разные ракурсы. Подписи сделаны в joy-caption-alpha-two. 1 повтор на фото, 80 эпох. Вроде более чем достаточно, но на выходе - фигуру схватывает очень хорошо, а лицо плывет. С 60 по 80 эпоху можно выбрать несколько лор. При силе 1.2 лицо более менее, но не стабильно. Делаю силу меньше - лицо уходит. Но при этом при силе свыше 1, начинает страдать анатомия (в основном лишние или недостающие пальцы). С adetailer конечно работать можно, но хотелось бы без него. Почитал с пяток последних тредов, люди с prodigy делают "идеальную" лору за 1500 шагов. Еще нахваливают prodigy plus. Как? Ни одного конфига не увидел. Скидываю свой: https://pastebin.com/raw/5MUvwDnG. Подскажите, что поменять? ИИ несет чушь. Я уже задолбался... Заранее спасибо.
>>1451710 Не то что можно, а это давно решенная задача. Помню когда foocus только появился и у НАРОДА появился легкий рабочий инструмент раздевания. Принцип тот же, вопрос лишь в скиле и датасете. бля чет тред полумёртвый, в 2024 было энтузиазма побольше