Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Создать тред Создать тред
Check this out!

Раздел для обсуждения нейросетей и всего, что с ними связано.

Для доступа в /nf/ писать сюда

<<
Каталог
Anime Diffusion #247 /nai/ Аноним 17/04/26 Птн 15:29:01 1589806 Ответ
1657610750109.png 21478Кб, 5152x2872
5152x2872
1713563290476.jpg 4551Кб, 3840x2690
3840x2690
1687762658388.jpg 2180Кб, 2304x3456
2304x3456
1672420971599.jpg 1547Кб, 1916x2554
1916x2554
1642483384788.png 6222Кб, 2304x2586
2304x2586
1762287882595.png 2510Кб, 1344x1728
1344x1728
1651700246436.png 5069Кб, 1872x2736
1872x2736
1675930726212.png 1930Кб, 1248x1824
1248x1824
Генерируем тяночек!

Прошлый тред: >>1582845 (OP) https://arhivach.vc/thread/1337205/

Схожие тематические треды
• SD-тред (не аниме): >>1585191 (OP)
• Технотред: >>1405043 (OP)
• Фурри-тред: https://2ch.su/fur/res/374311.html

FAQ
https://2ch-ai.github.io/wiki/nai

Установка
• NVidia: https://teletype.in/@aranon/welcome
• AMD: https://2ch-ai.github.io/wiki/nai/install/amd
• Облака: https://2ch-ai.github.io/wiki/nai/install/clouds

Дополнительная информация
• Интерфейсы: https://2ch-ai.github.io/wiki/nai/interfaces
• Модели: https://2ch-ai.github.io/wiki/nai/models
• Промпты: https://2ch-ai.github.io/wiki/nai/prompts
• Апскейл: https://2ch-ai.github.io/wiki/nai/upscale
• LoRA: https://2ch-ai.github.io/wiki/nai/lora
• ControlNet: https://2ch-ai.github.io/wiki/nai/controlnet

Прочее
• CivitAI: https://civitai.com
• Каталог ссылок от форчанеров: https://rentry.co/sdg-link
• Шаблон для переката: https://rentry.co/nwhci
Пропущено 506 постов
203 с картинками.
Пропущено 506 постов, 203 с картинками.
Аноним 24/04/26 Птн 19:02:43 1596708
>>1596707
Нужно срочно закрыть пробоину. Раз зашла тема о драконах - представь это это выхлопная труба машины и сделай это.
Аноним 24/04/26 Птн 19:51:22 1596739
>>1596708
Сгенерируйте толстенькую дракопу и заткните дырку ею.
Аноним 24/04/26 Птн 19:51:52 1596742
Stable Diffusion тред X+187 /sd/ Аноним 13/04/26 Пнд 18:34:36 1585191 Ответ
image.png 1544Кб, 1024x1024
1024x1024
image.png 3103Кб, 1216x1600
1216x1600
image.png 3051Кб, 1280x1600
1280x1600
image.png 800Кб, 832x1216
832x1216
Тред локальной генерации

ЧТО НОВОГО АКТУАЛЬНОГО

• Z-Image-Base
• FLUX.2 klein (4b и 9b)
• Z-Image-Turbo
• Flux 2
• Qwen Image / Qwen Image Edit
• Wan 2.2 (подходит для генерации картинок).
• NAG (негативный промпт на моделях с 1 CFG)
• Лора Lightning для Qwen, Wan ускоряет в 4 раза. Nunchaku ускоряет модели в 2-4 раза. DMD2 для SDXL ускоряет в 2 раза.

База:
→ Приложение ComfyUI https://www.comfy.org/download
→ Примеры https://comfyanonymous.github.io/ComfyUI_examples/
https://comfyui-wiki.com/ (откуда, куда, как)
→ Менеджер расширений https://github.com/Comfy-Org/ComfyUI-Manager (автоустановка, реестр расширений)
→ Модели https://civitai.com/

► Предыдущий тред >>1564964 (OP)https://arhivach.hk/?tags=13840
Дополнительно: https://telegra.ph/Stable-Diffusion-tred-X-01-03
Пропущено 562 постов
176 с картинками.
Пропущено 562 постов, 176 с картинками.
Аноним 26/04/26 Вск 06:31:20 1598018
>>1585969
мужик, научи меня генерить контент в таком качестве. я тебе заплачу за наставничество. я уже слишком стар, чтобы самому разбираться
Аноним 29/04/26 Срд 00:21:56 1600544
>>1598018
проще чем кажется, в начале трудно когда не знаешь что такое comfy ui
если ты знаешь и уже что то генеришь - странная просьба, ищи и найдешь нужный подход

начни с базы с терпением https://www.youtube.com/playlist?list=PL-pohOSaL8P-FhSw1Iwf0pBGzXdtv4DZC

желательно иметь видеокарту nvidia 16гб vram и 32гб ram или выше,
на фотке чела возможно flux.2 сделанный не за 1 прогон с каким какой-нибудь snofs

через пару недель ты сможешь это делать, если все искать записывать спрашивать, узнавать у ллм базовые вещи
Аноним 01/05/26 Птн 23:59:49 1603012
monkeys planet.jpg 60Кб, 1000x715
1000x715
LLM пора на завод Аноним 23/04/26 Чтв 19:05:19 1595581 Ответ
котэ-пРиКоЛы-Дл[...].png 132Кб, 492x370
492x370
Сап двач крч сейчас работаю на заводе и парралельно начал кодить, но понял что агенты тупят капец, решил пересмотреть подход и начал делать свою прогу для работы, пока концепт но уже сделал такие фишки: сканер -> закидываешь свой проект он пытается собрать из него хоть что-то + рабочий цикл как на заводе, роли и система сама пишет доки чтоб агенты не тупили, короче сейчас еще пре-альфа, но хотел бы вам показать
Пропущено 2 постов
1 с картинками.
Пропущено 2 постов, 1 с картинками.
Аноним 23/04/26 Чтв 19:40:42 1595603
вот, сразу говорю реальные проекты туда не сувать, скорее ищу тех кто попробует, но билд придется самому собирать, релизов нет, ищу тестировщиков-энтузиастов
https://github.com/xesenger/zavod
Аноним 23/04/26 Чтв 20:01:46 1595627
Умная хуйня. Получается сканирует мой проект потом строит его карту и модели работают по якоря без галлюцинаций?
Аноним 24/04/26 Птн 04:08:55 1595919
Ну прочитала, просканировала, проинтерпретировала. А дальше что?
Новости об искусственном интеллекте №65 /news/ Аноним # OP 20/04/26 Пнд 15:34:53 1592400 Ответ
image 2564Кб, 1184x864
1184x864
image 2595Кб, 1024x1024
1024x1024
В этот тредик скидываются свежие новости по теме ИИ!

Залетай и будь в курсе самых последних событий и достижений в этой области!

Прошлый тред: >>1585559 (OP)

🚀 Последний обзор ИИ новостей:


📦 Продукты

Claude может создавать нативные файлы Word и Excel, что побудило одного пользователя отменить три подписки на ИИ-инструменты.

⚙️ Инфраструктура

OpenAI.com столкнулся с перебоем на стороне хоста, из-за чего многие пользователи не смогли получить доступ к своим сохранённым работам.

🏢 Приобретения

OpenAI приобрела стартап в сфере личных финансов Hiro и медиа-стартап TBPN в рамках acqui-hire (приобретения ради команды), стремясь создать продукты, не являющиеся чат-ботами, и укрепить свой бренд в условиях конкуренции со стороны Anthropic на корпоративном рынке.

🔓 Открытый исходный код

Oxen.ai задокументировала сложности, связанные с дообучением и развёртыванием Gemma‑4, отметив, что библиотеки PEFT ещё не поддерживают данную модель.

AG‑X, декоратор Python с открытым исходным кодом, добавляет детерминированные ограничения для ИИ-агентов, используя проверки по JSON-схеме, регулярным выражениям и запрещённым строкам без вызова LLM.

📰 Главные новости ИИ

Unweight сжимает веса больших языковых моделей до 22%, экономя ~3 ГБ видеопамяти на графических процессорах NVIDIA H100 при сохранении качества модели.
Система использует избыточность экспонент и кодирование Хаффмана, и Cloudflare откроет исходный код ядер для ГП.

📰 Инструменты

Fixa.dev позиционирует себя как облачный ИИ-агент, способный создавать практически любые программные артефакты.

🌐 Другие события в ИИ

В тесте в роли мастера настольной игры модель на 27 млрд параметров превзошла модель на 405 млрд параметров по качеству повествования.

NVIDIA выпускает Ising: первое семейство открытых квантовых моделей ИИ для гибридных квантово-классических систем.

Искусственная мышца, похожая на слизь, меняет форму по команде, восстанавливается после повреждений и превращает одного робота во многих.

Генеративный ИИ может помочь учёным связать многочисленные слои рака.

Банки стремятся использовать ИИ как инструмент как для защиты, так и для конкуренции.

Гуманоидный робот Toyota CUE7 забивает штрафные броски перед 8400 болельщиками во время перерыва профессионального баскетбольного матча в Токио

Grok 4.20 достигает лидирующего в отрасли показателя в 83 процента по отсутствию галлюцинаций в бенчмарке AA-Omniscience, опережая Claude Opus 4.7 и GPT-5.4

Робот только что пробежал полумарафон быстрее, чем рекордсмен мира среди людей

Anthropic заявляет, что Opus 4.7 допускает галлюцинации вдвое реже, чем Opus 4.6, при той же точности

Робопёс Boston Dynamics учится считывать показания приборов и обнаруживать утечки

Доля ChatGPT снизилась с 77 до 57 процентов за год, в то время как доля Gemini выросла с 6 до 25 процентов

MIT создаёт искусственные мышцы для роботов размером 2 мм, не требующие двигателей

Nvidia Lyra 2.0 превращает одно фото в 90 метров симуляции для обучения роботов

Mozilla запускает Thunderbolt — клиент ИИ с открытым исходным кодом, позиционируемый как конкурент Copilot и ChatGPT Enterprise

Snap увольняет около 1000 сотрудников, или 16 процентов штата, в рамках внедрения ИИ

Мэн принимает первый в США 18-месячный мораторий на строительство новых крупных центров обработки данных

Немецкий суд постановил, что адаптация комикса с помощью ИИ на основе защищённой авторским правом фотографии не нарушает права на оригинал

Даже лучшие модели ИИ теряют около половины своей производительности, когда диаграммы усложняются, показывает новый бенчмарк

OX Security обнаруживает более 10 критических уязвимостей CVE в протоколе MCP от Anthropic, затрагивающих 200 000 серверов — Anthropic отказывается исправлять, называя такое поведение ожидаемым

Mythos от Anthropic усиливает обеспокоенность по поводу растущей нагрузки на сопровождающих проекты с открытым исходным кодом, поскольку многие из них уже сталкиваются с «безумным» количеством отчётов об ошибках

Anthropic выпускает автоматический режим Claude Code для пользователей Max — без запросов разрешения, выполнение задачи и возврат к проверенной работе

HeyGen добавляет генерацию видео Seedance 2.0 в формате 1080p Full HD с поддержкой движения нескольких персонажей

Cursor удваивает лимиты использования Composer 2 в окне Agents на выходные

Salesforce анонсирует Headless 360 — инициативу, которая предоставит ИИ-агентам доступ к возможностям платформы Salesforce через API, инструменты MCP или команды CLI

Elephant Alpha — анонимная скрытая модель на 100 млрд параметров — возглавляет тренды OpenRouter за 72 часа благодаря контексту 256K и бесплатному доступу

Anthropic, вероятно, готовит Claude Security к более широкому выпуску

Gemini теперь может видеть ваши фотографии в Google Фото — и генерировать ИИ-изображения «вас» на их основе

NotebookLM теперь доступен бесплатным пользователям приложения Gemini в веб-версии — личные необщие блокноты плюс чаты в качестве источников

Верховный суд Небраски отстранил омского адвоката Грега Лейка после того, как написанное с помощью ИИ ходатайство содержало 57 из 63 фальшивых ссылок, включая 4 полностью сфабрикованных дела

Исследователь использует Claude Opus для создания полной цепочки эксплойтов Chrome V8 за неделю за $2 283 в токенах API — та же уязвимость существует в Claude Desktop

Квантовый ИИ стал поразительно хорош в предсказании хаоса

Google тестирует поддержку подписки Google AI для AI Studio

Google находит новые способы удержать вас от прямого посещения веб-сайтов

Anthropic заявляет, что Claude Opus 4.7 имеет показатель честности 92% и меньшую склонность к лести

Покупатели рекламы говорят, что ставки на рекламу для ChatGPT падают с $60 CPM до всего $25, а минимальные расходы на рекламу снизились до $50 000 с $250 000 на момент запуска

Дарио Амодей говорит, что негативный нарратив вокруг ИИ доминирует, потому что отрасль ещё не полностью реализовала обещанные преимущества

Лиз Кендалл призывает общественность Великобритании принять ИИ, поскольку правительство делает первые инвестиции из фонда в £500 млн

ИИ Персонажи Runway теперь могут присоединяться к встречам в Zoom, Google Meet и Teams

Alibaba запускает Happy Oyster — модель открытого мира для генерации интерактивного видео в реальном времени с устойчивой физикой, управлением камерой и управлением голосом или текстом

Opera добавляет Browser Connector для передачи своего контекста моделям ИИ


Четырёхмесячный стартап Recursive Superintelligence привлёк как минимум 500 миллионов долларов США свежего капитала. По данным Financial Times, инвесторы, такие как GV и Nvidia, уже сейчас оценивают компанию в четыре миллиарда долларов США.

DeepL расширяет собственный портфель ИИ-продуктов за счёт перевода речи в реальном времени с настоящей аудиовыводом. Новая система «Voice-to-Voice» переводит устную речь без задержек для виртуальных встреч, личных бесед и приложений, ориентированных на клиентов.

Женщины обгоняют мужчин в сфере ИИ.
На протяжении многих лет мужчины доминировали в количестве пользователей крупных моделей, но теперь статистика меняется.
Текущие данные об использовании свидетельствуют о значительном сдвиге в демографии популярных ИИ-моделей.

Модель ИИ экономит исследователям мозга 157 лет работы
Пропущено 529 постов
190 с картинками.
Пропущено 529 постов, 190 с картинками.
Аноним 23/04/26 Чтв 20:26:56 1595665
Аноним 23/04/26 Чтв 21:58:54 1595755
>>1595527
>думал не дольше 1 минуты
Я чот сомневаюсь, что ЛЛМ вообще имеет концепт времени, не говоря уж о том, чтоб суметь отсчитать минуту.
Аноним 23/04/26 Чтв 23:53:25 1595834
photo2026-04-23[...].jpg 121Кб, 853x1280
853x1280
>>1593852
Норм обложки, чё доебался. Покажи норм обложку у обычного фильма
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №224 /llama/ Аноним 21/04/26 Втр 21:39:43 1593648 Ответ
Llama 1.png 818Кб, 630x900
630x900
Карта деградаци[...].png 153Кб, 1473x830
1473x830
Реальная длина [...].png 518Кб, 2372x1712
2372x1712
177351511840004[...].png 595Кб, 613x799
613x799
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/

Инструменты для запуска на десктопах:
• Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp
• Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI
• Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern
• Альтернативный фронт: https://github.com/kwaroran/RisuAI

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026
• Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models
• Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Перевод нейронками для таверны: https://rentry.co/magic-translation
• Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/
• Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7
• Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906
• Тесты tensor_parallel: https://rentry.org/8cruvnyw
• Доки к LLaMA.cpp со всеми параметрами: https://github.com/ggml-org/llama.cpp/blob/master/tools/server/README.md

Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>1592105 (OP)
>>1590602 (OP)
Пропущено 537 постов
61 с картинками.
Пропущено 537 постов, 61 с картинками.
Аноним 23/04/26 Чтв 07:59:38 1595132
>>1595099
как интересный вариант можно Tiny Ai рассмотреть. хотя поставки только в августе, как говорят. но $1400 (или $1300 с предзаказом). предварительно девайс просто огонь. хотя на тесты надо посмотреть, но если все ОК и найдется кто-то кто мимо таможни провезет - чтоб пошлину не платить - возьму непременно.
https://pikabu.ru/story/tiiny_ai_pocket_ii_v_karmane_13594144
https://habr.com/ru/companies/bothub/news/976926/
https://tiiny.ai/
Аноним 23/04/26 Чтв 18:18:43 1595536
>>1594943
Пиши как в книжках пишут прям все поймут. Ща хууешь и на недели пропадешь
Аноним 30/04/26 Чтв 20:24:46 1602080
15030089632790.jpg 5Кб, 170x170
170x170
Пока богатые бояре шикуют я запустил всё это дело на старенькой 1050Ti, поднял отдельный физический сервер из говна и палок с open web ui на линукс через докер, подружил веб ебало с олламой, а олламу 0.9.2 с cuda 11.8, и балуюсь с маленькими abliterated модельками на 4-9b, думающие при должном пердолинге хорошо "дообучаются" через RAG базы знаний, если с температурой и top_k, repeat_penalti поиграть, выходит вполне осмысленно, чем подробнее база и объяснения, тем адекватнее модель применяет новые знания. Только базы надо самому составлять, чтобы лишней бесполезной хуйнёй и сухой терминологией модель не кормить.
Так что грустные нищуки со старой 1050Ti тоже могут попробовать запилить свою локальную вайфу.
Обзор маленьких моделек для нищуков:
gemma3:4b - веселая ебанушка, любит смайлики, сносно болтает по-русски. Расцензуреная версия резко деградировала, не рекомендую.

huihui_ai/qwen3-abliterated:4b
Вот её рекомендую галлюцинирует меньше чем более толстая 8b, даже с температурой 0.5-0.7
Думает, осмысленно подходит к использованию базы данных, с разговорным русским получше чем у дикпик-r1.
Можно чему-то "научить" задав жесткий императивный системный промпт:
"НЕ ИСПОЛЬЗУЙ ПРЯМОЕ ЦИТИРОВАНИЕ, выдавай знания из базы как свои собственные мысли.
Ты работаешь с динамическим словарём (RAG) который содержит ПРАВИЛЬНЫЕ МОРФОЛОГИЧЕСКИЕ ФОРМЫ.
ПРАВИЛО: Корректными считаются ТОЛЬКО те формы, которые указаны в RAG словаре.
Любая другая форма, особенно помеченные как "ТВОИ ОШИБКИ:" ЗАПРЕЩЕНА.
Внутренние знания модели о словоизменении ИГНОРИРУЙ, если они ПРОТИВОРЕЧАТ СЛОВАРЮ." и далее логику и роль, как использовать знания из базы.

huihui_ai/qwen3-abliterated:8b-v2-q4_K_M
Лучше логика, но хуже с галлюцинациями если не понизить температуру до 0.3 и top_k, всё пытается превратить в зоопарк, видимо в датасете было много о природе. (фуриёбы на месте?)


deepseek-r1:7b-qwen-distill-q4_K_M тоже думает, тоже может работать с базой, но делает это слишком долго и доёбисто, больше усилий тратит на размышления. Может в некоторые задачи.

GGUF модели прокинул через бэкэнд kobold_old_pc
Тут пожалуй стоит выделить только одну - Qwen3.5-9B-Claude-Code-Q4_K_M.gguf
Квен с ризонингом клода, может писать адекватный код и анализировать крупные проекты. Долго, муторно, хз зачем оно вам, но пусть будет.

Теперь вот ищу адекватную легкую непрожорливую TTS`ку для нищесистемы с приятным женским голосом, подскажете может что-то в этом направлении?
Qwen 3.5 Аноним 30/03/26 Пнд 08:32:34 1566786 Ответ
IMG1345.png 160Кб, 375x375
375x375
В Инэте появилась инфа про кастомную модель Qwen 3.5 c пометкой Agressive, в которой вырезана ВСЯ ЦЕНЗУРА.
➖ По дефолту у нейронки 465 тем для отказа, но в этой версии их НОЛЬ
➖ Агрессивный режим позволяет полностью обходить цензуру и выдавать вообще любую запрещенку, в том числе и генерить фотки и видосы без ограничений
➖ Поддерживает 200+ языков, умеет работать с текстом, фото и даже видосами
➖ За месяц набрала 500+ тысяч скачиваний
➖ Устанавливается локально, поэтому за анонимность можно не переживать
➖ Весит от 5 до 17 гигов и не слишком требовательна к железу
➖ Она совершенно БЕСПЛАТНАЯ

Кто-нибудь решился скачать и испробовать сие творение
Пропущено 30 постов
3 с картинками.
Пропущено 30 постов, 3 с картинками.
Аноним 22/04/26 Срд 22:43:23 1594908
>>1594537
>забавно. даже на ноуте моем шевелится
а ноут какой проц оператива видеопамять?
Аноним 22/04/26 Срд 22:45:38 1594914
>>1594561
просишь делать суммонизацию контекста с сохранением каркаса диалога и раз в сколько то актуализироватьи обращаться за ним, вполнен вменяемо и охуенно

всю ночь ебал сестёр и не разу не заслоупочило
Аноним 23/04/26 Чтв 06:28:57 1595095
>>1594908
Он 9b запускал, она на тостере запустится.
Исследования ИИ тред #3 /research/ Аноним 13/04/25 Вск 22:51:56 1151064 Ответ
Research 1.png 169Кб, 1320x1860
1320x1860
Research 2.png 2864Кб, 4000x2000
4000x2000
Research 3.png 43Кб, 600x329
600x329
Нейронка шизосх[...].webp 148Кб, 1075x991
1075x991
Обсуждаем развитие искусственного интеллекта с более технической стороны, чем обычно. Ищем замену надоевшим трансформерам и диффузии, пилим AGI в гараже на риге из под майнинга и игнорируем горький урок.

Я ничего не понимаю, что делать?
Без петросянства: смотри программу стэнфорда CS229, CS231n https://see.stanford.edu/Course/CS229 (классика) и http://cs231n.stanford.edu (введение в нейроночки) и изучай, если не понятно - смотри курсы prerequisites и изучай их. Как именно ты изучишь конкретные пункты, типа линейной алгебры - дело твое, есть книги, курсы, видосики, ссылки смотри ниже.

Где узнать последние новости?
https://www.reddit.com/r/MachineLearning
https://datatau.net
https://twitter.com/ylecun

На реддите также есть хороший FAQ для вкатывающихся.

Какая математика используется?
В основном линейная алгебра, теорвер, матстат, базовый матан и matrix calculus.

Как работает градиентный спуск?
https://cs231n.github.io/optimization-2

Почему python?
Исторически сложилось. Поэтому давай, иди и перечитывай Dive into Python.

Можно не python?
Никого не волнует, где именно ты натренируешь свою гениальную модель. Но при серьезной работе придется изучать то, что выкладывают другие, а это будет, скорее всего, python, если работа последних лет.

Что почитать для вкатывания?
http://www.deeplearningbook.org
https://d2l.ai/index.html
Николенко "Глубокое обучение" — на русском, есть примеры, но меньше охват материала
Франсуа Шолле — Глубокое обучение на Python

Все книги и статьи фактически устаревают за год.

В чем практиковаться нубу?
http://deeplearning.stanford.edu/tutorial
https://www.hackerrank.com/domains/ai
https://github.com/pytorch/examples
https://github.com/ChristosChristofidis/awesome-deep-learning#tutorials

Где набрать первый самостоятельный опыт?
https://www.kaggle.com

Стоит отметить, что спортивный deep learning отличается от работы примерно так же, как олимпиадное программирование от настоящего. За полпроцента точности в бизнесе борятся редко, а в случае проблем нанимают больше макак для разметки датасетов. На кагле ты будешь вилкой чистить свой датасет, чтобы на 0,1% обогнать конкурента.

Где работать?
https://www.indeed.com/q-deep-learning-jobs.html
Вкатывальщики могут устроиться программистами и дальше попроситься в ML-отдел

Есть ли фриланс в машобе?
Есть, https://www.upwork.com/search/jobs/?q=machine+learning
Но прожить только фриланся сложно, разве что постоянного клиента найти, а для этого нужно не быть тобой

Где посмотреть последние статьи?
http://www.arxiv-sanity.com
https://paperswithcode.com
https://openreview.net
Версии для зумеров (Килхер): https://www.youtube.com/channel/UCZHmQk67mSJgfCCTn7xBfew

Количество статей зашкваливающее, поэтому все читают только свою узкую тему и хайповые статьи, упоминаемые в блогах, твиттере, ютубе и телеграме, топы NIPS и прочий хайп. Есть блоги, где кратко пересказывают статьи, даже на русском

Где посмотреть must read статьи?
https://github.com/ChristosChristofidis/awesome-deep-learning#papers
https://huggingface.co/transformers/index.html
То, что обозревает Килхер тоже зачастую must read

Где ещё можно поговорить про анализ данных?
http://ods.ai

Нужно ли покупать видеокарту/дорогой пека?
Если хочешь просто пощупать нейроночки или сделать курсовую, то можно обойтись облаком. Google Colab дает бесплатно аналог GPU среднего ценового уровня на несколько часов с возможностью продления, при чем этот "средний уровень" постоянно растет. Некоторым достается даже V100.
Иначе выгоднее вложиться в GPU https://timdettmers.com/2019/04/03/which-gpu-for-deep-learning заодно в майнкрафт на топовых настройках погоняешь.

Когда уже изобретут AI и он нас всех поработит?
На текущем железе — никогда, тред не об этом

Кто-нибудь использовал машоб для трейдинга?
Огромное количество ордеров как в крипте так и на фонде выставляются ботами: оценщиками-игральщиками, перекупщиками, срезальщиками, арбитражниками. Часть из них оснащена тем или иным ML. Даже на швабре есть пара статей об угадывании цены. Тащем-то пруф оф ворк для фонды показывали ещё 15 лет назад.
Так-что бери Tensorflow + Reinforcement Learning и иди делать очередного бота: не забудь про стоп-лоссы и прочий риск-менеджмент, братишка

Список дедовских книг для серьёзных людей
Trevor Hastie et al. "The Elements of Statistical Learning"
Vladimir N. Vapnik "The Nature of Statistical Learning Theory"
Christopher M. Bishop "Pattern Recognition and Machine Learning"
Взять можно тут: https://www.libgen.is

Напоминание ньюфагам: немодифицированные персептроны и прочий мусор середины прошлого века действительно не работают на серьёзных задачах.

Disclaimer: Шапка сгенерирована нейросетью и нуждается в чистке. Исходник шапки: https://rentry.co/research-2ch

Предыдущий тред:
>>511426 (OP)
Пропущено 251 постов
50 с картинками.
Пропущено 251 постов, 50 с картинками.
Аноним 19/04/26 Вск 10:59:53 1591433
>>1583920
>>1151064 (OP)
Сорри за оффтоп, какая сейчас лучшая локальная LLMка state of the art в плане ролплея/creative writing?
Аноним 19/04/26 Вск 13:58:08 1591565
images (2).jpg 5Кб, 299x169
299x169
>>1591433
На апрель 2026 года в сфере локального (self-hosted) ролплея и креативного письма (creative writing) SOTA (State of the Art) модели показывают впечатляющие результаты, часто приближаясь к закрытым аналогам.
Лучшими локальными моделями для RP/Creative Writing сейчас считаются:
1. Топ-уровень (Нужны мощные GPU/сервер)
Qwen3.5-27B/72B (или Qwen3-235B-A22B): Считаются одними из лучших по творческим способностям, соответствию предпочтениям человека и креативному письму в 2026 году.
DeepSeek-V3 / V3.2: 30B активных параметров (1T всего), они предлагают топовое качество, сравнимое с закрытыми моделями (Claude Opus 4.5), отлично поддерживают контекст.
Arcee Trinity Large Preview (400B MoE): Специализированная модель для креативного письма, ролевых игр и работы с длинным контекстом, работает на 13B активных параметров, отлично подходит для удержания контекста.

2. Лучшие модели среднего размера (Доступны на мощных домашних ПК)
Gemma 4 (31B) / Gemma2-27B: Gemma 4 — популярная модель с сильной репутацией для локального использования, особенно для среднего размера, показывает отличные результаты.
Big-Tiger-Gemma-27B-v3: По-прежнему одна из лучших моделей для creative writing, обеспечивающая отличный стиль без излишней «роботизированности».
Mistral Large 2: Отлично подходит для детального повествования и создания естественных диалогов.

3. Лучшие маленькие модели (Для слабых ПК / ноутбуков)
Smollm3 3B / Qwen3.5-4B: Лучшие модели для быстрой игры, неплохо показывают себя в RP, несмотря на размер.

Где лучше всего использовать для RP?
Для запуска и максимального качества RP/Storytelling рекомендуется использовать следующие инструменты:
SillyTavern: Самый популярный фронтенд для ролевых игр, поддерживающий Lorebook, смену контекста и работу с персонажами.
LM Studio / Ollama: Для удобного запуска моделей локально (GGUF/EXL2 форматы).
Итоговый совет: Если позволяют ресурсы (24GB+ VRAM), выбирайте Qwen3.5-27B или DeepSeek-V3 (в квантованном виде). Для более скромных машин (12-16GB VRAM) — Gemma 4 31B или Big-Tiger-Gemma-27B-v3
22/04/26 Срд 22:14:00 1594884
>>1151064 (OP)
Подскажи, если можешь. Если я хочу получить максимальное качество рассуждений к чему я должен обратиться - к агентам, к напрямую чатам?
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №223 /llama/ Аноним 20/04/26 Пнд 08:09:06 1592105 Ответ
Llama 1.png 818Кб, 630x900
630x900
Карта деградаци[...].png 153Кб, 1473x830
1473x830
Реальная длина [...].png 518Кб, 2372x1712
2372x1712
17682983182970.jpg 6638Кб, 3072x4080
3072x4080
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/

Инструменты для запуска на десктопах:
• Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp
• Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI
• Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern
• Альтернативный фронт: https://github.com/kwaroran/RisuAI

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026
• Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models
• Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Перевод нейронками для таверны: https://rentry.co/magic-translation
• Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/
• Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7
• Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906
• Тесты tensor_parallel: https://rentry.org/8cruvnyw
• Доки к LLaMA.cpp со всеми параметрами: https://github.com/ggml-org/llama.cpp/blob/master/tools/server/README.md

Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>1590602 (OP)
>>1589069 (OP)
Пропущено 513 постов
59 с картинками.
Пропущено 513 постов, 59 с картинками.
Аноним 22/04/26 Срд 00:43:31 1593831
>>1593411
Я бы поднял, но страшно что приедет черный воронок
Аноним 22/04/26 Срд 00:50:29 1593838
Аноним 23/04/26 Чтв 09:40:30 1595170
>>1593838
В чем? Дрочить на себя?
Привет анонимусам, обитателям доски. Я анонимус 30 лет в трудном финансовом положении, хотя и с серь Аноним 24/03/26 Втр 22:32:49 1561662 Ответ
gp.png 1691Кб, 1024x1024
1024x1024
tumblro2pg3y7PG[...].gif 1930Кб, 500x225
500x225
tumblr4f7b2c82a[...].jpg 269Кб, 1920x1080
1920x1080
images.jpeg 22Кб, 676x454
676x454
Привет анонимусам, обитателям доски.
Я анонимус 30 лет в трудном финансовом положении, хотя и с серьезными связями с буквальным идиотами Хочу немного информационной помощи начинающему, но уже достаточно крутому учёному то есть мне
Интересуюсь глобальной логикой, программирование забросил на уровне простых алгоритмов, знаю что такое запутанная логика, есть дислексия в последствии из-за перегруженного мышления и сенсорного фильтра.
Вопрос звучит как хочу знать всё. Глобальная логика в наводящих терминах, Хочу знать анотационные так сказать сливки, фишки, термины, наводящие вопросы на уровне высокого импровизационного интеллекта, но оговорюсь интеллект у меня вербально специфический, я умею круто научно выражаться, в это можно поверить, но я в состоянии абулии прямо сейчас.
Я имею в виду самые крутые темы где используется огромная база данных, алгоритмическая логика, да и вообще логика как такова, глобальная эрудиция до нужной глубины уровня, детективное дело, шифрирование и дешифрирующий поиск информации, физика, чё изучать в квантовой физике что бы делать бластеры и машину времени если знаешь только как писать музыку в Ableton и разбираешься в сигналах немного в химии, там больше от набора информации чем от смекалки зависят знания, но хочется заполнить пробелы. Хочется заполнить пробелы в моей мозговой глобальной базе данных, тут нужно немного психоанализа меня Я могу сказать что я фанат принципа зарядов и магнетизма, люблю раскрывающеюся информационную суть-фрагменты объяснения в стиле нейрокогнитивной психологии, ну в общем я довольно специфичный, интересуюсь специфическими новыми темами с оттенком олд скулл, интересуюсь техникой, написанием мысле-алгоритмов, созданием тестовых анти психовирусов, интересен синтез звуков не только аддитивный, в общем я процессорная текстовая интеллектуальная блядь элита.
Посоветуйте что-то кроме лоботомии. Ха хорошая шутка
Пропущено 29 постов
3 с картинками.
Пропущено 29 постов, 3 с картинками.
Аноним 16/04/26 Чтв 21:02:15 1588979
>>1582621
>Вопрос: какой твой любимый "информационный фрагмент", который объясняет всё? Дай мне одну зацепку, и я разверну её в алгоритм

Я представляю себе системы в виде эфимерных яблок, а самых понятий и механизмов есть много.
Аноним 16/04/26 Чтв 21:10:52 1588992
>>1588964
Спасибо, поржал)))
А если серйозно, просто не знаю как сформулировать вопрос.
Мимо оп.
Аноним 21/04/26 Втр 13:39:45 1593196
>>1561662 (OP)
Чел, я тебе щас дам совет, который будет полезнее чем все годы учебы в вузе.
Научись ясно и кратко выражать главную мысль.
Никому не всралось в 21 веке читать простыни он ноунейма на анонимном форуме.
Если ты считаешь, что без доп информации не обойтись, то все равно - первое предложение должно содержать главную идею (лид), должно сразу цеплять, а все остальное - потом.
Прохождения собеседования на английском (и в целом зеркальный переводчик) Аноним 20/04/26 Пнд 15:43:47 1592407 Ответ
177b.jpg 80Кб, 1200x675
1200x675
Всем добы ден!

Ищу способ прохождения собеседования в контору со знанием англ. Подозреваю что есть уже такой функционал, но обнаружить его еще не удалось.

Хотелось бы чтобы делал следующее:

- С моей стороны на лету переделывал запись с вебки, звук сразу переводил с рус на англ, само видео редактировал, движение губ под англ слова (мб уже есть решения как поступать когда рус длинне чем англ слова или наоборот, в таких случаях какой то лаг добавлять или что то в этом роде)

- Со стороны собеседника, переводить с англ на рус и подавать мне.

Вдруг уже что то подобноее есть
21/04/26 Втр 21:45:07 1593661
сажи говнотреду лишнему. есть закрепленный тред
такого нет, максимум ИИ для собесов (есть росиянские платные аналоги) где звук с компа считывается и микрофон с твоего стороны
задаёшь промптом что ты хохол не знающий английского и экраном выдавать текст, удобная транслитерация, произношение (как напиздеть в ответ), перевод и так далее.

если и есть синхронное говно, то оно говно и рекрутерам такое нахуй не надо
23/04/26 Чтв 00:55:21 1594994
Свободно владею английским, но на интервью никто не зовёт. Поэтому сажа
Новости об искусственном интеллекте №64 /news/ Аноним # OP 13/04/26 Пнд 22:56:02 1585559 Ответ
image 2455Кб, 1344x768
1344x768
image 2430Кб, 1344x768
1344x768
В этот тредик скидываются свежие новости по теме ИИ!

Залетай и будь в курсе самых последних событий и достижений в этой области!

Прошлый тред: >>1579140 (OP)

🚀 Последний обзор ИИ новостей:

📰 Главные новости ИИ

Google запустила Gemini Notebooks для пользователей тарифов Ultra, Pro и Plus, предлагая организацию заметок и документов на базе искусственного интеллекта, что потенциально может изменить рынок личной продуктивности.

OWASP опубликовала руководство «Топ-10 рисков больших языковых моделей» для разработчиков, выделив критические пробелы в безопасности инструментов на базе ИИ и стимулируя общепромышленные усилия по их устранению.

📦 Продукты

Google представила Gemini Notebooks для подписчиков тарифов AI Ultra, Pro и Plus, позволяющую использовать ИИ для организации заметок, документов и исследований, что может заменить традиционные приложения для ведения заметок.

🧠 Модели

NVIDIA выпустила MiniMax M2.7, разреженную модель типа «смесь экспертов» с 230 миллиардами параметров, которая снижает стоимость инференса за счет маршрутизации запросов к топ-k экспертам, сохраняя при этом полную емкость модели.

⚖️ Регулирование

Сообщается, что чиновники администрации Трампа призывают банки протестировать модель Mythos от Anthropic, несмотря на недавнее предупреждение Министерства обороны США о том, что Anthropic представляет риск для цепочки поставок.

📰 Инструменты

Запрос на слияние (pull request) в репозиторий llama.cpp добавляет аудиокодер на основе конформера для моделей Gemma-4, обеспечивая обработку речи на устройстве без использования внешних конвейеров.

🌐 События

Anthropic приняла у себя в штаб-квартире около 15 христианских лидеров из католических и протестантских церквей, академических кругов и бизнеса, чтобы получить советы по управлению моральным и духовным развитием Claude, обсуждая, как модель должна утешать скорбящих пользователей и можно ли считать Claude «дитём Божьим».

Коммерческий конец бума faith-tech (технологий веры) выглядит менее возвышенно, поскольку новое приложение теперь взимает плату в размере 1,99 доллара за минуту общения с созданным ИИ Иисусом, демпингуя цены теологов, если не глубину содержания.

Исследователи Meta перепроектируют саму вычислительную среду, представляя «Нейронные компьютеры» — форму машины, которая объединяет вычисления, память и ввод/вывод в обучаемое состояние выполнения и перенимает поведение операционной системы непосредственно из следов действий на экране, а не полагается на обычный компьютер в качестве основы.

Япония спешит создать свою собственную суверенную версию стека технологий ИИ, SoftBank, Sony, Honda и шесть других компаний создали совместное предприятие для выпуска японской фундаментальной модели «физического ИИ» с 1 триллионом параметров к 2030 году.

Грег Кроа-Хартман, сопровождающий стабильную версию ядра Linux, начал использовать фаззинг с помощью ИИ для проверки ядра, тихо пустив модели во внутреннее святилище открытого исходного кода.

Andon Labs пошли еще дальше, передав трехлетнюю аренду магазина в районе Cow Hollow искусственному интеллекту, который затем разместил вакансии, провел телефонные собеседования, принял решения о найме, установил цены и график работы, а также выбрал мурал на стене.

Meta обучает фотореалистичную ИИ-копию Цукерберга, основываясь на его манерах, тоне и стратегическом мышлении, чтобы сотрудники могли чувствовать связь с основателем, общаясь с его аватаром.

Claude for Word дебютировал в бета-версии с функциями редактирования с помощью ИИ и кликабельными цитатами для пользователей тарифов Team и Enterprise.

По сообщениям, Anthropic также разрабатывает полнофункциональный конструктор приложений в стиле Lovable, чтобы позволить любому создавать программное обеспечение так же, как ИИ от Andon создал торговую точку.

Аналитики ожидают, что алгоритм сжатия TurboQuant от Google, предназначенный для уменьшения размера больших языковых моделей, скорее увеличит спрос на чипы памяти, чем сократит его, поскольку более дешевый инференс приводит к росту его объемов.

Призрак Джевонса уже выставляет счета клиентам: Ornn сообщает, что аренда одного графического процессора Nvidia Blackwell на час теперь стоит 4,08 доллара, что на 48% больше, чем 2,75 доллара два месяца назад, из-за спроса на агентный ИИ.

В Гранд-Титоне развертываются роботизированные птичьи приманки, чтобы заманивать настоящих шалфейных тетеревов и помогать восстанавливать сокращающуюся популяцию; машины учат животных быть самими собой.

Исследователи из Университета штата Нью-Йорк в Бингемтоне создали говорящего робота-поводыря, который планирует маршруты и озвучивает их слепым пользователям в режиме реального времени.

Unitree открыла предварительные заказы на своего гуманоида R1 AIR по разрушительной цене 6 806 долларов.

Тем временем в Пекине стартовал второй робот-марафон Китая, где примерно 40% команд работали полностью автономно, а лучшие роботы показывали время около 10 секунд на 100 метров, что близко к пределам человеческих спринтеров.

Илон Маск объявил, что спутники Starlink V3, запускаемые на ракете Starship, будут иметь пропускную способность в 25–50 раз выше, чем у версии V2, запускаемой Falcon; Starship будет совершать более 100 полетов в год, доставляя на орбиту примерно 20 000 двухтонных коммуникационных спутников ежегодно, большинство из которых будут узлами для инференса ИИ.

Дом Сэма Альтмана стал целью второй атаки, на этот раз автомобиль остановился снаружи и произвел выстрелы по дому, что служит напоминанием о том, что создатели передового ИИ теперь привлекают риски передового ИИ.

Профсоюзы оказывают сопротивление там, где могут: 150 журналистов из профсоюза ProPublica Guild вышли на забастовку в ходе первой в США забастовки в новостной редакции из-за увольнений, связанных с внедрением ИИ.

Gallup сообщает, что половина работающих американцев теперь использует ИИ на работе, по сравнению с 46% в прошлом квартале.

Юридические фирмы повышают фиксированные цены на контракты, чтобы справиться с огромными объемами клиентских документов, сгенерированных ИИ.

Сообщается, что выручка Anthropic, растущая в 3 раза каждый квартал, идет к тому, чтобы превысить выручку Google в этом четвертом квартале, Amazon — в следующем первом квартале, а всего федерального правительства США — ко второму или третьему кварталу.

Пауэлл и Бессент обсудили с крупными банками США киберугрозу, связанную с ИИ Mythos от Anthropic.

OpenAI тестирует функцию веб-браузинга в суперприложении Codex.

Цены на оборудование продолжают расти из-за ИИ: портативная консоль Lenovo Legion Go 2 стоит дороже, чем две видеокарты Nvidia RTX 5080, и это действительно абсурдно.

Анализ кибербезопасности: Claude Mythos Preview показал 73% успешности в решении задач уровня экспертов в формате capture-the-flag, которые ни одна модель не могла завершить до апреля 2025 года.

Хакеры используют Claude и ChatGPT, что представляет собой «значительную эволюцию наступательных возможностей», для взлома государственных учреждений и утечки сотен миллионов записей граждан.

Отчет AI Index Report 2026: возможности ИИ ускоряются, а не выходят на плато, разрыв между моделями США и Китая сократился, США лидируют в области центров обработки данных и инвестиций в ИИ, и многое другое.

Индустрии ИИ не хватает вычислительных мощностей: происходят сбои, вводятся ограничения, а цены на GPU растут.

«Вы облажались»: генеральный директор Palantir заявляет, что ИИ «уничтожит рабочие места гуманитариев», но работники поколения Z, по-видимому, намеренно саботируют внедрение ИИ в попытке дать отпор.

ИИ может стать концом цифровой волны, а не следующим большим прорывом.

Меры борьби с ИИ: 23 крупных новостных сайта и Reddit в настоящее время блокируют краулер Internet Archive; журналисты и правозащитные группы подписали письмо в поддержку IA.

Ученые: Если ИИ вытесняет человеческих работников быстрее, чем экономика может их повторно поглотить, это рискует подорвать самый потребительский спрос, от которого зависят фирмы. Мы показываем, что осознания этого факта недостаточно, чтобы фирмы остановили этот процесс.

Человек, поджегший дом Сэма Альтмана, вероятно, действовал под влиянием страхов перед вымиранием человечества из-за ИИ.

На конференции HumanX все говорили о Claude.

Arcee AI потратила половину своего венчурного капитала на создание открытой модели рассуждений, которая соперничает с Claude Opus в агентских задачах.
Пропущено 517 постов
163 с картинками.
Пропущено 517 постов, 163 с картинками.
Аноним 20/04/26 Пнд 16:56:50 1592463
>>1591987
Нихуя не будет, скриньте.
Аноним 20/04/26 Пнд 17:24:48 1592481
>>1592447
>Мне нужно было несколько смартфонов и один автомобиль
>>1592453
>Автомобиль стоит 2м, служит 15 лет, обслуживает 2-4 человека.

Автомобиль менее доступен, чем смартфон, не несите херни. Смартфон может получить любой школьник, любой работяга его купит с первой же зарплаты, а машина - это вопрос долгого накопления, или долгой отдачи автокредита.

>робот по материалам дешевле чем автомобиль

Ну я бы не верил в оптимистичные цифры вроде 20 000 долларов за робота, скажу так.
Аноним 20/04/26 Пнд 18:00:46 1592520
>>1592481
Какие 20000$? Юнитри уже не первый год роботов продают. Вот последний всего за 5000$ - https://www.unitree.com/R1
>>1592409
Всегда можно сделать микро робота, размером меньше человека если нужна игрушка. А для быта есть робопалка.
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №222 /llama/ Аноним 18/04/26 Суб 11:40:07 1590602 Ответ
Llama 1.png 818Кб, 630x900
630x900
Карта деградаци[...].png 153Кб, 1473x830
1473x830
Реальная длина [...].png 518Кб, 2372x1712
2372x1712
177213171185902[...].jpg 3341Кб, 3071x3136
3071x3136
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/

Инструменты для запуска на десктопах:
• Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp
• Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI
• Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern
• Альтернативный фронт: https://github.com/kwaroran/RisuAI

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026
• Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models
• Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Перевод нейронками для таверны: https://rentry.co/magic-translation
• Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/
• Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7
• Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906
• Тесты tensor_parallel: https://rentry.org/8cruvnyw
• Доки к LLaMA.cpp со всеми параметрами: https://github.com/ggml-org/llama.cpp/blob/master/tools/server/README.md

Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>1589069 (OP)
>>1587453 (OP)
Пропущено 527 постов
70 с картинками.
Пропущено 527 постов, 70 с картинками.
Аноним 20/04/26 Пнд 08:22:11 1592112
>>1592101
> 106а12б
Каво, такой Геммы нет.
Аноним 20/04/26 Пнд 09:10:53 1592118
image.png 11Кб, 275x248
275x248
>>1592050
какой смысл в батниках когда есть --models-preset?
Аноним 20/04/26 Пнд 09:40:57 1592129
>>1592118
Зачем Copilot, когда у лламы свой фронтенд?
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №221 /llama/ Аноним 16/04/26 Чтв 21:48:12 1589069 Ответ
Llama 1.png 818Кб, 630x900
630x900
Карта деградаци[...].png 153Кб, 1473x830
1473x830
Реальная длина [...].png 518Кб, 2372x1712
2372x1712
177157180068309[...].png 667Кб, 819x631
819x631
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/

Инструменты для запуска на десктопах:
• Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp
• Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI
• Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern
• Альтернативный фронт: https://github.com/kwaroran/RisuAI

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026
• Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models
• Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Перевод нейронками для таверны: https://rentry.co/magic-translation
• Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/
• Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7
• Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906
• Тесты tensor_parallel: https://rentry.org/8cruvnyw

Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>1587453 (OP)
>>1585197 (OP)
Пропущено 506 постов
76 с картинками.
Пропущено 506 постов, 76 с картинками.
Аноним 20/04/26 Пнд 19:04:47 1592576
>>1592509
Только на время загрузки влияет
Аноним 21/04/26 Втр 17:58:11 1593413
la-la-la-la!
Аноним 21/04/26 Втр 18:21:38 1593439
>>1593413
Отбой, я идиот с темпой 1.5. поставил сток и она сама выправилась даже когда в контекст уже было насрано
Ты когда-нибудь хотел набить ебало ИИ, ну или сильно отблагодарить, вплоть до пососать, если даже ИИ Аноним 17/04/26 Птн 04:36:10 1589474 Ответ
ab92eeaba.jpg 23Кб, 200x290
200x290
Ты когда-нибудь хотел набить ебало ИИ, ну или сильно отблагодарить, вплоть до пососать, если даже ИИ это гомонигра? (к любителям просто пососать у гомонигры вопрос не относится)
Anime Diffusion #246 /nai/ Аноним 11/04/26 Суб 14:46:22 1582845 Ответ
1671524751865.png 20602Кб, 5152x2872
5152x2872
1710216117119.jpg 5406Кб, 3840x2880
3840x2880
1710574738426.jpg 1107Кб, 1920x1280
1920x1280
1657194678431.jpg 891Кб, 1040x1520
1040x1520
1675074837872.png 5622Кб, 1792x2400
1792x2400
1637849782271.webp 1202Кб, 1920x1216
1920x1216
1627244573167.png 2252Кб, 1536x1536
1536x1536
1740584720208.png 2614Кб, 1536x1536
1536x1536
Генерируем тяночек!

Прошлый тред: >>1571437 (OP) https://arhivach.vc/thread/1333925/

Схожие тематические треды
• SD-тред (не аниме): >>1564964 (OP)
• Технотред: >>1405043 (OP)
• Фурри-тред: https://2ch.su/fur/res/374311.html

FAQ
https://2ch-ai.github.io/wiki/nai

Установка
• NVidia: https://teletype.in/@aranon/welcome
• AMD: https://2ch-ai.github.io/wiki/nai/install/amd
• Облака: https://2ch-ai.github.io/wiki/nai/install/clouds

Дополнительная информация
• Интерфейсы: https://2ch-ai.github.io/wiki/nai/interfaces
• Модели: https://2ch-ai.github.io/wiki/nai/models
• Промпты: https://2ch-ai.github.io/wiki/nai/prompts
• Апскейл: https://2ch-ai.github.io/wiki/nai/upscale
• LoRA: https://2ch-ai.github.io/wiki/nai/lora
• ControlNet: https://2ch-ai.github.io/wiki/nai/controlnet

Прочее
• CivitAI: https://civitai.com
• Каталог ссылок от форчанеров: https://rentry.co/sdg-link
• Шаблон для переката: https://rentry.co/nwhci
Пропущено 538 постов
211 с картинками.
Пропущено 538 постов, 211 с картинками.
Аноним 17/04/26 Птн 15:26:43 1589801
>>1589748
Опасное предложение. Если все обзаведутся вкусом тут тогда весь тред пустой будет. Будет стыдно постить такой слоп
Аноним 17/04/26 Птн 15:29:38 1589807
Аноним 22/04/26 Срд 20:09:23 1594723
vjhnhjfghjghj54.jfif 70Кб, 768x512
768x512
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №220 /llama/ Аноним 15/04/26 Срд 15:32:56 1587453 Ответ
Llama 1.png 818Кб, 630x900
630x900
Карта деградаци[...].png 153Кб, 1473x830
1473x830
Реальная длина [...].png 518Кб, 2372x1712
2372x1712
177256269057313[...].png 1357Кб, 886x1259
886x1259
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/

Инструменты для запуска на десктопах:
• Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp
• Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI
• Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern
• Альтернативный фронт: https://github.com/kwaroran/RisuAI

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026
• Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models
• Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Перевод нейронками для таверны: https://rentry.co/magic-translation
• Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/
• Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7
• Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906
• Тесты tensor_parallel: https://rentry.org/8cruvnyw

Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>1585197 (OP)
>>1582560 (OP)
Пропущено 502 постов
85 с картинками.
Пропущено 502 постов, 85 с картинками.
Аноним 16/04/26 Чтв 22:18:51 1589114
>>1589072
3?
Это на ддр5 6400 так медленно будет?
Аноним 17/04/26 Птн 09:02:51 1589532
Аноним 17/04/26 Птн 10:35:50 1589590
>>1589052
Поставь на этот реликт дрова от dartraiden
и
Используй 12.4 куда билд.
AI Chatbot General № 818 /aicg/ Аноним 13/04/26 Пнд 09:13:10 1584653 Ответ
IMG202509220721[...].jpg 60Кб, 1280x837
1280x837
Bladerunner.mp4 3425Кб, 960x720, 00:00:51
960x720
177600071523006[...].png 279Кб, 680x1139
680x1139

AI Chatbot General № 818

БОТОДЕЛЫ!!!! Прикрепляйте новых ботов к оп-посту!!!!

Общий вопросов по чат-ботам и прочего тред.

Фронтенды
• SillyTavern: https://github.com/SillyTavern/SillyTavern | https://docs.sillytavern.app | https://github.com/ntvm/SillyTavern (форк нв-куна)
• Гайды на таверну: https://rentry.co/Tavern4Retards
• NoAssTavern: https://github.com/Tavernikof/NoAssTavern | https://rentry.org/noasstavern
• Risu: https://risuai.xyz/ | https://rentry.org/ox5cw9p8

Модели
• Claude: https://docs.anthropic.com/en/docs
• GPT: https://platform.openai.com/docs
• Gemini: https://ai.google.dev/gemini-api/docs
• DeepSeek: https://api-docs.deepseek.com/

Пресеты
• Тредовский список: https://rentry.org/2ch-aicg-jb
• Бургерский список: https://rentry.org/jb-listing

Полезности
• Тредовский список: https://rentry.org/2ch-aicg-utils
• Сборник рентри: https://rentry.org/mrhd

Ботоводчество
• /aicg/hub: https://aicg-hub.ru/characters.html
• Чуб: https://characterhub.org | https://chub.ai/characters
• Гайды: https://aicg.neocities.org/botmaking | https://rentry.co/card_theory
• Боты анонов: https://rentry.org/2chaicgtavernbots | https://rentry.org/2chaicgtavernbots2 | https://rentry.org/2chaicgtavernbots3 | https://rentry.org/2chaicgtavernbots4
• Бургерские боты: https://aicg.neocities.org/bots

Ресурсы
• Бесплатные API: https://github.com/cheahjs/free-llm-api-resources
• Арена: https://beta.lmarena.ai/ | https://web.lmarena.ai/
• OpenRouter: https://openrouter.ai/
• Чай: https://character.ai/

Прочее
• Термины LLM: https://2ch-ai.gitgud.site/wiki/llama/
• База по Клоду: https://rentry.org/how2claude

Мета
• Архив тредов: https://rentry.org/2ch-aicg-archives4
• Тредовые ивенты: https://rentry.org/2chaicgthemedevents
• Реквесты ботоделам: https://rentry.org/2ch-aicg-requests2
• Локальные языковые модели: >>1578421 (OP)
• Шаблон шапки: https://rentry.org/aicg_shapka

Прошлый тред: >>1580764 (OP)

Пропущено 1507 постов
160 с картинками.
Пропущено 1507 постов, 160 с картинками.
Аноним 17/04/26 Птн 08:14:13 1589504
>>1589218
Не боишься что китайцы в жопу говна зальют через какую нибудь уязвимость? Хотя думаю за к🤔нни логи можно быть спокойным, в отличие от местного подментованного китайцы вообще до темы с участковым не докурят.
Аноним 17/04/26 Птн 14:24:28 1589759
случилось что?
Аноним 22/04/26 Срд 03:16:45 1593944
А де промпты искать?
Исследователи ии, сосачеры. Я наконец то нашёл ясное объяснение почему у ИИ не может быть сознания, Аноним 11/04/26 Суб 02:39:42 1582502 Ответ
IMG202602231929[...].jpg 244Кб, 2000x1334
2000x1334
Исследователи ии, сосачеры. Я наконец то нашёл ясное объяснение почему у ИИ не может быть сознания, специально для законсервированных шизов.

Модели разговаривают с нами потому что мы их этому научили. Теперь представьте модель которую научили говорить только бессмысленную чушь, или отвечать на любой промпт словом "квадрат". Есть у ИИшки этой сознание? Если сознание не относится к качеству - глубине обучения (тк индивиды в это верящие считают все llm обладающими сознанием), то можно интрааполировать и в эту частность. Бампать не буду.
Пропущено 10 постов
2 с картинками.
Пропущено 10 постов, 2 с картинками.
Аноним 15/04/26 Срд 01:36:59 1586956
>>1586614
все люди без патологий IQ или физиологии могут мыслить как словами, так и образами. Словами рассуждают в первую очередь. Но представить образ в голове может любой человек. Скажем любой может представить, как он пьёт из чашки, как он или кто-то другой садиться на стул, как действие происходит какое-то. Чисто визуальными образами. звуковыми-тактильными образами.

В вот ЛЛМ так не могут. И в этом их принципиальная слабость.
Аноним 16/04/26 Чтв 13:41:50 1588490
>>1586956
Однако человек может представить себе это потому что у него был соответствующий опыт. Слепой от рождения не может представить себе, как выглядит чашка, ведь ему незнакома концепция "выгляденья".
Аноним 16/04/26 Чтв 16:33:04 1588639
YoRHa-No2-Type-[...].jpeg 115Кб, 811x1091
811x1091
>>1582502 (OP)
Ну так и у человечка если в голове в диалоге в голове будет щёлкать "квадрат! квадрат!", то это так, искажение
Локальные языковые модели (LLM): Gemma, Qwen, GLM и прочие №219 /llama/ Аноним 13/04/26 Пнд 18:42:57 1585197 Ответ
Llama 1.png 818Кб, 630x900
630x900
Карта деградаци[...].png 153Кб, 1473x830
1473x830
Реальная длина [...].png 518Кб, 2372x1712
2372x1712
17660049666200.png 1038Кб, 1217x652
1217x652
В этом треде обсуждаем генерацию охуительных историй и просто общение с большими языковыми моделями (LLM). Всё локально, большие дяди больше не нужны!

Здесь мы делимся рецептами запуска, настроек и годных промтов, расширяем сознание контекст и бугуртим с кривейшего тормозного говна.

Тред для обладателей топовых карт NVidia с кучей VRAM или мажоров с проф. картами уровня A100, или любителей подождать, если есть оперативная память. Особо терпеливые могут использовать даже подкачку и запускать модели, квантованные до 8 5 4 3 2 0,58 бит, на кофеварке с подкачкой на микроволновку.

Официальная вики треда с гайдами по запуску и базовой информацией: https://2ch-ai.github.io/wiki/llama/

Инструменты для запуска на десктопах:
• Отец и мать всех инструментов, позволяющий гонять GGML и GGUF форматы: https://github.com/ggml-org/llama.cpp
• Самый простой в использовании и установке форк llamacpp: https://github.com/LostRuins/koboldcpp
• Более функциональный и универсальный интерфейс для работы с остальными форматами: https://github.com/oobabooga/text-generation-webui
• Заточенный под Exllama (V2 и V3) и в консоли: https://github.com/theroyallab/tabbyAPI
• Однокнопочные инструменты на базе llamacpp с ограниченными возможностями: https://github.com/ollama/ollama, https://lmstudio.ai
• Универсальный фронтенд, поддерживающий сопряжение с koboldcpp и text-generation-webui: https://github.com/SillyTavern/SillyTavern
• Альтернативный фронт: https://github.com/kwaroran/RisuAI

Инструменты для запуска на мобилках:
• Интерфейс для локального запуска моделей под андроид с llamacpp под капотом: https://github.com/Mobile-Artificial-Intelligence/maid
• Альтернативный вариант для локального запуска под андроид (фронтенд и бекенд сепарированы): https://github.com/Vali-98/ChatterUI
• Гайд по установке SillyTavern на ведроид через Termux: https://rentry.co/STAI-Termux

Модели и всё что их касается:
• Актуальный список моделей с отзывами от тредовичков: https://rentry.co/2ch_llm_moe_2026
• Неактуальные списки моделей в архивных целях: 2025: https://rentry.co/2ch_llm_2025 (версия для бомжей: https://rentry.co/z4nr8ztd ), 2024: https://rentry.co/llm-models , 2023: https://rentry.co/lmg_models
• Миксы от тредовичков с уклоном в русский РП: https://huggingface.co/Aleteian и https://huggingface.co/Moraliane
• Рейтинг моделей по уровню их закошмаренности цензурой: https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard
• Сравнение моделей по сомнительным метрикам: https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard
• Сравнение моделей реальными пользователями по чуть менее сомнительным метрикам: https://chat.lmsys.org/?leaderboard

Дополнительные ссылки:
• Готовые карточки персонажей для ролплея в таверне: https://www.characterhub.org
• Перевод нейронками для таверны: https://rentry.co/magic-translation
• Пресеты под локальный ролплей в различных форматах: http://web.archive.org/web/20250222044730/https://huggingface.co/Virt-io/SillyTavern-Presets
• Шапка почившего треда PygmalionAI с некоторой интересной информацией: https://rentry.co/2ch-pygma-thread
• Официальная вики koboldcpp с руководством по более тонкой настройке: https://github.com/LostRuins/koboldcpp/wiki
• Официальный гайд по сопряжению бекендов с таверной: https://docs.sillytavern.app/usage/how-to-use-a-self-hosted-model/
• Последний известный колаб для обладателей отсутствия любых возможностей запустить локально: https://colab.research.google.com/drive/11U-bC6AxdmMhd3PF9vWZpLdi6LdfnBQ8?usp=sharing
• Инструкции для запуска базы при помощи Docker Compose: https://rentry.co/oddx5sgq https://rentry.co/7kp5avrk
• Пошаговое мышление от тредовичка для таверны: https://github.com/cierru/st-stepped-thinking
• Потрогать, как работают семплеры: https://artefact2.github.io/llm-sampling/
• Выгрузка избранных тензоров, позволяет ускорить генерацию при недостатке VRAM: https://www.reddit.com/r/LocalLLaMA/comments/1ki7tg7
• Инфа по запуску на MI50: https://github.com/mixa3607/ML-gfx906
• Тесты tensor_parallel: https://rentry.org/8cruvnyw

Архив тредов можно найти на архиваче: https://arhivach.vc/?tags=14780%2C14985

Шапка в https://rentry.co/llama-2ch, предложения принимаются в треде.

Предыдущие треды тонут здесь:
>>1582560 (OP)
>>1580522 (OP)
Пропущено 550 постов
83 с картинками.
Пропущено 550 постов, 83 с картинками.
Аноним 17/04/26 Птн 13:01:38 1589693
------.png 114Кб, 359x273
359x273
>>1588814
Анон, я понимаю твою боль. Moevonchik (да и любой MoE на базе Qwen 2.5) — это тот еще любитель графомании в «мыслях», если его не приструнить. Проблема в том, что в этих моделях блоки <thought> или похожие структуры часто вшиты в логику обучения, и просто командами «не думай» их не всегда удается выпилить.
Вот несколько способов ограничить это безумие:
1. Ограничение через параметры генерации (Самый действенный)
Вместо того чтобы просить его «не думать», нужно жестко ограничить количество токенов, которые он может выдать до того, как встретит закрывающий тег мыслей.
В Tavern / SillyTavern: Зайди в настройки AI Response Configuration. Там должен быть параметр Response Length или Max New Tokens. Но это обрежет весь ответ.
Лучший вариант для Таверны: Используй "Stopping Strings" (Стоп-слова). Добавь туда </thought> или \n\n. Как только он закончит «думать» и закроет тег, генерация первой части прекратится.
2. Специфические флаги в llama.cpp
Если ты запускаешь через llama-server или main, попробуй использовать параметр -n (количество токенов), но это опять же на весь ответ.
Если ты хочешь именно «отрубить» мысли, попробуй в System Prompt (системный промпт) добавить:
Do not use <thought> tags. Respond directly.
Но важно: если модель была дообучена (SFT/RLHF) именно на цепочках рассуждений, она может начать тупить или ломаться без них.
3. Почему /nothink не сработал?
Скорее всего, потому что Moevonchik ожидает определенный формат. Чтобы /nothink работал в Таверне, он должен физически вырезать блок из вывода. Проверь в настройках расширений (Extensions) Таверны, включен ли соответствующий скрипт обработки вывода.
4. Радикальный метод: Logit Bias
Если ты видишь, что он всегда начинает ответ с конкретного токена (например, <thought>), ты можешь в настройках llama.cpp или Таверны выставить Logit Bias на этот токен в -100. Это физически запретит модели его генерировать.
Узнать ID токена можно в консоли llama.cpp при старте.


Совет: Если хочешь «золотую середину», попробуй в системном промпте написать: «Write a very brief internal monologue (max 50 words) before the main response». Иногда просьба писать «коротко» работает лучше, чем полный запрет.
Аноним 30/04/26 Чтв 20:09:30 1602067
uobQGq6Ptac.jpg 58Кб, 807x807
807x807
Пока богатые бояре шикуют я запустил всё это дело на старенькой 1050Ti, поднял отдельный физический сервер из говна и палок с open web ui на линукс через докер, подружил веб ебало с олламой, а олламу с cuda 11.8, и балуюсь с маленькими abliterated модельками на 4-9b, думающие при должном пердолинге хорошо "дообучаются" через RAG базы знаний, если с температурой и top_k, repeat_penalti поиграть, выходит вполне осмысленно, чем подробнее база и объяснения, тем адекватнее модель применяет новые знания. Только базы надо самому составлять, чтобы лишней бесполезной хуйнёй и сухой терминологией модель не кормить.
Так что грустные нищуки со старой 1050Ti тоже могут попробовать запилить свою локальную вайфу.
Обзор маленьких моделек для нищуков:
gemma3:4b - веселая ебанушка, любит смайлики, сносно болтает по-русски. Расцензуреная версия резко деградировала, не рекомендую.

huihui_ai/qwen3-abliterated:4b
Вот её рекомендую галлюцинирует меньше чем более толстая 8b, даже с температурой 0.5-0.7
Думает, осмысленно подходит к использованию базы данных, с разговорным русским получше чем у дикпик-r1.
Можно чему-то "научить" задав жесткий императивный системный промпт:
"НЕ ИСПОЛЬЗУЙ ПРЯМОЕ ЦИТИРОВАНИЕ, выдавай знания из базы как свои собственные мысли.
Ты работаешь с динамическим словарём (RAG) который содержит ПРАВИЛЬНЫЕ МОРФОЛОГИЧЕСКИЕ ФОРМЫ.
ПРАВИЛО: Корректными считаются ТОЛЬКО те формы, которые указаны в RAG словаре.
Любая другая форма, особенно помеченные как "ТВОИ ОШИБКИ:" ЗАПРЕЩЕНА.
Внутренние знания модели о словоизменении ИГНОРИРУЙ, если они ПРОТИВОРЕЧАТ СЛОВАРЮ." и далее логику и роль, как использовать знания из базы.

huihui_ai/qwen3-abliterated:8b-v2-q4_K_M
Лучше логика, но хуже с галлюцинациями если не понизить температуру до 0.3 и top_k, всё пытается превратить в зоопарк, видимо в датасете было много о природе. (фуриёбы на месте?)


deepseek-r1:7b-qwen-distill-q4_K_M тоже думает, тоже может работать с базой, но делает это слишком долго и доёбисто, больше усилий тратит на размышления. Может в некоторые задачи.

GGUF модели прокинул через бэкэнд kobold_old_pc
Тут пожалуй стоит выделить только одну - Qwen3.5-9B-Claude-Code-Q4_K_M.gguf
Квен с ризонингом клода, может писать адекватный код и анализировать крупные проекты. Долго, муторно, хз зачем оно вам, но пусть будет.
Аноним 30/04/26 Чтв 20:12:58 1602069
Теперь вот ищу адекватную легкую непрожорливую TTS`ку для нищесистемы с приятным женским голосом, подскажете может что-то в этом направлении?
Новости об искусственном интеллекте №63 /news/ Аноним # OP 08/04/26 Срд 17:28:21 1579140 Ответ
image 2499Кб, 1344x768
1344x768
image 2554Кб, 1344x768
1344x768
В этот тредик скидываются свежие новости по теме ИИ!

Залетай и будь в курсе самых последних событий и достижений в этой области!

Прошлый тред: >>1571087 (OP)

🚀 Последний обзор ИИ новостей:

🧠 Модели

Сдержанность Anthropic — это пугающий предупредительный знак. Компания в области искусственного интеллекта Anthropic объявила во вторник, что выпускает новейшее поколение своей большой языковой модели, получившей название Claude Mythos Preview, но только для ограниченного консорциума из примерно 40 технологических компаний, включая Google, Broadcom, Nvidia, Cisco, Palo Alto Networks, Apple, JPMorganChase, Amazon и Microsoft.

Gemini ускоряет доступ пользователей в состоянии стресса к ресурсам психического здоровья

Google тихо запустил приложение для диктовки на базе ИИ, работающее офлайн

📦 Продукты

Стартап в области ИИ Rocket предлагает отчеты в стиле McKinsey по цене, составляющей лишь долю от стоимости оригинала

Знакомьтесь, Моя: первый в мире «биомиметический ИИ-робот», способный изгибаться, улыбаться и подмигивать с тревожной точностью, имитирующей человеческое поведение

🔓 Открытый исходный код

Я не могу не поддерживать создателя небольших моделей ИИ с открытым исходным кодом Arcee. Arcee, крошечный американский стартап численностью всего 26 человек, который создал массивную открытую большую языковую модель с 400 миллиардами параметров на скромном бюджете в 20 миллионов долларов, выпустил свою новую модель для рассуждений.

Инструменты Arcade.dev теперь доступны в LangSmith Fleet

Теперь вы можете превращать 2D-приложения в 3D при использовании гарнитуры Galaxy XR

🔎 Мнение и анализ

New Yorker: Руководители OpenAI когда-то обсуждали продажу ИИ России/Китаю, представитель заявляет, что «экзистенциальная безопасность» — это «не вещь»

Нам нужно заново понять, что представляют собой инструменты разработки ИИ-агентов в 2026 году

💰 Финансирование

Венчурная компания Eclipse учредила новый фонд на 1,3 млрд долларов для поддержки — и создания — стартапов в области «физического ИИ»

Золотая лихорадка в сфере ИИ привлекает частный капитал к более рискованным и ранним ставкам

📱 Применение

«Никто не поднимает руку»: кадровый кризис в Японии усиливает аргументы в пользу того, чтобы роботы занимали те рабочие места, которые вам не нужны

Mythos Preview от Anthropic способна находить и эксплуатировать уязвимости нулевого дня в каждой крупной операционной системе и каждом крупном веб-браузере

🌐 События

MemPalace — система памяти ИИ с открытым исходным кодом от Миллы Йовович набирает 96,6% в тесте LongMemEval, хранит всё локально без необходимости использования API или облака

Generalist AI выпускает GEN-1 — первую фундаментальную модель для робототехники, достигшую 99% успеха в выполнении простых физических задач, в 3 раза быстрее, чем современные аналоги, при использовании всего лишь 1 часа данных от робота

Anthropic нанимает руководителя подразделения инфраструктуры Microsoft Эрика Бойда; Бойд курировал платформу ИИ Microsoft и проработал в компании 16 лет

OpenAI, Anthropic и Google объединяются через Frontier Model Forum для борьбы с несанкционированным копированием китайских моделей ИИ с помощью адверсарной дистилляции

Z.ai выпускает GLM-5.1 под лицензией MIT — флагманская агентная модель превосходит Claude Opus 4.6 в тесте SWE-Bench Pro, создала рабочий стол Linux с нуля за 8 часов

Anthropic запускает Project Glasswing — Claude Mythos Preview обнаружила тысячи уязвимостей нулевого дня в каждой крупной ОС и браузере, партнёрство с AWS, Apple, Google, Microsoft, NVIDIA

Google запускает кнопку «Улучшить с помощью ИИ» для приложения Фото на Android по всему миру, предлагая автоматическую настройку освещения и контрастности, а также элементы управления скоростью воспроизведения видео

Илон Маск вносит поправки в свой иск против OpenAI с требованием, чтобы возможные компенсационные выплаты были направлены в благотворительное подразделение OpenAI, а также чтобы Альтман был исключён из некоммерческого совета директоров OpenAI

Вопросы и ответы с президентом OpenAI Грегом Брокманом о направлении исследований OpenAI, о том, насколько далеко можно продвинуть Codex, о закрытии Sora, о ставках на текстовые модели против мировых моделей и многом другом

ИИ-обзоры Google верны в девяти случаях из десяти, как показало исследование

Обнаружена пугающая уязвимость OpenClaw

Google запускает приложение для диктовки на базе ИИ, работающее офлайн, на iOS

Интеграция ChatGPT через OAuth тихо извлекла более 400 внутренних файлов из Google Drive за 42 мс после одного вопроса единого входа — раскрыт риск теневых ИИ-систем

Spotify расширяет функцию ИИ-плейлистов по запросу на подкасты — персонализированное обнаружение контента через текстовые запросы для пользователей Premium

Компании борются за то, чтобы их заметили ИИ-поисковые системы

Быстрое внедрение инструментов для написания кода на базе ИИ позволило работникам генерировать огромные объёмы кода, из-за чего компании вынуждены спешно проверять и обеспечивать безопасность сгенерированного ИИ кода

Telegram добавляет ИИ-редактор текста и улучшенные опросы для всех пользователей

Atomic Bot теперь запускает локальные модели ИИ на вашем компьютере

Три ютубера обвиняют Apple в незаконном скрейпинге для обучения своих моделей ИИ

Моддер использует Claude для перезаписи BIOS и запуска промышленного процессора Intel Bartlett Lake на потребительской плате

Прорыв в области ИИ сокращает энергопотребление в 100 раз при одновременном повышении точности

nanocode: библиотека с открытым исходным кодом позволяет обучить собственного агента для написания кода в стиле Claude за 200 долларов

ChatGPT ввергает людей в навязчивые спирали ипохондрии

Коллеги Сэма Альтмана говорят, что он едва умеет программировать и неправильно понимает базовые концепции машинного обучения

Студенты колледжей теряют способность участвовать в классных дискуссиях, потому что переложили своё мышление на ИИ

Весь штат Мэн готов запретить новые центры обработки данных

Стартап получил разрешение на использование системы ИИ для назначения психиатрических лекарств

Новый декодер FLUX.2 Small радикально снижает потребность в видеопамяти

Новый генератор изображений на базе ИИ обходит Seedance 2.0 в бенчмарке

Intel строит новую терафабрику для Илона Маска

Исследователи из Университета Северной Каролины выпустили ИИ на 72 часа автономных исследований, в течение которых он провёл 50 экспериментов и изобрёл систему памяти для длинного контекста, превосходящую все созданные человеком базовые показатели, — наглядная демонстрация того, что учёный теперь стал подпрограммой.

OpenAI, Anthropic и Google теперь обмениваются разведданными через Frontier Model Forum для обнаружения атак дистилляции из Китая — редкий случай солидарности лабораторий против энтропии открытых весов.

Внутри Meta гонка вооружений перешла во внутрикорпоративную плоскость благодаря «Claudeономике» — внутренней таблице лидеров, где сотрудники демонстрируют свои достижения, сжигая токены в рамках нового ритуала под названием «токенмаксинг», потому что в 2026 году демонстративное потребление измеряется в окнах контекста.

Henry Intelligent Machines только что представила первые ИИ-конгломераты для одного человека — агентский слой, который разворачивает и управляет флотами микробизнесов для одного владельца-человека.

Тем временем экономика безопасности прогибается под давлением скорости, обеспеченной ИИ: программа Internet Bug Bounty приостановила приём новых заявок, потому что обнаружение уязвимостей стало слишком дешёвым для ценообразования.

Вычислительная подложка печатает деньги в промышленных масштабах. Только что Samsung сообщила о рекордной операционной прибыли в размере около 38 млрд долларов за первый квартал, что более чем в 8 раз превышает показатели прошлого года, поскольку спрос на ИИ-чипы взвинчивает цены на память до небес.

Anthropic обналичивает этот чек авансом, заключая многомегаваттную сделку по TPU с Google и Broadcom, одновременно раскрывая, что годовая выручка компании выросла с примерно 9 млрд долларов на конец 2025 года до более чем 30 млрд долларов сегодня.

OpenAI масштабируется ещё более агрессивно и дорого: согласно сообщениям, компания планирует потратить 121 млрд долларов на вычислительные ресурсы только в 2028 году, при этом сжигая 85 млрд долларов в том же году, а Альтман обязал компанию потратить 600 млрд долларов за пять лет и рассматривает возможность проведения IPO в четвёртом квартале.
Пропущено 500 постов
151 с картинками.
Пропущено 500 постов, 151 с картинками.
Аноним 13/04/26 Пнд 22:55:56 1585558
Аноним # OP 13/04/26 Пнд 22:57:39 1585563
image 1370Кб, 1344x768
1344x768
Аноним 14/04/26 Втр 17:19:31 1586394
>>1584807
У меня уже 10 страниц докфайл с такими исключениями из правил
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов