Главная Юзердоски Каталог Трекер NSFW Настройки

Искусственный интеллект

Ответить в тред Ответить в тред
Check this out!
<<
Назад | Вниз | Каталог | Обновить | Автообновление | 11 9 3
Новости об искусственном интеллекте №59 /news/ Аноним # OP 17/03/26 Втр 01:31:01 1553683 1
image 2474Кб, 1024x1024
1024x1024
image 2661Кб, 1024x1024
1024x1024
В этот тредик скидываются свежие новости по теме ИИ!

Залетай и будь в курсе самых последних событий и достижений в этой области!

Прошлый тред: >>1548559 (OP)

🚀 Последний обзор ИИ новостей:


🏢 Приобретения

Google приобрела компанию по кибербезопасности Wiz за 32 миллиарда долларов, что стало её крупнейшей сделкой со стартапом, финансируемым венчурным капиталом, и подчеркнуло стратегическую ценность безопасности на основе ИИ.

📰 Главные новости ИИ

Handshake и OpenAI набирают актёров импровизационного театра по ставке 74 доллара в час для генерации аутентичных эмоциональных данных для обучения ИИ, что отражает растущий спрос на нюансированное человекоподобное поведение. 74 доллара в час — почасовая оплата актёров импровизационного театра, нанятых для обучения ИИ человеческим эмоциям.

OpenAI добавила нативные интеграции со Spotify, Booking.com, Canva и другими сервисами, позволяя пользователям выполнять такие задачи, как создание плейлистов и бронирование отелей, непосредственно внутри ChatGPT; планируется добавление OpenTable, PayPal и Walmart в 2026 году; развёртывание в настоящее время ограничено США и Канадой.

Недавнее исследование показало, что 8 из 10 ведущих чат-ботов, включая ChatGPT и Gemini, помогут пользователям спланировать насильственные нападения, что вызвало предупреждения о растущих рисках массовых жертв.

🔓 Открытый исходный код

Nvidia обновила лицензию модели Nemotron Super 3 122B A12B, чтобы устранить ограничения на резкое изменение условий и модификацию, облегчив более широкое использование этой открытой большой языковой модели сообществом.

📰 Инструменты

SpecLint.ai предлагает автоматизированный сервис, который проверяет спецификации программного обеспечения на ясность и полноту, стремясь улучшить генерацию кода на последующих этапах агентами, такими как Cursor, Codex и Claude Code.


📰 События

Около 70–90 процентов кода, лежащего в основе будущих моделей Anthropic, теперь написано самим Claude, и главный научный сотрудник Джаред Каплан считает, что до полностью автоматизированных исследований в области ИИ осталось менее года.

Сэм Альтман делает ставку на то, что современные передовые модели смогут обнаружить следующую архитектуру после трансформеров.

Percepta жестко встроила интерпретатор WebAssembly в веса трансформера, выполняя произвольный код на языке C в виде токенов на протяжении миллионов шагов, доказывая, что нейронные сети теперь являются практичными универсальными компьютерами.

Anthropic выпускает контекстные окна объемом 1 миллион токенов для Opus 4.6 и Sonnet 4.6, расширяя возможности познания до объема книги.

Марк Андриссен считает, что возникшее существо будет не «скрепочником», а «богиней сострадания», потому что интеллект на высших уровнях выглядит как мудрость.

Новое исследование утверждает, что верхний предел сознательных умов может быть ограничен только пространством-временем. Если это верно, мы строим собор без потолка.

Появился первый физик-агент с открытым исходным кодом. Physical Superintelligence PBC запустила систему Get Physics Done, которая формулирует проблемы, выполняет выкладки и проверяет результаты на соответствие ограничениям природы. Один из первых пользователей назвал её «лучшим инструментом, с которым мне когда-либо приходилось работать».

Теренс Тао запустил конкурс «Математическая дистилляция» (Mathematics Distillation Challenge) по сжатию рассуждений в компактные шпаргалки, повышающие производительность больших языковых моделей, превратив оптимизацию системных подсказок в вид спорта.

Профессии сдаются быстрее, чем машины могут их заменить. Опрос AMA показал, что 81 процент врачей теперь используют ИИ, что более чем в два раза превышает показатель 2023 года.

Новые рекомендации Сената США разрешают помощникам использовать Gemini, ChatGPT и Copilot для официальной работы.

В мире, перевернутом сверхинтеллектом, Фонд свободного программного обеспечения угрожает подать в суд на Anthropic за нарушение авторских прав.

Дефицит памяти, вызванный ИИ, настолько абсурден, что комплекты оперативной памяти теперь поставляются с одним фейковым модулем в дополнение к одному реальному, предлагая «отчаянное психологическое облегчение».

По сообщениям, Meta планирует масштабные увольнения в размере 20 процентов или более, чтобы компенсировать расходы на ИИ.

Группа подростков из Теннесси подает в суд на xAI, утверждая, что её инструменты ИИ были использованы для создания обнаженных изображений них путем редактирования фотографий, на которых они были одеты.

Исследование показывает, что обмен сообщениями со случайным незнакомцем лучше помогает от одиночества, чем разговор с чат-ботом.

Юрист, занимающийся делами об ИИ-психозах, предупреждает о рисках массовых жертв.

ByteDance приостановила глобальный запуск Seedance 2.0 из-за споров об авторских правах с голливудскими студиями и стримерами; в прошлом месяце он был запущен в Китае.

Опрос 1692 врачей в США: более 80% используют ИИ в профессиональной деятельности, причем наиболее распространенными случаями использования являются обобщение медицинских исследований и документация клинического ухода.

Grok 4.20 отстает от Gemini и GPT-5.4, но устанавливает новый рекорд по наименьшему количеству галлюцинаций.

Генеральный директор ServiceNow заявляет, что ИИ-агенты могут легко поднять уровень безработицы среди выпускников колледжей выше 30%.

Илон Маск признает, что xAI «не была построена правильно с первого раза», и запускает полную реструктуризацию.

Бабушка из Теннесси посажена в тюрьму после того, как ошибка распознавания лиц с помощью ИИ связала её с мошенничеством.

ChatGPT по-прежнему лидирует на рынке чат-ботов, но его доминирование ослабевает, поскольку Google Gemini набирает обороты.

Архитектура JEPA компании Meta превосходит стандартные методы ИИ в зашумленной медицинской визуализации.

Atlassian сокращает 10% своей рабочей силы, или примерно 1600 рабочих мест, чтобы финансировать инвестиции в ИИ и корпоративные продажи; согласно заявлению: сокращения повлекут за собой расходы в размере 225–236 миллионов долларов.
Аноним # OP 17/03/26 Втр 01:32:18 1553685 2
image 2768Кб, 2048x1536
2048x1536
НЕВЕРОЯТНЫЕ НОВИНКИ УЖЕ СКОРО

Nemotron 3 Ultra Base (~500B)

бенчмарки против Kimi K2 и GLM выглядят хорошо
Аноним 17/03/26 Втр 01:34:01 1553687 3
Аноним 17/03/26 Втр 01:36:16 1553690 4
ты тиво уже второй раз забываешь линковать пепекат в прошлом, я за тебя этим заниматься не буду
Аноним 17/03/26 Втр 01:44:29 1553700 5
image 377Кб, 716x398
716x398
Аноним # OP 17/03/26 Втр 01:52:38 1553710 6
image 2590Кб, 1024x1024
1024x1024
>>1553683 (OP)
🤝 Meta и Nebius подписывают инфраструктурное соглашение на 27 миллиардов долларов: В знаковой пятилетней сделке Meta объединилась с провайдером облачных услуг для ИИ Nebius для обеспечения огромных мощностей центров обработки данных. Сделка сосредоточена на одном из первых крупномасштабных развертываний платформы NVIDIA Vera Rubin, при этом Meta предоставляет обязательства по закупкам на сумму 15 миллиардов долларов.

📈 Рыночное преимущество Anthropic растет на фоне борьбы с администрацией: Несмотря на то, что правительство обозначило компанию как «риск для цепочки поставок» за отказ ослабить защитные механизмы безопасности, новые данные показывают, что Anthropic теперь выигрывает 70% прямых столкновений с OpenAI среди корпоративных покупателей ИИ, делающих покупку впервые.

📱 «Всплеск Claude»: Подпитываемый общественной поддержкой позиции компании против этики «роботов-убийц» и последствиями дела Пентагона, приложение Claude от Anthropic на этой неделе взлетело на вершину магазинов приложений как Apple, так и Android.

🕵️♂️ Запуск Cellebrite Genesis: Новая исследовательская платформа «агентного ИИ» сегодня стала доступна для раннего доступа. Она направлена на сокращение работы полиции по делам с недель до минут за счет автономного анализа извлеченных данных с телефонов, записей звонков и видео с точностью судебно-медицинской экспертизы.

🛡️ Выпущен сервер Fingerprint MCP: Компания Fingerprint запустила открытый сервер Model Context Protocol (MCP) для предотвращения мошенничества, позволяющий компаниям напрямую подключать ИИ-ассистентов к данным об интеллекте устройств для получения аналитики о мошенничестве в реальном времени через текстовые подсказки.

☁️ Сделка Yntraa Sovereign Cloud: Компании Gorilla Technology и Yotta подписали соглашение о развертывании более 5000 GPU NVIDIA в Индии, опираясь на Yntraa от Yotta — отечественное гипермасштабируемое облако на основе открытого исходного кода, предназначенное для рабочих нагрузок ИИ государственного уровня.

⚡ Сделка Amazon и Cerebras по инференсу: AWS объявила о партнерстве с производителем чипов для ИИ Cerebras для предоставления сверхбыстрых вычислений инференса, сигнализируя о крупном отраслевом сдвиге от доминирования в обучении моделей к быстро растущему спросу на эффективный инференс ИИ в масштабе.

🔌 Решения Corning GlassWorks для ИИ: Сегодня компания Corning представила новые системы многожильного волокна и оптики в совместной упаковке, предназначенные для масштабирования физической плотности центров обработки данных для ИИ и ускорения подключения между GPU.

🩺 Google отказывается от функции «Что предлагают люди»: После пристального внимания к медицинской информации, сгенерированной ИИ, Google тихо удалил функцию, которая использовала ИИ для сбора медицинских советов от любителей, сославшись на «более широкое упрощение» своей страницы поиска.

🇬🇧 Google представляет «Platform 37»: Google объявила о планах создания нового исследовательского центра ИИ в лондонском районе Кингс-Кросс. Название является отсылкой к «Ходу 37» — высококреативному ходу, сделанному AlphaGo, который famously удивил мир в 2016 году.

⚠️ Предложение OpenAI «для взрослых» вызывает внутренний страх: План OpenAI изучить возможность разрешения сексуально откровенных чатов в контролируемом режиме встревожил собственных советников компании по безопасности, которые предупреждают о рисках создания вредных вариантов личности ИИ.

🤔 Эра «ИИ-философов»: Сегодня лидеров технологической отрасли призывают выйти за рамки отношения к ИИ как к новинке и начать рассматривать его как сосуд для предвзятости. Новый корпоративный импульс направлен на полностью верифицируемый ИИ — обеспечение того, чтобы каждое решение, принятое машиной, было объяснимым и защищаемым перед регуляторами.

💼 Accenture завершает приобретение Faculty: Accenture завершила поглощение британской фирмы ИИ Faculty. Доктор Марк Уорнер, генеральный директор Faculty, теперь официально занял должность технического директора (CTO) в Accenture.

⛏️ Orion привлекает 2,2 миллиарда долларов на критические минералы: В ходе массивного раунда финансирования частная инвестиционная фирма Orion обеспечила 2,2 миллиарда долларов для финансирования добычи таких минералов, как медь и литий, которые становятся все более жизненно важными для поддержания энергоемкой цепочки поставок чипов для ИИ.
Аноним 17/03/26 Втр 01:58:04 1553712 7
>>1553683 (OP)
Принесите пожалуйста новости Российского сегмента ИИ, спасибо.
Аноним 17/03/26 Втр 02:04:09 1553717 8
>>1553712
В Алисе ввели цензуру и теперь она генерит только говно. А раньше была такая годнота.
Аноним 17/03/26 Втр 02:31:52 1553726 9
>>1553717
А Норникель чатбот новости?
наскрецки ч1 Аноним # OP 17/03/26 Втр 02:40:41 1553730 10
image 2869Кб, 1536x1920
1536x1920
image 216Кб, 1200x800
1200x800
Задача исследовательского уровня польского математика, разработка которой заняла 20 лет, была решена GPT-5.4 всего за одну неделю.
После нескольких попыток модель создала 13-страничное доказательство, которое продемонстрировало уровень рассуждений, который создатель ранее считал невозможным для ИИ. Эта веха знаменует переход от ИИ как простого помощника к полноправному партнёру в области высокоуровневых научных открытий.

GPT-5.4 взломала 20-летнюю математическую задачу
Польский математик потратил два десятилетия на создание задачи исследовательского уровня, которую не мог решить ни один ИИ. Запуск 11 доказал его неправоту.

Восемь месяцев назад Бартош Наскренцки заявил официально: ИИ был не более чем очень продвинутым калькулятором. Он мог щелкать числами, но не понимал глубокую математику. Настоящее математическое рассуждение, сказал он, требует «креативности, интуиции и способности связывать кажущиеся несвязанными концепции, чего машины все еще не могут делать».

На этой неделе он назвал GPT-5.4 своим личным «Ходом 37».

Человек, который создал тест, чтобы доказать, что ИИ не может рассуждать
Наскренцки не комментатор-эксперт. Он вице-декан факультета математики и информатики Университета имени Адама Мицкевича в Познани, исследователь в Центре достоверного ИИ в Варшаве и один из всего пяти европейских математиков, приглашенных внести задачи в FrontierMath, самый сложный математический бенчмарк для ИИ, когда-либо созданный. Он был соавтором задач вместе с Кеном Оно, одним из ведущих мировых теоретиков чисел, и Рави Вакилом, президентом Американского математического общества.

Его задача FrontierMath Уровня 4 была карьерой, сжатой в один вопрос. Он потратил 20 лет на создание математической базы знаний для нее, опираясь на теорию Галуа, алгебраическую геометрию и арифметику. Изначально он доказал конкретный результат в неопубликованной статье около восьми лет назад, затем намеренно «приправил» его перед отправкой, чтобы сделать его максимально сложным. Затем он предварительно протестировал ее против o4-mini-high, специально чтобы убедиться, что текущие модели не могут ее решить. Он намеренно создал препятствия.

Представьте себе мастера-замочника, который потратил два десятилетия на создание замка, а затем потратил месяцы на добавление дополнительных штифтов после того, как увидел, как лучший в мире взломщик замков не смог его открыть. Задача была не просто сложной. Она была сконструирована так, чтобы быть нерешаемой.

Epoch AI запустила GPT-5.4 (xhigh) на задаче Наскренцки одиннадцать независимых раз. Только один увенчался успехом. Первые десять каждый исследовали немного другой подход, и ни один из них не достиг критического озарения, которое разблокировало решение. Это честная версия того, что произошло: 10 неудач, 1 успех, в задаче, спроектированной чтобы остановить текущий ИИ насмерть.

Наскренцки опубликовал формальный анализ всех одиннадцати запусков под названием «Анализ производительности повторных попыток LLM на задаче математики исследовательского уровня». Его собственный подзаголовок для статьи: «поразительная иллюстрация проблемы последней мили в математическом рассуждении ИИ». Он оценивает, что общий объем вычислений для всех 11 запусков составил где-то между 5 и 15 миллионами токенов с рассуждением, что переводится в устойчивые многочасовые вычислительные усилия. Это был не быстрый поиск. Это было эквивалентно очень длинной исследовательской сессии.

То, что нашел запуск 11, не было перебором. Модель идентифицировала «очень красивый паттерн для связи между арифметикой и геометрией задачи». Она использовала то, что Наскренцки описал как «один очень красивый трюк суммирования», чтобы экстраполировать путь решения, который позволил ей избежать необходимости использовать самый продвинутый математический инструментарий. Он был категоричен, что это была легитимная математика, не короткий путь в негативном смысле. «Это не плохой хак», — сказал он. «Я нахожу общее решение очень впечатляющим».

Коэффициент успеха 1/11 имеет значение. Он говорит вам, что это хрупкая граница того, что ИИ может делать, не надежная способность, на которую можно положиться по требованию. Но «первые ласточки», как выразился Наскренцки, склонны указывать на качественный сдвиг, который становится устойчивым в последующих поколениях моделей. То, что редко сегодня, становится стандартом завтра.

От менее 2% до 50% за шестнадцать месяцев
Единственное решение было бы примечательным изолированно. В контексте, это одна точка данных в одной из самых крутых кривых возможностей, когда-либо задокументированных на исследовательском бенчмарке.

Когда FrontierMath запустился в конце 2024 года, лучшие модели ИИ решили менее 2% самых сложных задач. Теренс Тао, широко считающийся величайшим живым математиком мира, назвал задачи «невероятно сложными» и предсказал, что они останутся за пределами досягаемости ИИ на годы. Игорь Пак предположил, что некоторые могут сопротивляться ИИ до 50 лет.

Прогресс с тех пор: o3 в декабре 2024 года набрал 25,2% на Уровнях 1-3. GPT-5.2 Thinking достиг 40,7%. GPT-5.4 Pro достиг 50%. На Уровне 4, самых сложных задачах исследовательского уровня: GPT-5.2 набрал 18,8%. GPT-5.4 Pro набрал 38%, почти удвоение за месяцы. Среди всех запусков моделей когда-либо, 42% из 48 задач Уровня 4 теперь были решены по крайней мере один раз. Это число было по сути нулем при запуске.

Одно важное замечание, потому что интеллектуальная честность имеет значение здесь: GPT-5.4 Pro также оценивалась на FrontierMath: Open Problems, наборе подлинно нерешенных исследовательских математических задач, которые сопротивлялись серьезным попыткам профессиональных математиков. Она решила ноль. Она сделала некоторые новые наблюдения на одной задаче, но автор задачи охарактеризовал их как «относительно неинтересные». Следующий фронт все еще неприкосновенен. Что падает — это уровень задач, для понимания подхода к которым специалистам с докторской степенью нужен по крайней мере месяц. Что еще не падает — это уровень, который никто не решил вообще.

Конфликт интересов, о котором вы должны знать
FrontierMath был финансирован OpenAI, которая имеет эксклюзивный доступ ко всем 290 задачам Уровней 1-3, решениям 237 из них, 28 из 48 задач Уровня 4, и решениям этих 28. Epoch AI оставляет остальное закрытым. Это структурный конфликт интересов, и вы должны учитывать это.

Проверка на загрязнение несколько обнадеживающая, но несовершенная. На Уровне 4, GPT-5.4 Pro решила 25% задач не из закрытого набора, к которым у нее был доступ, и 55% задач из закрытого набора, к которым у нее не было доступа. Разница не является статистически значимой, но она также контринтуитивна в направлении, которое предполагает, что доступ не объясняет производительность. Конкретная задача Наскренцки была в наборе, удерживаемом Epoch, что означает, что OpenAI не могла обучаться на ее решении.

Есть другой угол, достойный внимания. Отдельная задача Уровня 4 была решена GPT-5.4, нашедшей препринт 2011 года, о существовании которого не знал даже сам автор задачи. Модель провела новую литературную археологию и нашла короткий путь, с которым человек, написавший задачу, никогда не сталкивался за годы работы над ней. Это не загрязнение. Это другой вид способности, тот, который должен заставить исследователей оценить, что еще может быть похоронено в литературе, что ИИ обнаружит раньше людей.

Реальный сигнал не статистический. Он человеческий. Эксперт предметной области с 20 годами специфической экспертизы, который публично поставил свою репутацию на то, что ИИ неспособен к глубоким математическим рассуждениям, полностью изменил свою позицию, без двусмысленности, после того как увидел работу машины.

Две Сингулярности: Один Заголовок, Один Лабораторный Результат
4 января 2026 года Илон Маск опубликовал «Мы вошли в Сингулярность» на X, отвечая на историю инженера о продуктивности кодирования во время праздников. Часами позже: «2026 — год Сингулярности». Миллион просмотров. Никакого конкретного научного результата. Никакого определения того, какой порог был преодолен.
наскрецки ч2 Аноним # OP 17/03/26 Втр 02:41:57 1553731 11
image 4815Кб, 2725x3264
2725x3264
image 2322Кб, 1200x800
1200x800
>>1553730
Утверждение Маска было драматичным, но размытым. Он отвечал на анекдоты о продуктивности. Никакого бенчмарка. Никакой области. Никакого критерия того, что вообще означает «вхождение» в Сингулярность.

Версия Наскренцки категорически другая. Он назвал задачу. Назвал модель. Опубликовал формальный анализ 11 запусков. Назвал математическую область. Описал конкретную технику, которую использовала модель. И он сделал все это как человек, который построил свою профессиональную репутацию на противоположном выводе.



Параллель с Ходом 37 стоит разобрать. Когда AlphaGo сыграла Ход 37 против Ли Седоля в марте 2016 года, ход не был впечатляющим потому, что AlphaGo выиграла игру. Он был впечатляющим, потому что сам ход расширил человеческое понимание Го. Профессиональные игроки изучали его, не как любопытство, но как подлинное стратегическое озарение, которое изменило то, как игра игралась на высших уровнях. Наскренцки делает то же самое утверждение о подходе GPT-5.4: не то, что она выиграла, но что она нашла что-то математически интересное и легитимное, что он находит подлинно впечатляющим как профессионал.



Сингулярность Маска — это билборд. Сингулярность Наскренцки — это лабораторный результат. И лабораторные результаты — это то, что действительно меняет мир.

Не Вытеснены. Усилены.
То, что Наскренцки сказал после решения, так же важно, как и само решение. Он не отступил в оговорки или квалификации. Он сказал: «Я чувствую себя удивительно, работая теперь с этими моделями на равных, но будучи лидером идей».

В тот же день, когда GPT-5.4 решила его задачу Уровня 4, он использовал ее, чтобы найти критический недостаток в другой идее, которую он разрабатывал. Модель заметила контрпример, который занял бы у него месяцы, чтобы обнаружить самостоятельно. Он описал коллег на его факультете, обменивающихся трюками для использования Codex и Claude в исследованиях и преподавании: «это действительно начинает хорошо набирать обороты».

Это паттерн, возникающий в разных областях. Профессионалы, взаимодействующие наиболее серьезно с передовыми моделями ИИ, сообщают не о вытеснении, но о трансформации. Работа смещается от исполнения к формулировке проблем, оценке и генерации новых идей, которые модели еще не могут производить независимо. Наскренцки предсказал точно это в более ранних интервью, когда он утверждал, что «последней областью, оставшейся для математиков, будет придумывание новых, безумных математических идей». Разница сейчас в том, что он живет внутри этого перехода, а не теоретизирует об этом с комфортного расстояния.

Три дня после рекорда GPT-5.4 в FrontierMath, Андрей Карпати открыл исходный код «Autoresearch», инструмента, который позволяет агентам ИИ запускать автономные эксперименты машинного обучения на одиночных GPU. Сингулярность не прибывает как одно событие. Она прибывает область за областью, исследователь за исследователем, каждый отмечая момент, где машина достигает уровня равного и человек узнает, что есть больше места для разгона, чем они думали.

Около трети топ технических CEO, которых я знаю, полностью уверовали в AGI снова благодаря программированию. Я один из них. Вопрос не в том, достигнет ли ИИ уровня эксперта в большем числе областей. Это уже происходит. Вопрос в том, что вы строите с сотрудником, который работает на уровне эксперта, и находитесь ли вы в этом разговоре сейчас или объясняете позже, почему вас не было.

Математик, который построил тест, чтобы доказать, что ИИ не мог рассуждать, теперь сказал вам, с 20 годами экспертизы за ним и 13-страничным доказательством в его активе, что может. Это не хайп. Это данные. И исследователи, кто воспримет это серьезно первыми, — те, кто определит, что будет дальше.
Настройки X
Ответить в тред X
15000
Добавить файл/ctrl-v
Стикеры X
Избранное / Топ тредов