Главная | Опросы | Регистрация |  | Поиск | Стата | 1.0Сайт
Радио Бингуру
🔊
Выбрать
Готово

Материалы про ИИ

Автор | Дата:   
Аналитика, тексты и статьи про ИИ
Автор | Дата:   
AI as Normal Technology

An alternative to the vision of AI as a potential superintelligence
Часто цитируемый материал Колумбийского университета о том, что ИИ — это не все умрут и не AGI, это новая нормальность

Условно говоря, это «владение ПК», «умение говорить», «владение интернетом»

Просто к списку владений современной эпохи добавляете еще одно, включающее в себя все предыдущие

Владение этим навыком, разумеется, является обязательным
Автор | Дата:   
What if artificial intelligence is just a "normal" technology?
Абсолютно до этой же мысли додумался The Economist в свежей статье

https://www.economist.com/finance-and-economics/2025/09/04/what-if-artificial-intelligence-is-just-a-normal-technology
Автор | Дата:   
What if AI made the world's economic growth explode?
В другой, еще летней, статье Economist объясняет почему ИИ имеет все шансы стать дизраптором финансовых рынков и взорвать, буквально, темпы экономического роста

https://www.economist.com/briefing/2025/07/24/what-if-ai-made-the-worlds-economic-growth-explode

Приводится аналогия первой промышленной революции, когда до 1700 года мировая экономика росла на 0.1% в год на протяжении столетий

Появление парового двигателя ускорило экономику в 4 раза и с она разгонялась с тех пор — 0.5% с 1700 до 1820, 1.9% к концу 19 века, 2.8% в 20 веке, т.е. удвоение каждые 25 лет

Соответственно, ИИ это очередной «паровой двигатель» момент, который дает экономике увесистого пинка и она разгонится еще больше

https://www.economist.com/briefing/2025/07/24/what-if-ai-made-the-worlds-economic-growth-explode
Автор | Дата:   
Прекраснейшая история о том, как парень взял с ебея подержанный сервер, накатил туда ИИ с векторной базой и запустил свой Гугл у себя в прачечной

https://www.fastcompany.com/91396271/searcha-page-seekninja-diy-search-engines

Теперь заходя на его сайт ты буквально находишься рядом с его футболками. Прекрасное время гаражного стартап этапа, на котором сейчас находится ИИ
Автор | Дата:   
Как читать эти и подобные ссылки с платных СМИ

Скопируйте ссылку и вставьте ее на сайте https://archive.vn/ в нижнее поле I want to search the archive for saved snapshots

Например, статья выше

https://archive.vn/dLEl5
Автор | Дата:   
божечки, сегодня что, день подарков

ndr:
Как читать эти и подобные ссылки с платных СМИ

Оригинал
Реально работает, бггг, никогда бы не подумал что так просто обойти их пейвол
Автор | Дата:   
Automador

Можно еще проще, от них же https://chromewebstore.google.com/detail/archive-page/gcaimhkfmliahedmeklebabdgagipbia

Потом правой кнопкой на любой ссылке — Archive — Search Link

Автор | Дата:   
ndr:
Как читать эти и подобные ссылки с платных СМИ
Оригинал
Ого, ахерел, спасибо. Бо для украинцев уже прикрыли халяву)

Как же жаль, что ИИ, вроде Perplexity, дип рисерчеры, не читают платные сми
Автор | Дата:   
OpenAI продолжает нас радовать и впервые выпустило работу, где очень подробно и наглядно показывает, как люди используют ChatGPT

Она так и называется How People Use ChatGPT

Тонны графиков, объяснений как они палят чего куда (ведь чаты — анонимные, сотрудники GPT их не видят)

Читать надо вдумчиво, искать свои изюминки. У меня взгляд сразу зацепился за чарты типа



Вот то что внизу — это там, где деньги. А там, где все юзают, там нет. Хе хе
Автор | Дата:   
https://arxiv.org/pdf/2506.02153
https://hbr.org/2025/09/the-case-for-using-small-language-models

Все об одном и том же. То что уже обсуждалось тут многократно

Суть: на API запросах к LLM разоришься. Модель на комп не скачаешь. Инференс своими силами? Только если спросить у NASA есть ли у них лишний комп для тебя.
Большинству бизнесов нужна автоматизация тупых и рутинных задач. Для этого не нужно чтобы модель имела триллионный контекст и знала как сделать бімбу. Нужно чтобы она была затюнена под задачи конкретные. Тогда такое не то что на компе можно поднимать, а и на телефоне, т.к. даже его компьютных мощностей хватит
Автор | Дата:   
Антропик решил не отставать от GPT и выдал тут же свою статистику использования, назвав ее Экономическим Индексом

https://www.anthropic.com/research/economic-index-geography

Тоже масса интересного, например, страны



Однако эт слишком общая картина. А что если взять долю от работающего населения? Получится кто реально использует Клод в экономике



Сразу наверху сверхэффективные страны по производительности труда. Пока ты там пыхтишь, они юзают Клод в хвост и гриву. Грузия, неожиданно

На Гавайях люди планируют отпуска, в MIT делают науку, бразильцы учат с помощью Клода... языки, причем в 6 раз больше, чем в других странах мира. Любопытно

Также автоматизация уже перегнала работу в паре. Теперь в моде «сделай все сам», а не «давай сделаем вместе». Привет любителям теории ИИ как копилота

Бизнес — 77% запросов вообще полный автопилот. Это не копилот и ты в офисе, нет. Это ты на улице — а пилот работает сам. Без тебя

Выводы — экономика начинает перестраиваться под ИИ. Пока что это достаточно простые задачи — тексты, код, обработка документов. Дальше начинается вынос отраслей — программисты, менеджеры, турагенты, переводчики и прочие дармоеды
Автор | Дата:   
На волне последних дичайших новостей где в ГПТ вкладывают полтриллиона долларов, Альтман написал у себя небольшой постик https://blog.samaltman.com/abundant-intelligence

Его перевод

Изобилие интеллекта

Рост использования сервисов ИИ был поразительным; мы ожидаем, что в будущем он будет еще более поразительным.

По мере того, как ИИ становится умнее, доступ к нему будет основным двигателем экономики, и, возможно, со временем, тем, что мы будем считать фундаментальным правом человека. Почти каждый захочет, чтобы ИИ работал на него.

Чтобы иметь возможность обеспечить то, что нужно миру – для инференса вычислений для запуска этих моделей и для тренировочных вычислений для их постоянного улучшения – мы закладываем основу, чтобы значительно расширить наши амбиции по созданию инфраструктуры ИИ.

Если ИИ будет развиваться так, как мы предполагаем, то станут возможными удивительные вещи. Возможно, при 10 гигаваттах вычислительной мощности ИИ сможет найти способ вылечить рак. Или при 10 гигаваттах вычислительной мощности ИИ сможет найти способ предоставить индивидуальное обучение каждому ученику на Земле.

Если мы ограничены вычислительной мощностью, нам придется выбирать, что приоритетнее; никто не хочет делать такой выбор, поэтому давайте строить.

Наше видение просто: мы хотим создать фабрику, которая сможет производить гигаватт новой инфраструктуры ИИ каждую неделю. Реализация этого будет чрезвычайно сложной; нам потребуются годы, чтобы достичь этого рубежа, и это потребует инноваций на каждом уровне стека, от чипов до энергии, от строительства до робототехники.

Но мы усердно работали над этим и верим, что это возможно. По нашему мнению, это будет самый крутой и самый важный инфраструктурный проект за всю историю. Мы особенно рады строить большую часть этого в США; прямо сейчас другие страны строят такие вещи, как заводы по производству чипов и новые энергетические мощности, гораздо быстрее, чем мы, и мы хотим помочь изменить эту тенденцию.

В течение следующих нескольких месяцев мы расскажем о некоторых наших планах и партнерах, с которыми мы работаем, чтобы это стало реальностью. Позже в этом году мы расскажем, как мы это финансируем; учитывая, что увеличение вычислительной мощности является буквальным ключом к увеличению доходов, у нас есть несколько интересных новых идей.
Ощущаете огромного монстра, который захватит каждый аспект жизни? Он уже близко

Впрочем, это актуально лишь для западного мира
Автор | Дата:   
Прекрасное интервью трех гигантов — Майкла Бьюрри, который теперь блогер, основателя Антропика и всем известного блогера Дваркеша Пателя

Про ИИ, разумеется. Общались оригинально — через гугл докс https://post.substack.com/p/the-ai-revolution-is-here-will-the

Из того что бросилось в глаза — Бьюрри больше не использует графики, никакие. Все его графики и таблицы делает Клод



Понимаю его. Начиная с 26 года использование «общественных» неспециализированных, неадаптированных под тебя лично графиков и данных делает тебя заведомо и навсегда неэффективным. Трейдингвью и эксель проиграли Клоду

Ты не можешь выиграть на общественной маршрутке против кастомного феррари, очевидные вещи

Аналогично он задается вопросом — зачем платить электрику сотни баксов, если с клодом ты, в приципе, можешь дома починить абсолютно все сам?



Я так в Испании починил газовую колонку, с фотками в старом еще гпт — вызов мастера обошелся бы в 200 евро и неделю-две ожидания. «Получи рабочую профессию», да да. Чтобы что? Если ты + клод и есть работнички

Впрочем, оппонирую сам себе — любитель с клодом и профессиональный электрик с клодом, согласитесь, абсолютно разные экспертные возможности

Поэтому, думаю, всем очевидно что владение ИИ определяет твое будущее в любой профессии

Также интересные рассуждения о том где ж в ИИ бабки-то, куда вкладываться и многое другое, must read
Автор | Дата:   
ndr

1) Какой средний чек  выйдет в месяц  чтобы пользоваться своим кастомным графиком? 

2) И например, если сравнить максимальную подписку на TW , насколько она сильно она проигрывает твоему  ИИ графику по функционалу ? 
Автор | Дата:   
Mixail

Самый здоровый подход не чтобы клод пайтон скриптами сам графики делал on demand, а взять быструю js библиотеку (я кидал тут неск. ссылок например) и чтобы клод на ее основе запилил свои графики

Можно конечно с и нуля им это сделать, но это объективно затратно по времени. Трушный вариант — даешь клоду уже существующую либу с деплоем на облаке с щедрым free tier типа vercel

Т.е. грубо говоря, сейчас все делают просто свой «трейдингвью» заточенный под себя с любыми нужными фичами

Не знаю кто их аудитория (тв) будет вскоре, думаю они dead
Автор | Дата:   
ndr: Также интересные рассуждения о том где ж в ИИ бабки-то
Оригинал
Да, интересно было прочесть о value accrual и про moats. В принципе, так и есть: ИИ как любая технология испытывает сейчас бум и продолжительный хайп

И ты приводил примеры с маршрутизаторами и железными дорогами (ж/д будет заходить в каждый дом. Мир изменится до неузнаваемости и т.д.). В первом случае не CISCO выиграл больше всех (читай, компании которые инфру расстраивают: датацентры и прочее), а условные создатели chaturbate/onlyfans и вместе с ним отдельные «модели» которые пихали себе шампанское во все отверстия. Блокчейн? Создатель полимаркета. И вместе с ним люди, которые получили невероятно простой инструмент опционной торговли. И эти все примерыы — это конечные юзеры этой инфры, в классическом понимании

ИИ? Выиграют не майкрософты, меты, гуглы и прочие. А конечный пользователь. Конкуренция будет приводить к тому что вчерашние школьники будут вайбкодить целые проекты, оплачивая $200 за условную подписку в Клоде

Какие-то профессии уйдут на покой. Какие-то появятся (AR-оператор роботов). Нувориши, которые создадут что-то, на чем они заработают

И в конце концов, получается так что ИИ — это не сверх-технология, а просто...технология? Как и все остальные до нее. Поэтому, раз сейчас идет война за пользователей — значит будут и дальше всякие подписки за смешные деньги, которые будут давать возможность навайбкодиться по самые помидоры
Автор | Дата:   


Могучий отчет об использовании ИИ в мире. Рвет все полимеры



Китайцы... сосут хуйца, менее 16% населения юзают ИИ (компартия пиздит). Мировой лидер... Эмираты, лол, 64% населения (!) Ну понятно почему, кек. Красные зоны там комунисты у них ии нет вообще

В юа только чили и уругвай в курсе че это, аргентинцы слишком заняты бока против ривера. Я их понимаю, нахуй им этот слоп сдался, их LNG в пустыне прокормит

Итого 27.5 percent of people aged 15 to 64 in developed countries used a generative AI tool, а в развивающихся... 15.4%! We are so fucking early

И как же используют — гпт бесплатный тыкают

https://www.microsoft.com/en-us/research/wp-content/uploads/2026/01/Microsoft-AI-Diffusion-Report-2025-H2.pdf
Автор | Дата:   
Автор | Дата:   
Короткое но интересное интервью Андрея Карпатыча про агентский кодинг, и че нас дальше ждет:







P.S. Кто не шпрехает, на шестеренку если нажать там есть русский язык нейро-озвучка от гугла 
Автор | Дата:   
Andrej Karpathy: От Vibe Coding к Agentic Engineering (часть 1/3) (источник):

Ведущий: Мы безумно рады нашему самому первому специальному гостю. Он помогал создавать современный ИИ, потом объяснять современный ИИ, а время от времени и переименовывать современный ИИ. Он был сооснователем OpenAI прямо в этом самом офисе. В своё время именно он заставил работать Autopilot в Tesla. И у него редкий дар: делать самые сложные технологические сдвиги одновременно понятными и неизбежными.

Все вы знаете его как человека, который в прошлом году придумал термин «vibe coding». Но всего пару месяцев назад он сказал нечто ещё более удивительное — что никогда не чувствовал себя настолько отстающим как программист. С этого мы сегодня и начнём. Спасибо, Андрей, что пришёл.

Андрей Карпатый: Да, привет. Рад быть здесь и открыть мероприятие.

Ведущий: Окей, пару месяцев назад ты сказал, что никогда не чувствовал себя настолько отстающим как программист. Это удивительно слышать именно от тебя. Можешь распаковать эту мысль? Это ощущение было воодушевляющим или тревожным?

Андрей Карпатый: Да, точно смесь обоих. Ну, во-первых, как и многие из вас, я уже какое-то время — наверное, последний год с момента появления — пользуюсь агентными инструментами вроде Claude Code и подобных. Они хорошо справлялись с кусками кода, иногда косячили и приходилось редактировать. В целом полезно.

И вот я бы сказал, декабрь стал для меня переломным моментом. Я был в отпуске, времени было больше — думаю, у многих похоже. И я заметил, что с последними моделями куски кода просто выходят нормально. И я просил ещё, и снова всё нормально. И я уже не помню, когда последний раз что-то корректировал. И я начал доверять системе всё больше. И вот я уже vibe coding.

Мне кажется, это был очень резкий переход. Я пытался подчеркнуть это в Twitter/X, потому что многие восприняли ИИ в прошлом году как что-то близкое к ChatGPT. Но надо было пересмотреть взгляд именно к декабрю, потому что всё фундаментально изменилось — особенно вот этот связный агентный воркфлоу действительно заработал.

И именно это осознание затянуло меня в кроличью нору бесконечных пет-проектов. Папка с пет-проектами у меня битком набита всяким случайным, и я постоянно vibe coding. Так что да, это случилось в декабре, и я разбирался с последствиями.

Ведущий: Ты много говорил про идею, что LLM — это новый компьютер, не просто более качественный софт, а целая новая вычислительная парадигма. Software 1.0 — это явные правила. Software 2.0 — это обученные веса. Software 3.0 — это вот это самое. Если это правда, что команда должна делать иначе с того дня, как в это поверит?

Андрей Карпатый: Да, именно. Software 1.0 — я пишу код. Software 2.0 — я программирую, создавая датасеты и обучая нейросети. Программирование — это, по сути, подготовка датасетов, выбор целевых функций и архитектур.

А дальше произошло вот что: если ты обучаешь одну из этих GPT-моделей или LLM на достаточно большом наборе задач — а обучая на интернете, ты неявно мультитаскаешь все задачи, которые там есть, — то они становятся, в некотором смысле, программируемым компьютером. Software 3.0 — это про то, что программирование превращается в промптинг. А то, что находится в контекстном окне, — твой рычаг управления интерпретатором, то есть LLM, который интерпретирует твой контекст и выполняет вычисления в цифровом информационном пространстве.

Думаю, было несколько примеров, которые мне это особенно ярко продемонстрировали — может, они будут полезны. Например, когда вышел OpenCode: чтобы его установить, ты бы ожидал, что это будет bash-скрипт. Запусти shell-скрипт, и всё. Но проблема в том, что для поддержки множества платформ и типов компьютеров эти shell-скрипты разбухают и становятся очень сложными.

И ты всё ещё застрял во вселенной Software 1.0, где хочется писать код. А установка OpenCode — это копипаст текста, который ты передаёшь своему агенту. То есть это маленькая «инструкция»: скопируй это и отдай агенту, он установит OpenCode. И это намного мощнее, потому что ты работаешь в парадигме Software 3.0 — не нужно прописывать все детали. У агента есть собственный интеллект: он упаковывает инструкции, смотрит на твоё окружение, на твой компьютер, делает осмысленные действия и отлаживает в цикле. Это просто намного мощнее.

Это совсем другой способ мышления. Какой кусок текста скопипастить агенту — вот тебе и парадигма программирования. И ещё один пример, ещё более радикальный — это когда я делал MenuGen.

MenuGen — это идея: ты приходишь в ресторан, тебе дают меню, обычно без картинок. Я не понимаю, что половина блюд из себя представляет — процентов 30 нравится, процентов 50 я вообще не знаю, что это. Мне хотелось сфоткать меню и получить картинки того, как примерно эти блюда выглядят. И я vibe coded приложение: ты загружаешь фото, оно работает на Vercel, перерисовывает меню, OCR-ит названия, генератором картинок делает изображения и показывает тебе результат.

А потом я увидел Software 3.0 версию того же самого, и она меня поразила: буквально берёшь фото, отдаёшь Gemini и говоришь «используй Nano Banana, чтобы наложить картинки прямо на меню». И Nano Banana возвращает изображение — это ровно то самое меню, которое я сфоткал, но в пиксели уже отрендерены изображения блюд.

И это меня поразило, потому что весь мой MenuGen избыточен. Он работает в старой парадигме, и этого приложения вообще не должно существовать. Парадигма Software 3.0 более «сырая»: нейросеть делает всё больше работы, твой промпт или контекст — это просто картинка, выход — картинка, и никакого приложения посередине не нужно.

Так что людям нужно перестать мыслить в существующей парадигме «что было». Не думать просто как об ускорении того, что уже есть. На самом деле теперь доступно новое. Возвращаясь к твоему вопросу про программирование — это даже не только про код. Это автоматизация более общей обработки информации. Раньше код работал над структурированными данными — пишешь код над структурой. Но, например, мой проект по LLM-базам знаний: ты заставляешь LLM создавать вики для твоей организации или лично для тебя. Это даже не программа. Раньше такого не существовало, потому что не было кода, который создавал бы базу знаний на основе кучи фактов.

А теперь ты берёшь документы, перекомпилируешь их по-новому, переупорядочиваешь и создаёшь нечто новое и интересное как переосмысление данных. Это новые вещи, которых раньше не было. Поэтому я постоянно возвращаюсь к мысли: важно не только что мы можем делать быстрее, но и какие новые возможности открываются — то, чего раньше не могло существовать. И мне кажется, это ещё интереснее.

Ведущий: Мне нравится прогрессия и дихотомия с MenuGen. Думаю, многие здесь следили за твоей собственной эволюцией программирования с октября прошлого года по январь-февраль этого. Если экстраполировать дальше — что будет в 2026 году эквивалентом «строить сайты в 90-х», «делать мобильные приложения в 2010-х», «строить SaaS в эпоху облака»? Что в ретроспективе будет казаться абсолютно очевидным, но сегодня ещё в основном не построено?

Андрей Карпатый: Ну, продолжая пример с MenuGen, кучи кода вообще не должно существовать — нейросеть делает большую часть работы. Экстраполяция выглядит очень странно. Можно представить полностью нейросетевые компьютеры: устройство принимает сырое видео или аудио в нейросеть и через диффузию рендерит UI, уникальный для конкретного момента.

Мне кажется, в ранние дни вычислительной техники люди были немного запутаны: будут ли компьютеры выглядеть как калькуляторы или как нейросети. В 50-х и 60-х было неочевидно, какой путь возьмёт верх. Конечно, мы пошли по пути калькулятора и построили классические вычисления. А нейросети сейчас работают виртуализованно поверх существующих компьютеров.

Но я думаю, многое перевернётся: нейросеть станет хост-процессом, а CPU — сопроцессором. Мы видели диаграмму: вычисления нейросетей доминируют по доле флопсов. Можно представить нечто очень странное и чужеродное, где нейросети делают основную работу, а tool use — это исторический рудимент для каких-то детерминированных задач. Но настоящее шоу ведут нейросети, объединённые в сеть определённым образом. Так что экстраполяция выглядит очень чужеродно. Но я думаю, мы туда придём по кусочкам. Сама траектория — TBD.
Автор | Дата:   
Andrej Karpathy: От Vibe Coding к Agentic Engineering (часть 2/3) (источник):

Ведущий: Я бы хотел поговорить про концепцию верифицируемости — про то, что ИИ быстрее и проще автоматизирует те домены, где результат можно проверить. Если эта рамка верна — какая работа вот-вот ускорится сильнее, чем многие осознают? И какие профессии люди считают защищёнными, хотя они на деле вполне верифицируемы?

Андрей Карпатый: Да, я какое-то время писал про верифицируемость. Традиционные компьютеры легко автоматизируют то, что можно специфицировать в коде. А нынешнее поколение LLM легко автоматизирует то, что можно верифицировать. Потому что фронтир-лабы при обучении этих моделей используют гигантские RL-окружения, и им выдаются награды за верификацию.

И из-за того, как обучаются модели, они становятся такими «зазубренными» сущностями, которые пиково сильны в верифицируемых доменах вроде математики и кода, а в смежных областях стагнируют и шероховаты по краям. Поэтому я и пишу про верифицируемость — пытаюсь понять, почему это всё такое неровное.

Часть причины — как лабы обучают модели. Но часть — на чём фокусируются лабы и что попадает в распределение данных. Какие-то вещи значительно ценнее экономически и поэтому получают больше окружений — лабы хотят, чтобы это работало. Код — хороший пример. Наверное, есть много верифицируемых доменов, которые просто не попадают в микс, потому что эта способность не настолько востребована.

Но для меня главная загадка — пример был знаменитый: «сколько букв в слове strawberry?». Модели его регулярно ошибали. Это пример зазубренности. Сейчас, кажется, пропатчили. Новый пример: я еду в автомойку в 50 метрах. Мне ехать или идти? Современные модели скажут идти, потому что близко.

Как возможно, что state-of-the-art Opus 4.7 одновременно рефакторит кодбазу на 100 000 строк или находит zero-day уязвимости — и при этом советует мне идти пешком в эту автомойку? Это безумие. И пока модели остаются зазубренными, это сигнал: либо что-то слегка не так, либо ты должен оставаться в петле, относиться к ним как к инструментам и быть в курсе того, что они делают.

Так что, если коротко, всё моё писательство про верифицируемость — это попытка понять, почему всё такое зазубренное. Есть ли в этом паттерн? Думаю, это какая-то комбинация «верифицируемо» плюс «лабам не плевать». Ещё один поучительный анекдот: от GPT-3.5 к GPT-4 шахматы заметно улучшились. Многие думали — ну, это просто прогресс. На самом деле — и это публичная информация, я видел в интернете — огромное количество шахматных данных попало в претрейн. И только потому, что они в распределении, модель стала намного лучше, чем была бы по умолчанию.

То есть кто-то в OpenAI решил добавить эти данные — и теперь у тебя пиковая способность. Поэтому я и подчёркиваю это измерение: мы немного во власти того, что делают лабы и что попадает в микс. И тебе приходится исследовать этот предмет без мануала. Где-то работает, где-то нет, и приходится прощупывать.

И если ты в тех «контурах», которые были частью RL — ты летишь. А если в контурах вне распределения — будешь страдать, и нужно понять, в каких контурах находится твоё приложение. А если ты не в нужных контурах — придётся серьёзно смотреть в сторону файнтюнинга и собственной работы, потому что из коробки LLM это не выдаст.

Ведущий: Я хочу вернуться к зазубренному интеллекту чуть позже. Если ты сегодня основатель и думаешь о компании — пытаешься решить проблему, которая кажется решаемой, в верифицируемом домене. Но смотришь вокруг и думаешь: блин, лабы реально набрали скорость убегания именно в самых очевидных направлениях — математика, кодинг и так далее. Что ты посоветуешь основателям в зале?

Андрей Карпатый: Думаю, это связано с предыдущим вопросом. Верифицируемость делает задачу решаемой в текущей парадигме, потому что можно бросить на неё много RL. И это остаётся правдой, даже если лабы напрямую этим не занимаются.

Так что если ты в верифицируемом сеттинге, где можешь создать RL-окружения или примеры, — это даёт тебе возможность сделать собственный файнтюнинг и получить от этого выгоду. Это технология, которая просто работает. Если у тебя есть много разнообразных RL-окружений, ты берёшь свой любимый файнтюнинг-фреймворк, дёргаешь рычаг — и получаешь нечто реально работающее. Я не знаю всех примеров, но думаю, есть ценные RL-окружения, о которых люди могут подумать и которые пока не часть микса. Не хочу спойлерить ответ, но один такой домен мне видится очень... ладно, не буду делать vague-пост на сцене, но такие примеры есть.

Ведущий: С другой стороны — что, по-твоему, по-прежнему кажется автоматизируемым только издалека?

Андрей Карпатый: Думаю, в конечном счёте почти всё можно сделать верифицируемым в той или иной степени. Что-то проще, что-то сложнее — даже для писательства можно представить совет из LLM-судей и получить нечто разумное. Так что вопрос скорее в «легче или сложнее». В конечном итоге, да, я думаю, всё автоматизируемо.

Ведущий: Отлично. В прошлом году ты придумал термин vibe coding, а сегодня мы скорее в мире agentic engineering — более серьёзном. В чём, по-твоему, разница и как бы ты назвал то, в чём мы сейчас находимся?

Андрей Карпатый: Vibe coding — это поднятие пола: что любой человек может делать в софте. Пол поднимается, любой может vibe code что угодно. Это потрясающе.

А agentic engineering — про сохранение планки качества, которая существовала в профессиональной разработке. Тебе не разрешается заносить уязвимости из-за vibe coding. Ты по-прежнему отвечаешь за свой софт. Но можешь ли делать быстрее? Спойлер: можешь. Вопрос — как делать это правильно.

Поэтому я и называю это agentic engineering — это инженерная дисциплина. У тебя есть агенты — зазубренные сущности, чуть ошибочные, чуть стохастичные, но крайне мощные. Как координировать их, чтобы идти быстрее, не жертвуя планкой качества? Делать это хорошо и правильно — и есть область agentic engineering.

Так что я вижу их по-разному. Одно про поднятие пола, другое про экстраполяцию вверх. И я вижу, что у agentic engineering очень высокий потолок. Раньше говорили про 10x-инженера. Здесь усиление гораздо больше — 10x уже не описывает прирост. По моему ощущению, люди, которые в этом действительно сильны, выходят далеко за 10x.

Ведущий: Мне нравится эта рамка. Когда Сэм Альтман приходил на AI Ascent в прошлом году, он сказал запоминающуюся вещь: люди разных поколений используют ChatGPT по-разному. Если тебе за 30 — это замена Google-поиску. Если ты подросток — ChatGPT твой шлюз в интернет. Какой здесь параллель в кодинге сегодня? Если бы мы посмотрели, как двое людей кодят с OpenCode / Claude Code / Codex — один так себе, второй полностью AI-native — как бы ты описал разницу?

Андрей Карпатый: Думаю, дело в том, чтобы выжимать максимум из доступных инструментов, использовать все их фичи, инвестировать в свой сетап. Как раньше инженеры выжимали максимум из Vim или VS Code, так теперь — из Claude Code, Codex и т.д. Инвестировать в сетап и использовать всё, что есть. Думаю, это выглядит примерно так.

Связанная мысль: многие сейчас нанимают agentic-инженеров. Я вижу, что большинство ещё не перестроило процесс найма под способность к agentic-инжинирингу. Если ты раздаёшь головоломки — это всё ещё старая парадигма.

Я бы сказал, что найм должен выглядеть так: дай мне большой проект и посмотри, как человек его реализует. Например, напиши Twitter-клон для агентов, сделай его реально хорошим, реально безопасным, симулируй активность агентами, а потом я возьму 10 экземпляров Codex 5.4 high и буду пытаться сломать твой задеплоенный сайт. И они не должны его сломать. Вот так это выглядит. Смотреть, как человек строит большие проекты и использует тулинг, — вот на что я бы смотрел в основном.
Автор | Дата:   
Andrej Karpathy: От Vibe Coding к Agentic Engineering (часть 3/3) (источник):

Ведущий: И когда агенты делают всё больше — какой человеческий навык становится не менее, а более ценным?

Андрей Карпатый: Хороший вопрос. Сейчас ответ такой: агенты — это вроде сущностей-стажёров. Это поразительно. Ты, по сути, остаёшься главным по эстетике, суждению, вкусу и немного по надзору.

Один из моих любимых примеров странности агентов — для MenuGen ты регистрируешься через Google, а кредиты покупаешь через Stripe, и у обоих есть email. Мой агент при покупке кредитов пытался привязать их к Google-email через email из Stripe. Не было устойчивого user ID — он пытался сматчить email-адреса. Но ты можешь использовать разные email для Stripe и Google, и средства не свяжутся. Вот такие ошибки они до сих пор делают. Зачем вообще использовать email для кросс-корреляции средств? Они могут быть произвольными, можно использовать разные email и т.д. Это очень странная вещь.

Поэтому человек должен отвечать за этот конкретный план. Я даже не очень люблю plan mode. То есть, конечно, он полезен. Но есть что-то более общее: ты должен с агентом проектировать очень детальную спеку, по сути документацию, и потом давать агенту её реализовывать. Ты отвечаешь за надзор и за верхнеуровневые категории. Агенты делают много под капотом, и ты не паришься о деталях.

Например, по поводу массивов и тензоров в нейросетях. Между PyTorch, NumPy, Pandas и т.д. куча мелких различий в API. Я уже забыл, keepdims или keepdim, dim или axis, reshape или permute или transpose. Я больше этого не помню — потому что и не надо. Эти детали обрабатывает «стажёр» с отличной памятью.

Но ты по-прежнему должен знать, что есть базовый тензор, есть view поверх него, и можно манипулировать view одного и того же storage, или иметь разный storage, что менее эффективно. Так что фундаментальное понимание никуда не делось — чтобы не копировать память без нужды и т.д.

Но детали API ушли. Ты отвечаешь за вкус, инженерию, дизайн, осмысленность, за то, чтобы запрашивать правильное — например, что вот тут должны быть уникальные user ID, к которым всё привязывается. То есть ты делаешь часть дизайна и разработки, а инженеры заполняют пробелы. Сейчас мы примерно там. И, думаю, это сейчас все видят.

Ведущий: Есть ли шанс, что вкус и суждение со временем будут значить меньше — или потолок просто будет расти?

Андрей Карпатый: Хороший вопрос. Я надеюсь, что улучшится. Сейчас не улучшается, наверное, потому что это не часть RL. Нет ни эстетического ревордa, ни косвенной награды, либо она недостаточно хороша.

Когда смотришь на код, иногда у меня лёгкий инфаркт — это не всегда суперкрасивый код. Часто раздутый, много копипасты, неуклюжих абстракций, всё хрупкое. Работает, но реально мерзкое. Надеюсь, в будущих моделях это улучшится.

Хороший пример — мой проект microGPT, где я пытался максимально упростить тренировку LLM. Модели это ненавидят. Не могут. Я раз за разом просил LLM упростить ещё, упростить ещё. Не выходит. Чувствуешь, что ты вне RL-контуров. Очевидно, это «выдирание зубов», а не скорость света. Так что да, человек пока остаётся главным. Но, думаю, ничего фундаментально это не блокирует. Просто лабы пока не сделали.

Ведущий: Давай вернусь к зазубренному интеллекту. Ты писал об этом мощную заметку — про «животных против призраков». Идея в том, что мы строим не животных, мы призываем призраков. Это зазубренные формы интеллекта, сформированные данными и функциями вознаграждения, а не внутренней мотивацией, любопытством, эмпауэрментом — тем, что появилось у животных через эволюцию. Почему эта рамка важна, и что она реально меняет в том, как мы их строим, деплоим, оцениваем и вообще доверяем им?

Андрей Карпатый: Да. Я писал про это, потому что пытаюсь уложить в голове, что это вообще такое. Если у тебя хорошая модель того, чем они являются и не являются, ты компетентнее их используешь.

Я не уверен, что у этой рамки есть какая-то «реальная сила» — может, это немного философствование. Но я думаю, надо просто принять, что это не животные интеллекты. Если на них наорать — они не станут работать лучше или хуже, никакого эффекта. Это всё статистические симуляционные контуры, где субстрат — претрейн. Это статистика, а сверху прикручивается RL — он как бы добавляет «отростки».

Может, это просто mindset, с которым я подхожу: что вероятнее всего сработает или не сработает, как это модифицировать. Но у меня нет «вот пять очевидных шагов, как улучшить твою систему». Это скорее про подозрительное отношение и постепенную выработку понимания. Вот с этого начинается.

Ведущий: Окей, ты глубоко погружён в работу с агентами, которые не просто чатятся. У них реальные права, локальный контекст, они реально действуют от твоего имени. Как выглядит мир, когда мы все начнём в нём жить?

Андрей Карпатый: Думаю, многие здесь воодушевлены тем, как выглядит нативно-агентное окружение, и тем, что всё придётся переписывать. Сейчас всё фундаментально написано для людей и должно быть переоформлено. Когда я использую разные фреймворки и библиотеки, у них всё ещё доки, написанные для людей.

Это моё любимое раздражение. Зачем вы продолжаете говорить мне, что делать? Я не хочу ничего делать. Какой кусок текста мне скопировать в агента? Каждый раз, когда мне говорят «зайди по этому URL» — ну блин. Поэтому, думаю, все воодушевлены тем, как декомпозировать рабочие нагрузки на сенсоры над миром и актуаторы над миром. Как сделать всё agent-native. Сначала описать агентам, потом много автоматизации вокруг. Структуры данных, легко читаемые LLM-ам.

Так что я надеюсь, что появится много agent-first инфраструктуры. И вот для MenuGen — когда я писал блог-пост про MenuGen, основная проблема была не в коде, а в деплое в Vercel: мне приходилось работать с кучей разных сервисов, всё связывать, лазить по их настройкам и меню, конфигурить DNS — это было очень раздражающе.

Хороший пример того, чего бы я хотел: дать LLM промпт «собери MenuGen», и ничего самому не трогать — оно задеплоено в интернете. Это был бы хороший тест на то, насколько наша инфраструктура становится agent-native. И в конечном счёте мы движемся к миру, где у людей и организаций есть агенты-представители. Мой агент договорится с твоим агентом о деталях встречи и т.п. Думаю, мы примерно туда и идём. И, думаю, все здесь этому рады.

Ведущий: Мне очень нравится визуальная аналогия с сенсорами и актуаторами. Я об этом не думал — суперинтересно. Окей, думаю, мы должны закончить вопросом про образование, потому что ты, вероятно, один из лучших в мире в умении делать сложные технические концепции простыми и глубоко продумывать, как вокруг этого выстраивать обучение. Что по-прежнему стоит изучать глубоко, когда интеллект становится дешёвым и мы переходим в следующую эру ИИ?

Андрей Карпатый: Да. Недавно был твит, который меня поразил — я думаю о нём через день: «ты можешь аутсорсить мышление, но не можешь аутсорсить понимание». Очень хорошо сказано.

Потому что я по-прежнему часть системы. Информация всё ещё должна как-то попадать ко мне в мозг, и я чувствую, что становлюсь бутылочным горлышком — даже в плане «что мы вообще пытаемся построить, зачем это стоит делать, как направлять моих агентов». Так что в конечном счёте кто-то должен направлять мышление и обработку. И это фундаментально упирается в понимание.

И поэтому я был так воодушевлён LLM-базами знаний — это способ обрабатывать информацию. Каждый раз, когда я вижу новую проекцию данных, я получаю инсайт. Это просто много промптов для генерации синтетических данных поверх какого-то фиксированного набора.

Мне нравится: каждый раз, когда я читаю статью, у меня вики достраивается из этих статей. И я люблю задавать вопросы. В конечном счёте это инструменты для усиления понимания. И понимание остаётся бутылочным горлышком — потому что нельзя быть хорошим режиссёром без него. LLM сами по себе не блестят пониманием — оно по-прежнему уникально на твоей стороне. Так что инструменты для этого мне кажутся невероятно интересными.

Ведущий: Жду с нетерпением, чтобы вернуться через пару лет и проверить, не автоматизировали ли нас полностью, и не взяли ли они на себя и понимание тоже. Андрей, огромное спасибо. Очень ценю.
Автор | Дата:   
@ndr воооооууу, это что за моделька так зачетно перевела? тулза какая-то, или сам написал? 

P.S. Мдя, ну слушай, нет никакого смысла больше видосы смотреть, все прям нюансы и детали переданы в саммари. 

Я себя ощущаю динозавром, нахеря я потратил 20 минут 
Автор | Дата:   
Это мой проектик да домашний любой ютуб в текст, а сюда постится через апишный скилл

Я не могу слушать ютубы это пездец, их надо читать. Модель опусыч 4.7, вроде норм переводит, я забрал переводы у гемини

Гемини как академик переводит это заебывает. Опус мочит словечки, идиомы, знает где надо переводить где нет и т.д. Мне нраица

Automador: Я себя ощущаю динозавром, нахеря я потратил 20 минут
Оригинал
Псссс тут есть слыш сервис по паписочке всего 20 долларов в месяц, ты обращайся 
Автор | Дата:   
Так оно автоматом идет в Обсидиан, а потом с ним че хочешь делай, переводи, пости на форумы, перепощивай в телеграмы, дай Гермесу чтобы пообщаться и прочее...



Автор | Дата:   
Если про видос говорить, ключевой момент вот этот я щетаю:

И это меня поразило, потому что весь мой MenuGen избыточен. Он работает в старой парадигме, и этого приложения вообще не должно существовать. Парадигма Software 3.0 более «сырая»: нейросеть делает всё больше работы, твой промпт или контекст — это просто картинка, выход — картинка, и никакого приложения посередине не нужно.
То есть да, я до сих пор думаю в парадигме вот я ему задание даю и он мне придумывает что-то, что поможет этот результат получить (код в моем случае). А все идет к тому что она сразу будет выдавать результат, и код будет создаваться и запускаться внутри модели, компилироваться (ну или хз как это назовут) прямо там в параметрах

И вместо трейдинг бота она будет например, соединяться сама и отправлять сделку, но не через код и bash, а это все как бы будет внутри нее

Все надстройки которые мы сейчас юзаем (а ля agents.md, project.md и т.п.) скорее всего будут встроены в нее, ну что-то типа C:\\Temp\ , а то что сейчас мы юзаем это так, временные заплатки

Короче, еще одно лишнее подтверждение чтобы учиться работать с харнесс (hermes, openclaw), собирать их самих (pi.dev), уметь работать с memory.md, agents.md, soul.md и т.п. ну и высший уровень тренировать свои модельки

@smellmybum что думаешь по этому поводу, накидай ещё полешек мыслишек в костерчик

ndr: а сюда постится через апишный скилл Оригинал
божечки я и забыл что CLI тулзу же написал себе, прикручу к себе к агенту потом прям из телеги буду отвечать \ постить

Короче сеньска насяльники у меня теперь есть домашнее задание, запущу бота уже финально засяду за агентов 
хомяки 3 сегодня 74 постапик 178
© 2026 Форум Бингуру. Уходи, тебя не звали
  ⇓     ⇑