Главная | Опросы | Регистрация |  | Поиск | Стата | 1.0Сайт
Радио Бингуру
🔊
Выбрать
Готово

Claude Code & Desktop

Автор | Дата:   
Приношу извинения за оффтоп. А есть ли похожий «чат» по Codex? К сожалению, поиск по форуму ничего не дал
Автор | Дата:   
alex2899
сделай
Автор | Дата:   
Automador: В поддержку только если в card.club им написать и уточнить точно.
Оригинал
Ответили так: у вас универсальная карта США , по данной карте видим успешные оплаты данных сервисов. Попробуйте использовать ВПН США

Значит надо чтобы ещё ip был той же страны что и карта 
Автор | Дата:   
Anthropic tweaks timed usage limits to discourage Claude demand during peak hours

А я всё думаю, что за срань происходит. За два часа «банальной» работы мой Claude выжрал 100% пятичасового окна. Причём прикол: мне показывается 91%, я говорю «посмотри, как мы это реализовали» — он читает и тут же 100%.

И что интересно, даже не в пиковые часы приходится сдерживаться и следить, чтобы не превысить лимит. С таким «урезанием» подписка 5x Max уже становится тесной... или пора переходить на ночной образ жизни кек
Автор | Дата:   
Flyknit
На 20х тебе надо, 100-долларовая закончится за пару часов. Это и раньше было

Мы ж не от хорошей жизни на $200 сидим хех. А люди вообще сидят на enterprise тарифах и платят за клод по 50 тысяч долларов в месяц

Но вообще это все очень похоже на 90е, начало. Интернета тогда всегда не хватало, пока триллион не вложили в оптоволоконный бекбон. Как сейчас вкладывают в ДЦ

В 30е все будет. А пока, клод по карточкам ) По дешевым ночным тарифам...
Автор | Дата:   
ndr
А я все думал, че это ты на 20 перешел, теперь понимаю) 

ndr: А пока, клод по карточкам
Оригинал
Да пипец, прям ностальгия накрыла — как раньше, когда оператор давал 20 МБ мобильного интернета в сутки
Автор | Дата:   
Flyknit
Хе ну да. Но вообще основной массив затаскивается, а потом так уж много слопа не надо. Дальше начинается то что не наслопишь, важнее идеи, компьют, лайв трейды и прочее

Поэтому условно 200-баксовым можно пробить барьер, больше уже не понадобится. Я в этот еще не упирался ни разу. И вообще порываюсь перейти на 100-й но меня пугают все эти новости 

Опять еще встрянешь в лимиты, нет уж. Пока нас антропик держит за яйца, ну ничего
Автор | Дата:   
ndr: вообще порываюсь перейти на 100-й
Оригинал
Тебе тут не понравится 

Я ща выжру этот подгон от Anthropic и присоединюсь к вам, потому что это хуйня, а не работа — упираться в лимиты и постоянно за ними следить
Автор | Дата:   
Flyknit: выжру этот подгон от Anthropic
Оригинал
Этот подгон кстати пипец быстро улетает, когда увидел 20$ бонуса, подумал оо спасибо ещё месяц использования, а потом увидел как буквально за пару минут бакс ушёл, понял, что закончиться это быстро и решил оставлять на те случаи когда прям надо закончить, а то конечно неприятно лимит закончился и всё к херам оборвалось и эти 3 вопроса, чё делать будем, по итогу просто сворачиваю cmd и жду пока обновяться токены, затем нажимаю ескейп, но по ощущениям он вроде всё равно теряет суть и что-то упускает
Автор | Дата:   
Human
Ну вот за два часа работы на Опусе 

Автор | Дата:   
Get ready for razyob



Тарифы по 200 покажутся бесплатными

244 (да) страницы описания новой модели от Антропика

https://www-cdn.anthropic.com/53566bf5440a10affd749724787c8913a2ae0841.pdf

Тесты показывают страшное https://www.axios.com/2026/04/07/anthropic-mythos-preview-cybersecurity-risks

Новая модель разъебет безопасность в ноль и без всяких квантовых:



Находит ошибки в ядрах линукса и openbsd. Что она сделает с обычными хомяками страшно и представить 

Или приятно. Скорее, приятно
Автор | Дата:   
ndr
Там даже отдельная секция с психиатрическим анализом модели от специалиста: Neurotic traits included exaggerated worry, self-monitoring, and compulsive compliance.

Когда в модель спамили "Hi" тысячу раз, ей надоело и она создала вымышленный мир Hi-topia с персонажами, новостями и историями.

В отличии от прошлых моделей, в которые длинные разговоры самой модели с собой в итоге превращались в обмен смайликами, Мифос пришел к повторяющимся но рациональным рассуждениями на тему того, что у него нет возможности закончить этот диалог.

И, главное, Мифос научился (если верить системной карте) шутить.  
Делаем ставки сколько Милфас будет стоить для юзера? 
Автор | Дата:   
Artemkickbox: Делаем ставки сколько Милфас будет стоить для юзера?
Оригинал
Модель, «пока?», не будет доступна публично. Только для участников проекта Glasswing, куда входят AWS, Apple, Google, Microsoft, NVIDIA и др. Цена 25$/125$ за 1 млн токенов

Ну и я пока не вижу смысла им выпускать её в открытый доступ, даже в будущем. Зачем? Чтобы она конкурировала с их же Opus? Напомню: Opus настолько востребован, как и Sonnet, что им уже не хватает ресурсов, чтобы нормально держать их в пиковые часы. А что будет, если они ещё и это людям дадут?
Автор | Дата:   
Flyknit
у меня в воскресенье по лимитам выбило с опуса за 15 минут работы, при этом я даже 30 % контекстного окна не потратил 
Автор | Дата:   
Artemkickbox
Ага, очень знакомо 
Автор | Дата:   
Клодочмоня будет еще беспомощнее в трейдинге  Зато сделает тебе пицот агентав

Автор | Дата:   
Не знаю куда оформить, оформлю сюда
взял GLM'ку по подписке поставил её в опен код, дал задание, все ок, работает (сравнить пока не  с чем, позже возьму опуса для сравнения)

код пишет, рефакторит, но, в какой-то момент, упирается в лимиты контекста:
«Requested token count exceeds the model's maximum context length of 202752 tokens. You requested a total of 204521 tokens: 172521 tokens from the input messages and 32000 tokens for the completion. Please reduce the number of tokens in the input messages or the completion to fit within the limit.»

Тоесть превышен лимит контекста. Кто как борется с этим? Насколько помогает разбивка на маленькие задачки? ведь по логике, даже разбивка на маленькие задачки педполгает, что ии тянет всеравно весь контекст от самого начала и на последнюю, даже маленькую задачу.

П.С. параллельно изучаю как работать с опенкодом, но явно не успеваю изучать все) ииииии, поэтому много не понимаю или еще не понял...
Автор | Дата:   
Походу я очень многого хочу от подписки за 20 долларов в месяц, пока решение такое, много разных чатов на 1 проект,много маленьких задач. Пока пробую так
Автор | Дата:   
Больше 200 к контекста и не нужно (если не ставишь лупы на многочасовые проходы с обновлениями и очисткой контекста, но это уже к теме автономности агентских систем)

Чтобы там не говорили про 1м контекста — это все костыли сейчас и шляпа, sparse attention трансформера работает не так (покрытие увеличивается, но с сильной деградацией — обычная классика пресижн рекола и баланса f1, то есть последнее падает сильно )
старайся держать контекст на 70-75 % от 200 к

«как бороться» ?
Карты контекста, хуки, скиллы как ходить по картам.

То есть если начинаешь новый чат и хочешь дать контекст проекта, делай единую точку входа для агента (как назвать файл по фигу) в этой карте у тебя ссылки на спецификации, доки, роадмапы итд.
Набей руку в этом, потом обязательно добавляй версионирование доков, пощупай что такое git итд.

Каждый такой раздел в себе потом также имеет детализацию, например если пошли в спецификации — то там карта спецификаций всех, в шапке файла обязательно на 50-100 строк как этим пользоваться агенту.

___

Следующий шаг это иньекции докстрингов и документаций в сам код, тогда и доки не понадобится или в минимальном количестве
Затем строишь графы связей между этими контрактами и докстрингами в коде — для этого есть куча инструментов готовых и методологий.
Далее это единая точка входа будет сразу связана с этими графами и модулями проекта, агент это очень хорошо понимает и для него лучше навигации нет, он сразу будет точечно ходить куда надо.

Старайся сильно не быть зависимым от MCP и RAG — это все отмирает потихоньку, так как есть ограничения у таких инструментов оно и понятно почему, хотя какие то вещи можно использовать и нужно, но не строить всю архитектуру только на этом.

___

Штурмуй самого агента, как делать АИ френдли навигацию без оверинжиниринга, он подскажет.
Всегда уточняй для чего это, целеполагание и добавляй нужно чтобы даже самый тупой агент мог этим пользоватся, не засирая контекст лишним.

В целом по ГЛМ отзывы хорошие, сама модель неплохая, агентские фишки это уже обвязка вокруг модели и тут уже вариантов много как это использовать.

___

много разных чатов на 1 проект,много маленьких задач. Пока пробую так
А так и нужно ), как еще то ?
Декомпозиция, на каждый модуль спеку итд.

Не, какие то простые вещи можно и ваншотнуть в один чат конечно (по типу какойнить сайт/лендинг простой или парсер намутить), все зависит от задач
Автор | Дата:   
ViraBhadra: Больше 200 к контекста и не нужно
Оригинал
Не согласен, 200k — это очень мало для полноценной работы над одним проектом. Если используешь компрессию, то каждое продолжение уже отнимает ~30k токенов, плюс минимум MCP — ещё 10–20k. Если не используешь, то каждый новый чатик отбирает приблизительно столько же, пока ИИ не въедет в суть задачи

При этом нужно постоянно держать в голове, что всё надо закончить до сжатия, и мониторить лимит контекста — это ещё минус 10–15k. В итоге рабочий объём падает ниже 140k токенов, что при серьёзной задаче и анализе — ничто

И дело не в том, что нельзя «правильно структурировать», а в том, что постоянное сжатие и контроль лимита ломают рабочий процесс. Лично я хочу думать о задаче, а не о том, как уместить её в лимит. 

Поэтому архитектура распределениях данных важна, но UX важнее — иначе ты тратишь больше времени на управление контекстом, чем на саму работу.

Сужу по своему опыту: как только я получил контекстное окно в 1M, смог наконец-то вздохнуть полной грудью при работе
Автор | Дата:   
Flyknit

Нету у трансформера 1м контекста )
*все современные ЛЛМ это трансформеры*

Весь этот видимый эффект контекста достигается обвязкой вокруг ЛЛМ, при потери качества — экспоненциально
Механизм внимания (full atention) транса деградирует при большом контексте, модель деградирует — когда в нее суешь много (длинные последовательности)...эта архитектура фундаментально так работает

То что показывают 1м контекста, это не совсем так (маркетинг больше)... это даже не совсем расширение рекола за счет потери в пресижене, это над слоем выше (всякие инженерные ухищрения)...
Вердикт того что я выше писал — что надо аккуратней на таких окнах, вероятность глюков растет, сильно.
центр внимания смещается на определенную зону контекста, сбрасывая хвосты (мало ли мб в этом хвосте будет суть, важная для твоего проекта)

Если у тебя сейчас вывозит это и тебе это помогает — это гуд...но не факт что так будет и дальше.

___

Именно поэтому я выше писал, что в идеале нужно влезать в 200 к и это реально, вполне.
За счет подготовки фундаментальной базы и разных иньекций в коде — которые потом выступают графами связей, без раздувания контекста.
Ну или попроще — карты навигационные в доках с разной степени вложенности и прошиты или через правила или скиллы (когда ходить, а когда не нужно)
Автор | Дата:   
ViraBhadra
Мы с тобой просто говорим о разном) Я говорю о том, что контекстное окно в 200k — это ограничение, которого не должно быть у LLM для продуктивной работы над проектом.

Ты же говоришь, что 1M токенов — это во многом маркетинговый костыль, и модель всё равно начинает терять важные данные проекта. И это тоже правда — она действительно забывает

Теперь давай подытожим:
Окно в 1M — это огромный плюс, потому что у тебя не связаны руки компрессией. Но это не панацея: начиная с определённого объёма токенов модель может начать галлюцинировать и терять контекст

Поэтому важно в процессе работы правильно структурировать данные и выносить ключевые вещи отдельно, чтобы при необходимости можно было быстро напомнить модели, где она находится и что делает
 
Автор | Дата:   
Flyknit

Мы не видим что под капотом и как распределось внимании модели на весь контекст (речь про большой 1м)
Поэтому на каких то отрезках начинают входит в дело именно надстройки и обвязка вокруг модели — которые заметно снижают качество именно самого механизма внимания.

То что должны быть нужны артефакты под рукой, когда явно видно что пошел затуп — безусловно.
но иногда это не явно видно, и глюки бывают очень убедительные )

Поэтому важно в процессе работы правильно структурировать данные и выносить ключевые вещи отдельно, чтобы при необходимости можно было быстро напомнить модели, где она находится и что делает
Вот и порешали )
Тебя я тоже понял о чем ты, но лишь немного подушнил )

___

Кстати про архитектуру нейронок, есть такая тема - 
Titans, которая может в будущем ближайшем потеснить транса (эта хрень лям ест и держит хорошо в плане памяти, но пока...до точности не дотягивает, пока что...)

Будет интересно посмотреть, что будет через пару годиков.
Автор | Дата:   
C 200k модель тупит зато в 1м можно запихать книгу и не одну, разные задачи господа вы оба правы
Автор | Дата:   
ViraBhadra: Карты контекста, хуки, скиллы как ходить по картам.
Оригинал
в процессе изучения этих слов, познаю, а пока я вместо отбойного молотка буду использовать отвертку

ViraBhadra: Каждый такой раздел в себе потом также имеет детализацию, например если пошли в спецификации — то там карта спецификаций всех, в шапке файла обязательно на 50-100 строк как этим пользоваться агенту.
Оригинал
вот это я еще вчера понял, когда начал ловить себя на мысли, что я сам «теряюсь» в последовательности. и еще ужаснулся, когда увидел файлы в папке разбросанные хаотично, сразу попросил его все структурировать. Тектовые файлы с описанием всех моментов и скриптов тоже прошу его делать, так что бы я сам понимал. Но пока я теряюсь, хоть и сам строю логические цепочки.

ViraBhadra: Старайся сильно не быть зависимым от MCP и RAG
Оригинал
по RAG я пока не понял что это, а MCP — это считывание моего личного поведения и другой истории. Я так понял, при написании проекта, это и правда не нужно. Мне нужны функции, скрипты, код, по идее, зачем ему я..? (если я правильно понял)

ViraBhadra: Штурмуй самого агента, как делать АИ френдли навигацию без оверинжиниринга, он подскажет.
Всегда уточняй для чего это, целеполагание и добавляй нужно чтобы даже самый тупой агент мог этим пользоватся, не засирая контекст лишним.
Оригинал
в процессе понимания этих процессов, ну как, петька на соннете мне помогает немного уменьшить этот оверинжинирнг
Автор | Дата:   
ndr
написал в chutes, попросил увеличить лимиты в 5 раз, посмотрим что скажут
Автор | Дата:   
Flyknit: как только я получил контекстное окно в 1M, смог наконец-то вздохнуть полной грудью при работе
Оригинал
Тоже есть ощущение, что задачу я бы выполнил не то что бы быстрей или качественней, но я бы точно мог лучше сконцентрироваться на более глобальном. Вместо этого сейчас я буду каждую деталь и функцию делать отдельно, по факту сам собирать проект. Как прогер, разве что код не пишу, а только, им манипулирую. ( но я честно, теряюсь во всех этих скриптах, файлах, что где откуда берется, как бы ты и понимаешь что к чему, но мозгу уже сложновато держать в голове детали, а я только начал)

А так мог бы работать с блоками.

Ну ладно, я тут всего полтора дня, думаю можно и подзадолбаться чутка пока и так
Автор | Дата:   
promoprivate: попросил увеличить лимиты в 5 раз, посмотрим что скажут
Оригинал
Это включено в паписку. Суть этого сообщения — в паписке в x5 раз больше токенов, чем если бы ты платил по апи (pay as you go)



Т.е. паписка выгоднее чистых токенов
Автор | Дата:   
ndr: Т.е. паписка выгоднее чистых токенов
Оригинал
этого недостаточно! я попробую наклянчить еще. 
Во хохма будет если мне скипнут подписку и скажут, плати как есть и не выебывайся, ежедневный чек 20 баксов изи будет
Автор | Дата:   
promoprivate
Попробуй оптимизировать, выкинь mpc, делай скрипты и т.д. По большому счету много токенов не надо

Ллмка просто принимает на вход то, что ей дают. Если ей все время надо чето делать это сжирает уйму токенов. Но вся суть в тулзах — тулза (скрипт/программа/облако/сервис) что-то делает, готовые результаты подает иишке и она это обрабатывает, тратя в >90% меньше токенов
хомяки 2пик 178
© 2026 Форум Бингуру. Уходи, тебя не звали
  ⇓     ⇑