Главная | Опросы | Регистрация |  | Поиск | Стата | 1.0Сайт
Радио Бингуру
🔊
Выбрать
Готово

OpenAI Codex

Автор | Дата:   
Было ли у вас такое в кодексе, что часть промптов просто куда-то пропадает в самом чате после отправки.
То есть я отправил 10 частей, а вижу только 1 часть. А остальные в чате не вижу, хотя они уже были отправлены и обработаны
Причем это происходит уже в новом чате, в котором не так много сообщений
Автор | Дата:   
alex2899: Было ли у вас такое в кодексе, что часть промптов просто куда-то пропадает в самом чате после отправки.
Оригинал
Да, это известный баг кодекса, зависит от рендеринга в самом терминале, как я понимаю. Было выпущено множество «фиксов», но у меня так и не прошло, привык уже просто. Говорят можно попробовать отключить GPU рендеринг должно помочь.
Автор | Дата:   
Automador

То есть он по факту все равно принимает все промпты или как?
Автор | Дата:   
alex2899

у меня такое только в очень больших чатах.
Автор | Дата:   
alex2899: То есть он по факту все равно принимает все промпты или как?
Оригинал
Ты имеешь ввиду, сохраняет ли он их в контексте у себя? Да, это чисто визуальный баг, и.к. инфа вся хранится на серваке OpenAI. То что ты написал и отправил он получит полностью. Если очень длинный промпт, можно писать его в отдельном файле, и затем копипастить в кодекс и отправлять. Я так делаю если не хочу  потерять случайно промпт (т.к. иногда случайно отправляю недописанный  промпт и потом он теряется, хнык)

P.S. речь про Codex CLI — в веб-версии я не знаю как это именно происходит, ни разу не пользовался
Автор | Дата:   
Automador: речь про Codex CLI
Оригинал
Имел в виду приложение? Да, я тоже про него
Автор | Дата:   
гпт и кодекс легли  пора планировать всю работу до пробуждения америки.  приплыли.
Автор | Дата:   
Я бы сконцентрировался на этом чувстве беспомощности, потому что отныне оно является определяющим 

В ту секунду как мы начинаем зависеть от чего-то в такой степени добру не быть. Вон, народ бежит из страны 404 где интернет отключили, а отключение иишки еще хуже по последствиям

Для интернета есть старлинк, для иишки же qwen уже не опенсорсит топовые модели (qwen pro бесплатно недоступен), дипсик в жопе, европейский мистраль курам на смех

Вся надежда на то что в новых сетях натренируют короля опенсорса иначе средневековье покажется сказкой. Кто контролирует кран воды тот король, а вот потребителям стоит приготовиться хе хе...
Автор | Дата:   
MrCvokka

Перенес кодекс на «впс к убунту», а гпт в приложении работает.
Автор | Дата:   
Он просто лежит смотрите в мониторинг https://status.openai.com/
Автор | Дата:   
ndr

уже час как все работает.
Автор | Дата:   
Еще нет, не для всех и не везде. Поэтому и нужен мониторинг. Какой регион, какой компонент (апи, кодекс), какой тариф (гпт бизнес) и проч
Автор | Дата:   
Последнее время началась такая ситуация, что Сodex не выполнил предыдущую задачу до конца и начинает выполнять отложенный промпт
При этом я уже в промпте стал писать, что не выполняй новые отложенные задачи, пока не будет выполнена полностью старая задача.
Как боролись с этой проблемой?
Автор | Дата:   
alex2899: такая ситуация, что Сodex не выполнил предыдущую задачу до конца и начинает выполнять отложенный промпт
Оригинал
потому что это не отложенные промпты, это именно prompt queue, то есть ты ставишь промпт в очередь запросов. Когда он доделывает текущий реквест (запрос на сервер), он прерывает исполнение задачи и ставит приоритетом твой новый промпт. Реквест != (не равно) выполнение задачи.

это сделано для того, что если ты вдруг передумал, то можешь «вдогонку» отправить ему детали, что решил изменить и т.д.

Есть scheduled automation tasks в десктоп приложении, это типа «каждый день в 9 утра проверь новости» типа того. 

Если ты хочешь прям серию задач ему дать, надо юзать агентов типа openclaw или hermes — там можно либо сделать чтобы они в телегу писали как закончили, либо изначально ему серию заданий дать. Но лучше конечно чтобы он сначала одно выполнил, затем другое уже давать, желательно в новой сессии если задача сильно отличается
Автор | Дата:   
Automador: Когда он доделывает текущий запрос (запрос на сервер), он прерывает выполнение задачи и устанавливает приоритет нового запроса.
Оригинальный
Мы с тобой в конце концов, вот про эти отложенные промпты говорим? 



Просто раньше я даже мог их удалить в момент выполнения задачи. Или мне показалось 
 А сейчас такого нет. Пропала куда-то функция
Автор | Дата:   
alex2899: Мы с тобой в конце концов, вот про эти отложенные промпты говорим? 
Оригинал
Я все делаю в Codex CLI , но функционал один и тот же должен быть, так что скорее всего да. 

Когда он делает задачу ты можешь написать ему промпт и отправить энтером и оно становится в очередь прерывая его сразу после исполнения реквеста (запроса) — как бы отправляет вдогонку

Если ты хочешь именно в очередь попробуй отправлять не энтером а с помощью Tab — тогда оно должно вставить именно в очередь. Но не знаю есть ли такое в декстопном приложении, я не пользуюсь ими обычно

Я если честно, вообще не понимаю какой воркфлоу может быть с очередью промптов, что ты с ними делаешь? Приведи пример какой-нибудь?
Автор | Дата:   
[quote][quote]Automador: Я если честно, вообще не понимаю какой воркфлоу может быть с очередью промптов, что ты с ними делаешь? Приведи пример какой-нибудь?
Оригинал
[/quote]

[/quote]

Я дроблю промпт на части, чтобы он его понимал однозначно и не сжимал контекст. Причем части до 300 символов
За кнтрл + таб спасибо, надо попробовать
Автор | Дата:   
alex2899

понятно. вместо этапности внутри промта, ты делаешь этапность промтами, а потом сливаешь все в одну кастрюлю. по итогу фаршмак на выходе.  пихай все в один промт. этапы четкие и конкретные с тестированием после выполнения.  и проблем не будет.  скармливай это все в 5,4 мини в фаст режиме и высоким размышлением.  на 5,4 мини автосжатие не глючит. 

и пусть гпт тебя научит правильно составлять поэтапные промты.
Автор | Дата:   
alex2899: Я дроблю промпт на части, чтобы он его понимал однозначно и не сжимал контекст. Причем части до 300 символов
Оригинал
у него контекст 258К символов, что ты там такого пихаешь ему что он после каждого промпта сжимает контекст, это во-первых, во-вторых, даже если сжимает, оставь ты его в покое, он это делает для эффективности, в чем проблема с сжатием контекста, кодекс качественно это делает.

и нахера дробить промпт по 300 символов? Если у тебя большой промпт, напиши все в файле 'prompt.md' перетащи затем файл ему в чат и напиши:

вот этот файл дарагой вазьми и наслопи мне хуеты пабольше, бля буду атблагодарю атвичаю


Я согласен с Квокой, судя по твоим постам ты делаешь какую-то неправильную хуйню и сам даже этого не понимаешь. Я ему скармливаю логи по 2000 строк все нахуй подряд и говорю «поправь блеать заипала эта хуита!» и он все прекрасно пережевывает и делает

1) Что за приложение ты юзаешь? ChatGPT, или Codex App? Это два разных приложения. 

2) Что ты разрабатываешь \ делаешь? Торгового бота, скрипт, индикатор, что? 

3) Как запускаешь по итогу, это бот на серваке, или приложение, или сайт и т.д.?
Автор | Дата:   
Automador: в чем проблема с сжатием контекста, кодекс качественно это делает.
Оригинал
он на полноценном 5,4 часто в ошибку по сжатию выпадает. особенно в режиме фаст.
Автор | Дата:   
MrCvokka: он на полноценном 5,4 часто в ошибку по сжатию выпадает. особенно в режиме фаст.
Оригинал
в CLI? или в приложении? у меня в CLI ни разу такого не было, я по несколько дней подряд в одной сессии сижу
Автор | Дата:   
Automador: в CLI? или в приложении?
Оригинал
приложение на маке.  до cli я еще не дорос.
хомяки 21 у терминала 3 трейдят [ ndr, cld, smellmybum ]пик 178
© 2026 Форум Бингуру. Уходи, тебя не звали
  ⇓     ⇑