원문: reddit.com | 토론: GeekNews · 댓글 5개

핵심 요약 GPT-5.4의 컨텍스트 윈도우가 1M 토큰이라고 알려져 있지만, Codex CLI나 IDE에서 확인하면 기본값이 약 258K로 표시되는 문제가 보고되었다. 1M 컨텍스트를 사용하려면 별도의 설정 변경이 필요하며, 해당 수치 이상으로 늘리면 토큰 가격이 두 배가 된다는 점도 확인되었다. 한편 long context 사용 시 needle-in-the-haystack 태스크 성능이 50% 이하로 떨어진다는 리포트도 있어, 무조건적인 확장보다는 용도에 맞는 설정이 중요하다. Codex의 compaction 기능이 오래 걸리지 않고 compact 후에도 맥락을 잘 유지한다는 실사용 후기도 공유되었다.

커뮤니티 의견

  • @ujinyang: “저 수치 이상으로 늘어나면 토큰 가격이 두배라고 하는데 확인하시는게 좋을겁니다.”
  • @apkas: “gpt-5.4 자체가 성능은 너무 만족스럽지만 가끔 직전 메세지가 아니라 이전 메세지에 대한 대답을 생성하는 등 아주 안정적이진 않고 long context 쓰면 needle in the haystack task에서 성능이 50% 이하로 떨어진다는 리포트도 있어서 굳이 추천하진 않고싶습니다.”
  • @click: “어쩐지 저도 context windows가 너무 작다고 생각했는데 따로 설정해줘야하는거였네요.”

💡 실무 포인트: GPT-5.4의 1M 컨텍스트를 활용하려면 명시적 설정 변경이 필요하며, 비용 2배 증가와 long context 성능 저하 트레이드오프를 고려해 프로젝트 특성에 맞게 컨텍스트 크기를 조절해야 한다.