원문: reddit.com | 토론: GeekNews · 댓글 5개

핵심 요약 ChatGPT Pro와 Codex에서 GPT-5.4를 사용할 때 기본 컨텍스트가 약 258K로 제한되어 있으며, 1M 컨텍스트를 활용하려면 별도 설정이 필요하다는 사실이 알려졌다. 다만 258K 이상으로 늘리면 토큰 가격이 두 배로 증가한다는 보고가 있어 비용 확인이 필수적이다. 또한 롱 컨텍스트 사용 시 needle-in-the-haystack 성능이 50% 이하로 떨어진다는 리포트도 있어, 무조건 긴 컨텍스트가 좋은 것은 아니라는 점이 확인되고 있다. Codex의 compaction 기능이 잘 동작하여 기본 설정으로도 큰 불편이 없다는 의견도 있다.

커뮤니티 의견

  • @ujinyang: “저 수치 이상으로 늘어나면 토큰 가격이 두배라고 하는데 확인하시는게 좋을겁니다”
  • @apkas: “long context 쓰면 needle in the haystack task에서 성능이 50% 이하로 떨어진다는 리포트도 있어서 굳이 추천하진 않고싶습니다”
  • @sea715: “적절한 하네스가 있으면 그래도 나쁘지 않은것 같습니다. compaction 자체를 덜하니까 중간손실문제 자체도 줄어들어서”

💡 실무 포인트: GPT-5.4의 1M 컨텍스트를 사용할 때는 비용 대비 효과를 반드시 측정하자. 대부분의 워크로드에서는 compaction과 적절한 청킹 전략이 무작정 긴 컨텍스트보다 효율적이다.