Token 수량 확인 해주는 앱(Claude Code, Codex, Gemini CLI)
Contents돌아다니다가 재미난 앱을 하나 찾았다. LLM CLI 툴들에 대한 Token 수량을 확인 해주는 MacOS 앱이다. 현재 Codex, Claude, Cursor, Gemini, Antigravity, Droid (Factory), Copilot, z.ai, Kiro, Vertex AI, Augment, Amp, JetBrains AI에 대해서 GUI로 token을 표시해주는 앱이다. 아래 사이트에서 다운로드 가능하다.https://github.com/steipete/CodexBar GitHub - steipete/CodexBar: Show usage stats for OpenAI Codex and Claude Code, without having to login.Show usage stat..
[개발] AI로 짠 코드, 내가 리뷰하는 건 개발자인가 AI인가
Contents최근에, 지인 중에서 나는 AI로 코드를 생성하는 것을 지양한다는 이야기를 들었다. 이야기는 다음과 같다. - 팀원이 AI를 이용해서, 코드를 작성했다고 가정하자. 해당 팀원은 PR을 올리고 코드리뷰를 요청했고, 팀장 급은 해당 PR을 읽는다. 그러면 리뷰어는 개발자 코드를 리뷰하는 것인가? AI를 리뷰하는 것인가?- 리뷰어가 1시간, 2시간이 걸려서 PR을 검증하기 위하여 시간을 섰다. 피드백 사항을 적어 두니, 팀원이 AI를 이용해서 다시 PR을 올렸다. 리뷰어 입장에서는 AI와 대화를 하는 것인가? 여러 문제가 복합적으로 섞여 있는 것 같지만, 우선은 위에 있는 그대로 바라보겠다. 왜냐하면, 모든 일에는 "정도"의 문제가 있어서, 가능한 정도와 불가능한 정도가 섞여 있기 때문에, 읽는..
[백엔드] output json을 신경써서 만들어야 하는 이유(안티패턴)
Contents신입과 주니어 개발자들이 놓치는 부분 중에 하나는 "디테일"이다.동작하는데 문제가 없으니까, 현재의 방법이 맞다고 느끼는 "착각"에 빠지기 쉽다.그 중에, return 값에 대해서 이야기 해볼까 한다. 먼저 아래 json을 확인해보자. 그리고, 문제점을 찾아보자.{ "precheck": {"comment": "검증 완료", "status": 1}, "rules": { "min_stock_rule": {"comment": "최소 재고 충족", "status": 1, "value": 3}, "promo_price_rule": {"comment": "프로모션 가격 미적용", "status": 0, "vlaue": 0} }} 문제점간단하게 예시를 만들어봤다..
[LLM] 모든 모델을 쓰고 싶은 라이트 유저들의 플랫폼(T3 chat)
요즘은 구글의 gemini, OpenAI의 ChatGPT, Anthropic(Claude)의 Sonnet 등 다양한 LLM AI 모델들이 나온다.그리고, 각 플랫폼 마다 유료버전을 사용하면, 상당한 비용이 나간다. 한국에서 가장 많이 사용하는, ChatGPT만 하더라도, 20$인데, 부가세 포함해서 22$이고, 요즘 원화로 약 30580원(22 * 1390)이다. 이는, 한달에 50번 미만으로 사용할까 말까하는 가볍게 사용하는 유저들한테는 별로 좋은 소식이 아니다.ChatGPT만 3만원 가량 나가는 것이고, 여러 모델을 사용하고 싶은 사람들에게는, 추가적으로 각 플랫폼 별로 비용이 든다. 이 니즈를 t3 chat에서 해결해준다.https://t3.chat/ T3 Chat - Advanced AI Assi..