이것은 사용자가 2025-7-21 13:09에 https://news.ycombinator.com/item?id=44598254을(를) 위해 저장한 이중 언어 스냅샷 페이지로, 몰입형 번역에 의해 제공된 이중 언어 지원이 있습니다. 저장하는 방법을 알아보세요?
Hacker Newsnew | past | comments | ask | show | jobs | submitlogin
Anthropic tightens usage limits for Claude Code without telling users
Anthropic, 사용자에게 알리지 않고 Claude Code 사용 한도 강화
(techcrunch.com)
398 points by mfiguiere 3 days ago | hide | past | favorite | 251 comments


> One user, who asked not to be identified, said it has been impossible to advance his project since the usage limits came into effect.
익명을 요청한 한 사용자는 사용 한도가 적용된 이후로 프로젝트를 진행할 수 없게 되었다고 말했다.

Vibe limit reached. Gotta start doing some thinking.
바이브 한도 도달. 이제 좀 생각을 시작해야겠다.


Who would have though including a hard depedency on third part service with unclear long term availability would be a problem!
장기적인 가용성이 불확실한 타사 서비스에 하드 의존성을 포함하는 것이 문제일 줄 누가 알았겠는가!

Paid compilers and remotely acessible mainframes all over again - people apparently never learn.
유료 컴파일러와 원격 접속 가능한 메인프레임이 다시 등장하는 중입니다 - 사람들은 도무지 배우지 않는 것 같습니다.


Everyone that successfully avoided social media for the last decade escaped with their mental health. Everyone that carefully moderates their ai intake (e.g don’t depend on Claude Code) will also escape with their skills over the next decade, others will become AI fiends, just the like social media fiends. Just knowing tech like the internet and ai can fuck your whole brain up is enough to be ahead of the curve. If you didn’t learn the lesson from the uptake of video games, cellphones, tv, streaming (the list is endless), then you’re not paying attention.
지난 10년간 소셜 미디어를 성공적으로 피한 사람들은 정신 건강을 지킬 수 있었습니다. AI 사용을 신중히 조절하는 사람들(예: Claude Code에 의존하지 않는 사람들)도 앞으로 10년간 자신의 기술을 지킬 수 있을 것입니다. 반면, 다른 사람들은 소셜 미디어 중독자들처럼 AI 중독자가 될 것입니다. 인터넷과 AI 같은 기술이 뇌를 완전히 망칠 수 있다는 사실만 알아도 한발 앞서 나가는 셈입니다. 비디오 게임, 휴대폰, TV, 스트리밍(목록은 끝이 없습니다)의 확산에서 교훈을 얻지 못했다면, 당신은 주의를 기울이지 않는 것입니다.

The destruction of spelling didn’t feel like doomsday to us. In fact, I think most people treated the utter annihilation of that skill as a joke. “No one knows how to spell anymore” - haha, funny, isn’t technology cute? Not really. We’ve gone up an order of magnitude, and not paying attention to how programming is on the chopping block is going to screw a lot of people out of that skill.
맞춤법 파괴는 우리에게 종말처럼 느껴지지 않았습니다. 사실 대부분의 사람들은 그 기술의 완전한 소멸을 농담처럼 여겼던 것 같습니다. “이제 아무도 맞춤법을 모른다” - 하하, 웃기죠, 기술이 귀엽지 않나요? 전혀 그렇지 않습니다. 우리는 한 차원 도약했고, 프로그래밍이 도마 위에 올라 있다는 사실에 주의를 기울이지 않으면 많은 사람들이 그 기술을 잃게 될 것입니다.


Very thoughtful comment, let me try to capture it more clearly.
매우 사려 깊은 댓글입니다, 제가 좀 더 명확하게 정리해 보겠습니다.

Zuckerberg recently said that those not using AI glasses will be cognitively disadvantaged in the future.
최근 저커버그는 AI 안경을 사용하지 않는 사람들은 미래에 인지적으로 불리해질 것이라고 말했습니다.

Imagine an AI-native from the future and one of the fancy espresso coffee machines that we have today. They will be able to know right away how to operate them from their AI assistants, but they won't be able to figure out how they work on their own.
미래의 AI 네이티브와 오늘날 우리가 가진 고급 에스프레소 커피 머신을 상상해보세요. 그들은 AI 비서 덕분에 바로 작동법을 알 수 있겠지만, 스스로 어떻게 작동하는지는 이해하지 못할 것입니다.

That's the future that Zuckerberg wants. Naturally, fancy IT offices will likely be gone. The AI-native would have bought the coffee machine for nostalgia effect for a large sum, trying to combat existential dread and feeling of failure which are fueled by their behavior being even more directly coerced into consumption.
그것이 저커버그가 원하는 미래입니다. 당연히 고급 IT 사무실은 사라질 가능성이 큽니다. AI 네이티브는 존재론적 불안과 실패감을 극복하기 위해 향수를 자극하는 목적으로 커피 머신을 큰 돈을 주고 샀을 것입니다. 이 감정들은 그들의 행동이 더욱 직접적으로 소비로 강제됨에 따라 더욱 심화됩니다.


curious, maybe one could go and spin up a study for using claculators instead of calculating manually and how it can lead to less x type of thinking and affect our abiltiy but maybe even if that is true(i am not sure maybe it is just in the domains we dont feel like we need to care much or etc) would people quitting clacutors a good thing for getting things done in the world ?
궁금한 점은, 계산기를 사용하는 대신 수동으로 계산하는 것에 대한 연구를 진행해보면 어떨까 하는 것입니다. 이것이 특정 유형의 사고를 감소시키고 우리의 능력에 영향을 미칠 수 있는지 말이죠. 하지만 설령 그것이 사실이라 하더라도(저는 확신하지 않습니다. 아마도 우리가 크게 신경 쓰지 않는 영역에서만 그런 것일 수도 있고요) 사람들이 계산기를 사용하지 않는 것이 세상에서 일을 처리하는 데 좋은 일일까요?

For me the thing that atrophied basic math skills wasn't the calculator, which was invented decades before I was born, but the rise of the smart phone.
나에게 기본 수학 능력을 퇴화시킨 것은 내가 태어나기 수십 년 전에 발명된 계산기가 아니라 스마트폰의 등장이다.

Sure, calculators are useful in professional life and in high school math and sciences. But you still had to do everyday math in all kinds of places and didn't always have a calculator at hand. The smartphone changed that
물론 계산기는 직업 생활과 고등학교 수학 및 과학에서 유용하다. 하지만 일상적인 수학은 여러 장소에서 직접 해야 했고 항상 계산기를 손에 쥐고 있지는 않았다. 스마트폰이 그 상황을 바꿨다.

I feel that's relevant in two ways: just like with math, a little bit of manual coding is going to be a huge difference compared to no manual coding, and any study like the one you propose would be hugely complicated by everything else that happened around the time, both because of smart phones and the coinciding 2008 crash
나는 이것이 두 가지 면에서 관련 있다고 생각한다. 수학과 마찬가지로 약간의 수동 코딩이 전혀 수동 코딩을 하지 않는 것과 비교해 큰 차이를 만들 것이고, 당신이 제안한 연구는 스마트폰과 2008년 금융 위기라는 당시의 다른 모든 사건들 때문에 매우 복잡해질 것이다.


curious, maybe one could go and spin up a study for using claculators instead of calculating manually and how it can lead to less x type of thinking and affect our abiltiy but maybe even if that is true(i am not sure maybe it is just in the domains we dont feel like we need to care much or etc) would people quitting clacutors a good thing for producing value in the world by the will of God?
궁금한 점은, 계산기를 사용하지 않고 수동으로 계산하는 것과 비교하여 계산기 사용이 특정 유형의 사고를 줄이고 우리의 능력에 어떤 영향을 미치는지에 대한 연구를 진행할 수 있을지도 모른다는 것이다. 하지만 설령 그것이 사실이라 하더라도(나는 확신하지 않으며 아마도 우리가 크게 신경 쓰지 않는 영역에서만 그런 것일 수도 있다), 사람들이 신의 뜻에 따라 세상에 가치를 창출하는 데 있어 계산기를 포기하는 것이 좋은 일일까?

It’s only a hard dependency if you don’t know and never learn how to program.
프로그래밍하는 법을 모르고 배우지 않는다면 그것이 유일한 강한 의존성입니다.

For developers who read and understand the code being generated, the tool could go away and it would only slow you down, not block progress.
생성된 코드를 읽고 이해하는 개발자에게는 이 도구가 없어져도 진행이 막히지 않고 오히려 속도만 느려질 뿐입니다.

And even if you don’t, it really isn’t a hard dependency on a particular tool. There are multiple competing tools and models to choose from, so if you can’t make progress with one, switch to another. There isn’t much lock-in to any specific tool.
설령 그렇지 않더라도 특정 도구에 대한 강한 의존성은 아닙니다. 선택할 수 있는 여러 경쟁 도구와 모델이 있으므로 하나로 진전이 없으면 다른 것으로 전환하면 됩니다. 특정 도구에 대한 잠금 현상은 거의 없습니다.


My experience has been that Claude can layout a lot of things in minutes that would take me hours if not days. Often I can dictate the precise logic and then claude get's most of the way there, with a little prompting claude can usually get even further. The amount of work I can get done is much more substantial than it used to be.
제 경험상 Claude는 몇 시간, 심지어 며칠이 걸릴 일을 몇 분 만에 배치할 수 있습니다. 종종 정확한 로직을 구두로 설명하면 Claude가 대부분 작업을 수행하고, 약간의 추가 프롬프트로 더 나아갈 수 있습니다. 제가 할 수 있는 작업량이 예전보다 훨씬 많아졌습니다.

I think there is a lot of reticence to adopt AI for coding but I'm seeing it as a step change for coding the way powerful calculators/workstation computers were for traditional engineering disciplines. The volume of work they were limited to using a slide rule was much lower than now with a computer.
코딩에 AI를 도입하는 데 많은 주저함이 있다고 생각하지만, 저는 이것이 전통적인 공학 분야에서 강력한 계산기나 워크스테이션 컴퓨터가 그랬던 것처럼 코딩에 있어 획기적인 변화라고 보고 있습니다. 슬라이드 룰을 사용하던 시절에 비해 컴퓨터를 사용하면서 처리할 수 있는 작업량이 훨씬 많아졌습니다.


> For developers who read and understand the code being generated, the tool could go away and it would only slow you down
> 생성된 코드를 읽고 이해하는 개발자에게는 이 도구가 사라져도 오히려 속도를 늦출 뿐일 것입니다.

Recent research suggests it would in fact speed you up.
최근 연구에 따르면 실제로는 속도를 높여준다고 합니다.

https://metr.org/blog/2025-07-10-early-2025-ai-experienced-o...


Interestingly, devs felt that it sped them up even though it slowed them down in the study.
흥미롭게도, 연구에서 개발자들은 도구가 속도를 늦췄음에도 불구하고 자신들이 더 빨라졌다고 느꼈습니다.

So even if it’s not an actual productivity booster on individual tasks, perhaps it still could reduce cognitive load and possibly burnout in the long term.
그래서 개별 작업에서 실제 생산성 향상 효과가 없더라도, 장기적으로 인지 부하를 줄이고 번아웃을 완화할 가능성은 여전히 있을 수 있습니다.

Either way, it’s a tool that devs should feel free to use or not use according to their preferences.
어쨌든 개발자들이 자신의 선호에 따라 자유롭게 사용하거나 사용하지 않을 수 있는 도구입니다.


You should actually read the paper. N size of 16. Only 1 of which had used cursor more than 40 hours before. All people working in existing code bases where they were the primary author.
실제로 논문을 읽어보셔야 합니다. N 크기가 16이며, 그중 단 한 명만이 이전에 커서를 40시간 이상 사용한 경험이 있었습니다. 모두 자신이 주 저자인 기존 코드베이스에서 작업하는 사람들이었습니다.

I did read the paper, and the HN discussion (which is how I found it). I recommend you read that, your comments were addressed.
저도 논문과 HN 토론을 읽었습니다(그것을 통해 논문을 알게 되었습니다). 그 토론을 읽어보시길 권합니다. 당신의 의견들이 그곳에서 다뤄졌습니다.

https://news.ycombinator.com/item?id=44522772


> Paid compilers.  > 유료 컴파일러.

I don't think this one is a good comparison.
이것은 좋은 비교라고 생각하지 않습니다.

Once you had the binary, the compiler worked forever[1]
바이너리를 얻으면 컴파일러는 영원히 작동했습니다[1]

The issue with them was around long term support for bugs and upgrade path as the language evolved.
문제는 버그에 대한 장기 지원과 언어가 발전함에 따른 업그레이드 경로에 있었습니다.

---

[1] as long you had a machine capable of running/emulating the instruction set for the binary.
[1] 바이너리의 명령어 집합을 실행하거나 에뮬레이트할 수 있는 기계가 있는 한.


Hm, I am assuming that paid compilers were largely gone before the whole "must have this dongle attached to computer" industry? Because for software that uses those, "I paid for it" absolutely does not guarantee "I can still run it". The only reason it's not more of a problem is the planned obsolescence that means forced to upgrade sooner or later (but, unlike purely subscription-based services, you have some control over how frequently you pay).
음, 유료 컴파일러가 "이 동글을 컴퓨터에 반드시 연결해야 한다"는 산업이 생기기 전에 대부분 사라졌다고 가정하고 있습니다. 그런 소프트웨어의 경우, "돈을 주고 샀다"는 사실이 "아직도 실행할 수 있다"는 보장을 절대 하지 않습니다. 이 문제가 더 심각하지 않은 유일한 이유는 계획된 노후화로 인해 결국에는 업그레이드를 강요받기 때문입니다(하지만 순수 구독 기반 서비스와 달리 지불 빈도를 어느 정도 조절할 수 있습니다).

Sadly, paid compilers still exist, and paid compilers requiring a licensing dongle still exist. The embedded development world is filled with staggering amounts of user hostility.
안타깝게도 유료 컴파일러는 여전히 존재하며, 라이선스 동글을 요구하는 유료 컴파일러도 여전히 존재합니다. 임베디드 개발 세계는 사용자 적대감이 엄청난 수준입니다.

My understanding is that much of the established embedded world has moved to any one flavour of GCC or (more commonly) Clang, just because maintaining a proprietary optimising compiler is too much effort than just modifying (and eventually contributing to) Clang.
제가 이해하기로는, 기존 임베디드 세계의 대부분은 독점 최적화 컴파일러를 유지하는 것이 너무 큰 노력이라서 GCC의 어떤 변형이나 (더 흔하게는) Clang으로 이동한 상태입니다. Clang을 수정하고 결국 기여하는 것이 더 낫기 때문입니다.

Tough for me to speak about embedded in general, but many companies are on vendor toolchains or paid compilers by choice, and it is the right choice to make given the tradeoffs involved.
임베디드에 대해 일반적으로 말하기는 어렵지만, 많은 회사들이 벤더 툴체인이나 유료 컴파일러를 선택해서 사용하며, 관련된 트레이드오프를 고려할 때 이는 올바른 선택입니다.

IAR for example is simply a fantastic compiler. It produces more compact binaries that use less memory than GCC, with lots and lots of hardware support and noticeably better debugging. Many companies have systems-engineering deadlines which are much less amenable to beta quality software, fewer software engineering resources to deal with GCC or build-chain quirks (often, overworked EEs writing firmware), and also a strong desire due to BOM cost to use cheaper/less dense parts. And if there is a compiler bug or quirk, there is someone on the other end of the line who will actually pick up the phone when you call.
예를 들어 IAR은 단순히 환상적인 컴파일러입니다. GCC보다 더 작고 메모리를 덜 사용하는 바이너리를 생성하며, 하드웨어 지원이 매우 풍부하고 디버깅도 눈에 띄게 우수합니다. 많은 회사들은 베타 품질 소프트웨어에 덜 적합한 시스템 엔지니어링 마감일을 가지고 있고, GCC나 빌드 체인의 특이점들을 다룰 소프트웨어 엔지니어링 자원이 적으며(대개 과로하는 전자공학자들이 펌웨어를 작성), BOM 비용 때문에 더 저렴하고 밀도가 낮은 부품을 사용하려는 강한 욕구도 있습니다. 그리고 컴파일러 버그나 특이점이 있을 경우, 전화를 걸면 실제로 전화를 받는 사람이 있습니다.

That said, some of those toolchain+IDE combos absolutely do suck in the embedded world, mostly the vendor-provided ones (makes sense, silicon manufacturers usually aren't very good at or care much about software, as it turns out).
그렇긴 해도, 임베디드 세계에서 일부 툴체인+IDE 조합은 확실히 별로인 경우가 있는데, 주로 벤더 제공 툴들이 그렇습니다(실리콘 제조업체들은 보통 소프트웨어에 능숙하지 않거나 크게 신경 쓰지 않는 경우가 많기 때문입니다).


> Tough for me to speak about embedded in general, but many companies are on vendor toolchains or paid compilers by choice, and it is the right choice to make given the tradeoffs involved.
임베디드에 대해 일반적으로 말하기는 어렵지만, 많은 회사들이 벤더 툴체인이나 유료 컴파일러를 선택하는데, 이는 관련된 트레이드오프를 고려할 때 올바른 선택입니다.

That's true in general. With paid licenses and especially subscriptions, you're not just getting the service, you're also entering a relationship with the provider.
일반적으로 맞는 말입니다. 유료 라이선스, 특히 구독의 경우 단순히 서비스를 받는 것이 아니라 제공자와의 관계에 들어가는 것입니다.

For companies, that often matters more than the service itself - especially when support is part of this relationship. That's one of many reasons companies like subscriptions.
기업에게는 이 관계가 서비스 자체보다 더 중요할 때가 많습니다. 특히 지원이 이 관계의 일부일 때 더욱 그렇습니다. 이것이 기업들이 구독을 선호하는 여러 이유 중 하나입니다.

For individuals, that sucks. They don't need or want another relationship with some random party, that they now need to keep track of. The relationship has so much power imbalance that it doesn't benefit the individual at all - in fact, for most businesses, such customer is nothing more than a row in an analytics database - or less, if GDPR applies.
개인에게는 그게 불편합니다. 그들은 또 다른 무작위 당사자와의 관계를 원하지도 필요로 하지도 않으며, 이제 그 관계를 관리해야 합니다. 이 관계는 권력 불균형이 너무 커서 개인에게 전혀 이익이 되지 않습니다. 사실 대부분의 기업에게 그러한 고객은 분석 데이터베이스의 한 행에 불과하거나, GDPR이 적용된다면 그보다도 적은 존재입니다.


8051s pretty much mean Keil - they used to do license dongles, but it's all online now. You really don't get much more established than the 8051. If you pick up any cheap electronic product and crack it open to find a low part count PCB with a black epoxy blob on it, chances are very good there's an 8051 core with a mask ROM under the blob.
8051은 거의 Keil을 의미합니다 - 예전에는 라이선스 동글을 사용했지만 지금은 모두 온라인으로 전환되었습니다. 8051보다 더 확고하게 자리 잡은 것은 거의 없습니다. 저렴한 전자 제품을 하나 집어 들고 열어보면 부품 수가 적은 PCB 위에 검은색 에폭시 블롭이 붙어 있는 경우가 많은데, 그 블롭 아래에 마스크 ROM이 내장된 8051 코어가 있을 가능성이 매우 높습니다.

(Also AVR/PIC compiler from Microchip had a dongle as recently as February this year, and it looks like it's still available for sale even though its license isn't in the new licensing model).
(또한 Microchip의 AVR/PIC 컴파일러는 올해 2월까지도 동글을 사용했으며, 새로운 라이선스 모델에는 포함되지 않았음에도 불구하고 여전히 판매 중인 것으로 보입니다).


> My understanding is that much of the established embedded world has moved to any one flavour of GCC or (more commonly) Clang
> 제 이해로는 기존 임베디드 세계의 대부분이 GCC의 어느 한 버전이나 (더 일반적으로는) Clang으로 이동했습니다.

Clang is not being professionally used commonly in the embedded space.
Clang은 임베디드 분야에서 전문적으로 널리 사용되고 있지 않습니다.


You need to run the cost/benefit analysis here: if I had avoided Claude Code, all that would have happened is I would have written much less code.
여기서 비용/편익 분석을 해야 합니다: 만약 Claude Code를 피했다면, 결과적으로 훨씬 적은 코드를 작성했을 뿐입니다.

What's the cost between never using Claude, and using it and getting these lower limits? In the end, I'm left with no Claude in both situations, which leaves me better off for having used it (I wrote more code when Claude worked).
Claude를 전혀 사용하지 않는 것과 사용해서 이런 낮은 한도를 받는 것 사이의 비용은 무엇일까요? 결국 두 상황 모두 Claude가 없지만, 사용했을 때가 더 낫습니다(Claude가 작동할 때 더 많은 코드를 작성했으니까요).


Did you write more code with Claude? Isn’t the point that you have in fact written less (because Claude wrote it for you)?
Claude와 함께 더 많은 코드를 작성했나요? 사실은 Claude가 대신 작성해줘서 더 적게 썼다는 게 핵심이 아닌가요?

As for the cost, you are ignoring the situation where someone has depended on the tool so much that when it goes away they are atrophied and unable to continue as before. So no, in your scenario you’re not always left better off.
비용에 관해서는, 누군가가 도구에 너무 의존해서 도구가 사라지면 기능이 쇠퇴하고 이전처럼 계속할 수 없는 상황을 무시하고 있습니다. 그러니 아니요, 당신의 시나리오에서는 항상 더 나은 상태로 남는 것이 아닙니다.


The metric being more lines of code usually turnes out to not be a very good one. Can it also help you do the same with less lines of code & reduced complexity ?
코드 라인이 더 많다는 지표는 보통 좋은 지표가 아닌 경우가 많습니다. 같은 작업을 더 적은 코드 라인과 줄어든 복잡도로도 할 수 있나요?

> people apparently never learn
> 사람들은 분명히 배우지 못하는 것 같습니다

They don't, because ironically enough human meatbags all need to be trained from scratch, unlike LLMs which don't die every 80 years or so.
그렇지 않죠, 아이러니하게도 인간은 모두 처음부터 훈련을 받아야 하는 반면, LLMs는 80년마다 죽지 않으니까요.

I doubt even 10% of the devs now were conscious when "paid compilers and remotely accessible mainframes" still existed.
지금 개발자 중 10%라도 "유료 컴파일러와 원격 접속 가능한 메인프레임"이 존재하던 시절을 의식하고 있었을지 의문입니다.


Right, but these companies are selling their products on the basis that you can offload a good amount of the thinking. And it seems a good deal of investment in AI is also based on this premise. I don't disagree with you, but it's sorta fucked that so much money has been pumped into this and that markets seem to still be okay with it all.
맞아요, 하지만 이 회사들은 상당한 양의 사고를 대신 처리할 수 있다는 전제로 제품을 판매하고 있습니다. 그리고 AI에 대한 많은 투자가 이 전제에 기반하고 있는 것 같아요. 저는 당신 의견에 반대하지 않지만, 이렇게 많은 돈이 쏟아져 들어갔고 시장이 여전히 이를 받아들이고 있는 상황이 좀 문제라는 생각이 듭니다.

They're not selling them, they're still giving them away. Once the VC money runs out we'll see what the actual cost of this stuff is.
그들은 판매하는 것이 아니라 여전히 무료로 제공하고 있습니다. 벤처 캐피털 자금이 다 떨어지면 이 제품의 실제 비용이 드러날 것입니다.

> They're not selling them
> 그들은 판매하는 것이 아니다

I have a receipt of sale that says otherwise.
저는 그와는 다른 판매 영수증을 가지고 있습니다.


Oh, you beautiful summer child. They are losing money on you . Do you think they are doing that out of the goodness of your heart? They are luring you in, making you dependent on them at a net loss while the VC money are lasting.
아, 순진한 당신. 그들은 당신 때문에 손해를 보고 있습니다. 그들이 당신을 위해 그런 행동을 한다고 생각하나요? 그들은 벤처 캐피털 자금이 지속되는 동안 손해를 보면서 당신을 유인하고, 당신이 그들에게 의존하게 만들고 있습니다.

When you are totally hooked and they are fully out of money, that's when you'd realize the long con you've been dragged into. At this very moment, that they are tightening the usage limits they are not telling you, and you still think the peanuts you are paying them now would be enough in the future? It's called https://en.wikipedia.org/wiki/Enshittification and you better know that you are in it.
당신이 완전히 빠져들고 그들이 완전히 자금이 바닥났을 때, 바로 그때 당신은 자신이 끌려 들어간 긴 사기를 깨닫게 될 것입니다. 바로 이 순간, 그들이 당신에게 알리지 않고 사용 한도를 강화하고 있는데도, 당신은 지금 지불하는 소액이 앞으로도 충분할 거라고 생각합니까? 이것을 https://en.wikipedia.org/wiki/Enshittification 라고 하며, 당신이 그 안에 있다는 것을 알아야 합니다.


I am buying from willing sellers at the current fair market price. The belief that there will be "one true king" in this race has been incepted by VCs and hype men, and is misguided at best and dangerous at worst.
저는 현재 공정 시장 가격에 기꺼이 판매하는 사람들로부터 구매하고 있습니다. 이 경쟁에서 "진정한 왕"이 있을 것이라는 믿음은 벤처 캐피털리스트와 과장 선동자들에 의해 심어졌으며, 기껏해야 오해이고 최악의 경우 위험합니다.

Like many of the companies that have gone before them, if / when the value proposition is gone, and I get less than 10x the amount I spend, I will be gone.
그들보다 먼저 간 많은 회사들처럼, 가치 제안이 사라지고 내가 지출한 금액의 10배 미만을 얻는다면, 저는 떠날 것입니다.


most inference runs at 40%+ margin
대부분의 추론 실행은 40% 이상의 마진으로 이루어진다.

Is this like saying a gym runs at 40%+ margin because 80% of users don't really use it heavily or forget they even had a subscription? Would be interested to see the breakdown of that number.
이것은 체육관이 80%의 사용자가 실제로 많이 사용하지 않거나 구독이 있다는 사실조차 잊어버려서 40% 이상의 마진으로 운영된다고 말하는 것과 비슷한가요? 그 수치의 세부 내역을 보고 싶네요.

That's how nearly every subscription service works, yes. Some fraction has a subscription and doesn't use it, another large chunk only uses a fraction of their usage limits, and a tiny fraction uses the service to it's full potential. Almost no subscription would be profitable if every customer used it to its full potential
거의 모든 구독 서비스가 그렇게 작동합니다, 네. 일부는 구독은 했지만 사용하지 않고, 또 다른 큰 부분은 사용 한도가 일부만 사용되며, 아주 작은 부분만이 서비스를 최대한 활용합니다. 모든 고객이 서비스를 최대한 활용한다면 거의 모든 구독 서비스는 수익성이 없을 것입니다.

TL;DR: their subscriptions have an extra built-in margin closer to 70%, because the entry price, target audience and clever choice of rate limiting period, all keep utilization low.
요약: 그들의 구독은 진입 가격, 대상 고객, 그리고 현명한 요금 제한 기간 선택 덕분에 사용률이 낮게 유지되어 약 70%에 가까운 추가 내장 마진을 가지고 있습니다.

----

In this case I'd imagine it's more of an assumption that almost all such subscriptions will have less than 33% utilization, and excepting few outliers, even the heaviest users won't exceed 60-70% utilization on average.
이 경우 거의 모든 구독이 33% 미만의 사용률을 가질 것이라는 가정이 더 크며, 몇몇 예외를 제외하고는 가장 많이 사용하는 사용자도 평균적으로 60-70%의 사용률을 넘지 않을 것이라고 생각합니다.

"33% or less" is, of course, people using a CC subscription only at work. Take an idealized case - using CC only during regular working hours, no overtime: then, even if you use it to the limit all the time, you only use it for 1⁄3 of the day (8h), and 5 days a week - the expected utilization in this scenario is 8/24 × 5/7 = 24%. So you're paying a $200 subscription, but actually getting at most $50 of usage out of it.
"33% 이하"는 물론 CC 구독을 직장에서만 사용하는 사람들을 의미합니다. 이상적인 경우를 가정해보면, 정규 근무 시간 동안만 CC를 사용하고 초과 근무는 하지 않는 경우: 이때, 항상 한도까지 사용하더라도 하루의 1/3(8시간)만 사용하며, 주 5일 근무하므로 이 시나리오에서 예상되는 사용률은 8/24 × 5/7 = 24%입니다. 즉, $200 구독료를 내지만 실제로는 최대 $50어치만 사용하게 되는 셈입니다.

Now, throw in a rate limit that refreshes in periods of 5 hours - a value I believe was carefully chosen to achieve this very effect - and the maximum utilization possible (maxing out limit, waiting for refresh, and maxing out again, in under 8 hours wall-clock time), is still 10 hours equivalent, so 10/24 × 5/7 = 30%. If you just plan to use CC to the first limit and then take meetings for the rest of the day, your max utilization drops to 15%.
이제 5시간 단위로 갱신되는 속도 제한을 추가해보면 — 이 값은 바로 이런 효과를 내기 위해 신중하게 선택된 것으로 보입니다 — 최대 사용 가능량(한도를 최대한 사용하고, 갱신을 기다린 후 다시 최대한 사용, 이 모든 과정이 8시간 이내에 이루어짐)은 여전히 10시간에 해당하므로 10/24 × 5/7 = 30%입니다. 만약 CC를 첫 한도까지만 사용하고 나머지 시간은 회의에 참석할 계획이라면 최대 사용률은 15%로 떨어집니다.

Of course people do overtime, use same subscription for personal stuff after work and on weekends, or just run a business, etc. -- but they also need to eat and sleep, so interactively, you'd still expect them to stay below 75% (83% if counting in 5-hour blocks) total utilization.
물론 사람들은 초과 근무를 하거나, 퇴근 후나 주말에 개인 용도로 같은 구독을 사용하거나, 사업을 운영하는 등 다양한 경우가 있지만, 그들도 식사하고 잠을 자야 하므로 상호작용적으로 볼 때 총 사용률은 여전히 75% 미만(5시간 단위로 계산하면 83%)일 것으로 예상됩니다.

Sharing subscriptions doesn't affect these calculations much - two people maxing out a single subscription is, from the provider side, strictly not greater than two subscriptions with 50% utilization. The math will stop working once a significant fraction of users figure out non-interactive workflows, that run CC 24/7. We'll get there eventually, but we're not there yet. Until then, Anthropic is happy we're all paying $200/month but only getting $50 or less of service out of it.
구독을 공유하는 것은 이러한 계산에 큰 영향을 미치지 않습니다. 한 구독을 두 사람이 최대한 사용하는 것은, 제공자 입장에서는 50% 활용도의 두 구독과 엄격히 동일하거나 그 이하입니다. 상당수 사용자가 24시간 365일 CC를 실행하는 비대화형 워크플로우를 알아내면 이 수학적 계산은 더 이상 맞지 않게 될 것입니다. 결국 그 시점에 도달하겠지만, 아직은 아닙니다. 그때까지 Anthropic은 우리 모두가 월 $200를 지불하지만 서비스는 $50 이하만 받고 있다는 사실에 만족하고 있습니다.


Is that for per token costs or in these bundled subscriptions companies are selling?
그것이 토큰당 비용에 관한 것인가요, 아니면 기업들이 판매하는 이 번들 구독에 관한 것인가요?

For example, when playing around with claude code using a per token paid API key, it was going to cost ~$50aud a day with pretty general usage.
예를 들어, 토큰당 비용이 부과되는 API 키로 claude code를 사용해보면, 일반적인 사용량으로 하루에 약 $50 AUD가 들었습니다.

But their subscription plan is less than that per month. Them lowering their limits suggests that this wasn't proving profitable at the current limits.
하지만 그들의 구독 요금제는 한 달에 그보다 적습니다. 그들이 제한을 낮춘 것은 현재 제한 내에서 수익성이 없다는 것을 시사합니다.


Exactly. The enormous margin is why companies like OpenAI and Anthropic are known for being so immensely profitable. Just money printing machines compared to the amount of cash they burn
정확히 그렇습니다. 엄청난 마진 덕분에 OpenAI와 Anthropic 같은 회사들이 매우 수익성이 높은 것으로 알려져 있습니다. 그들이 소모하는 현금에 비해 단순한 돈 찍어내는 기계와 같습니다.

They'd be still at massive losses. You can spend your monthly subscription price in a day.
그들은 여전히 막대한 손실을 보고 있을 겁니다. 한 달 구독료를 하루 만에 쓸 수 있습니다.

I thought it was understood all the large vendors were losing money bigly on inference and will have to pull the rug eventually.
모든 대형 공급업체가 추론(inference)에서 큰 손실을 보고 있으며 결국에는 사업을 접어야 할 것이라는 점은 모두가 이해하고 있다고 생각했습니다.

Cost of revenue should include R&D and amortization. Pointing to EBTIDA is a very old trick.
매출원가는 연구개발비와 감가상각비를 포함해야 합니다. EBITDA를 지적하는 것은 매우 오래된 수법입니다.

Definitely doesn't sound true unless you have the receipts.
영수증이 없으면 절대 사실 같지 않네요.

Is that to the $20/mth plan or the 137?
월 20달러 요금제인가요, 아니면 137달러 요금제인가요?

Yeah, they are _saying_ that they're selling you a service but there will be surprises...
네, 그들은 서비스를 판매한다고 _말하고_ 있지만 놀라움이 있을 거라고 하네요...

How long can AI be subsidized in the name of growth? They need to radically increase the price. If I replace a $150k yr employee should I pay $200 a month or $2,000 a month. $200 is too cheap.
성장이라는 명목으로 AI를 얼마나 오래 보조할 수 있을까요? 가격을 대폭 인상해야 합니다. 연봉 15만 달러 직원 한 명을 대체한다면 월 200달러를 내야 할까요, 아니면 월 2,000달러를 내야 할까요. 200달러는 너무 저렴합니다.

$200 a month with Opus 4 and Sonnet 4 won't let you replace a $12.5k / month employee - but it's cheap enough that everyone, including you and even your employees, will want to see how much utility they can squeeze out of it.
Opus 4와 Sonnet 4로 월 200달러는 월 12,500달러짜리 직원을 대체할 수는 없지만, 충분히 저렴해서 여러분과 여러분의 직원들 모두가 얼마나 많은 효용을 뽑아낼 수 있을지 확인하고 싶어질 것입니다.

This is a price to get people hooked up, yes, but also to get them to explore all kinds of weird tricks and wacky workflows, especially ones that are prohibitively costly when billed per token. In some sense, this is crowdsourcing R&D - and then when Opus 7 or whatever comes along to take advantage of best practices people worked out, and that turns out to be good enough to replace your $150k/yr / $12.5k/mo employee - then they'll jack up prices to $10k/month or whatever.
이 가격은 사람들이 서비스를 시작하도록 유도하는 것이기도 하지만, 특히 토큰별 과금 시 비용이 너무 많이 드는 이상한 트릭과 기발한 워크플로우를 탐색하도록 유도하는 목적도 있습니다. 어떤 면에서는 이것이 크라우드소싱 R&D와 같으며, 이후 Opus 7 같은 버전이 등장해 사람들이 찾아낸 모범 사례를 활용하고, 그 결과 연 15만 달러 / 월 12,500달러짜리 직원을 대체할 만큼 충분히 좋아지면 가격을 월 1만 달러 등으로 올릴 것입니다.


$200 a month gives your $12.5k / month employee a handy assistant who can take care of things you'd love to automate or would employ a junior dev for.
월 200달러는 월 12,500달러짜리 직원에게 자동화하고 싶거나 주니어 개발자를 고용할 만한 일을 처리해 줄 편리한 조수를 제공합니다.

And makes your codebase completely unmaintainable, even for Claude. The more Claude runs one does, the more unmaintainable the codebase becomes, and more tokens Claude spends on each subsequent run. It's a perfect ecosystem!
그리고 Claude에게도 코드베이스를 완전히 유지보수 불가능하게 만듭니다. Claude가 실행할수록 코드베이스는 더 유지보수 불가능해지고, 이후 실행마다 Claude가 사용하는 토큰 수도 증가합니다. 완벽한 생태계입니다!

> replace a $150k  > $150k 교체

Seems tangential? Price entirely depends on what consumers/businesses willing to pay and the degree of competition
관련 없는 것 같네요? 가격은 전적으로 소비자/기업이 지불할 의사와 경쟁 정도에 달려 있습니다


> If I replace a $150k yr employee
> 연봉 $150k 직원 교체한다면

Based on my experience with Claude Code (which is relatively good TBH), I'd say good luck with that.
제 경험상 Claude Code(솔직히 꽤 괜찮음)로 보면, 행운을 빕니다.


You can spend $2000 a month if you want, they have an pay what you use option.
원한다면 한 달에 2000달러까지 쓸 수 있어요, 사용한 만큼 지불하는 옵션이 있습니다.

> Gotta start doing some thinking.
> 생각을 좀 시작해야겠다.

The fact they declared their own project as “impossible to advance” given the situation reveals they are unwilling to go the thinking route right now.
그들이 자신의 프로젝트를 “진전시키기 불가능하다”고 선언한 사실은 현재로서는 생각하는 방향으로 나아가려 하지 않는다는 것을 보여줍니다.


Hmmm, I am 99% sure the users are not vibe coders who can't code, those are on tools like lovable, not messing with terminal tools.
음, 사용자들이 코딩을 못하는 바이브 코더들이라고 99% 확신해요, 그런 사람들은 lovable 같은 도구를 쓰지 터미널 도구를 다루지 않거든요.

More than some thinking. They’ll probably need to think hardest or even ultrathink to keep the project moving forward.
일부 사람들이 생각하는 것보다 더 많이. 그들은 아마도 프로젝트를 계속 진행하기 위해 가장 열심히, 심지어 초고도 사고를 해야 할 것입니다.

Came to comment on the same quote.
같은 인용구에 대해 댓글을 달러 왔습니다.

I'm surprised, but know I shouldn't be, that we're at this point already.
놀랍지만, 이미 이 지점에 와 있다는 사실에 놀라지 말아야 한다는 것을 압니다.


First one was free  첫 번째는 무료였습니다.

I would be a little disappointed if that wasn't the case, after all we have been there quite a while in regards to the art models.
그렇지 않다면 조금 실망할 것 같아요. 결국 우리는 아트 모델과 관련해서 꽤 오랫동안 그 자리에 있었으니까요.

I honestly feel sorry for these vibe coders. I'm loving AI in a similar way that I loved google or IDE magic. This seems like a far worst version of those developers that tried to build an entire app with Eclipse or Visual Studio GUI drag and drop from the late 90s
솔직히 이 vibe 코더들이 안타깝습니다. 저는 구글이나 IDE 매직을 사랑했던 것과 비슷한 방식으로 AI를 좋아하고 있어요. 이건 90년대 후반 Eclipse나 Visual Studio GUI 드래그 앤 드롭으로 전체 앱을 만들려던 개발자들의 훨씬 더 나쁜 버전처럼 보입니다.

I really don't like how religious the debate about AI has gotten here. "I feel sorry for these vibe coders" is something you tell yourself to feel superior to people who use AI.
여기서 AI에 대한 논쟁이 너무 종교적이 된 것이 정말 마음에 들지 않아요. "이 vibe 코더들이 안타깝다"는 말은 AI를 사용하는 사람들보다 자신이 우월하다고 느끼기 위해 스스로에게 하는 말입니다.

Don't feel sorry for me, I've used vibe coding to create many things, and I still know how to program, so I'll live if it goes away.
저를 안타까워하지 마세요. 저는 vibe 코딩으로 많은 것을 만들어봤고, 여전히 프로그래밍할 줄 알기 때문에 사라져도 잘 살아갈 겁니다.


Same, I really like the solutions one can build with LLMs and have a lot of fun working with them to improve use-cases where it actually makes sense. Its the first time since years I really enjoy coding on side-projects and take great care to give clear instructions and review and understand what LLMs build for me, except some completely irrelevant/one-shot things I entirely "vibe code".
저도 마찬가지로, LLMs로 만들 수 있는 솔루션들이 정말 마음에 들고, 실제로 의미 있는 사용 사례를 개선하기 위해 작업하는 것이 매우 즐겁습니다. 수년 만에 처음으로 사이드 프로젝트 코딩을 진심으로 즐기고 있으며, 명확한 지침을 제공하고 LLMs가 만들어내는 것을 검토하고 이해하는 데 세심한 주의를 기울이고 있습니다. 다만 완전히 무관하거나 일회성인 것들은 전적으로 "vibe code"로 처리합니다.

Its gotten so bad I'm actively trying to avoid talking about this in circles like Hacker News because people get so heavily and aggressively discredited and ridiculed as if they have no idea what they are doing or are a shill for big AI companies.
상황이 너무 심각해져서, 사람들이 자신들이 무슨 일을 하는지 전혀 모르는 것처럼 혹은 대형 AI 회사의 대변인인 것처럼 심하게 공격받고 조롱당하는 것을 보면서, Hacker News 같은 곳에서 이런 이야기를 반복적으로 하는 것을 적극적으로 피하려고 합니다.

I know what I'm doing and actively try to help friends and co-workers use LLMs in a sustainable way, understanding their limitations and the dangers of letting them loose without staying in the loop. Its sad that I can't talk about this without fear of being attacked, especially in communities like Hacker News that I previously valued as being very professional and open, compared to other modern social media.
저는 제가 하는 일을 잘 알고 있으며, 친구들과 동료들이 LLMs를 지속 가능하게 사용할 수 있도록 그 한계와 통제 없이 방치할 때의 위험성을 이해시키며 적극적으로 돕고 있습니다. 특히 이전에 매우 전문적이고 개방적이라고 평가했던 Hacker News 같은 커뮤니티에서조차 공격받을 두려움 없이 이 이야기를 할 수 없다는 것이 안타깝습니다. 다른 현대 소셜 미디어와 비교해도 말이죠.


Why isn't anyone talking about the bevvy of drag-and-drop no colder solutions that have already been in the market? Surely the LLMs are competing with those tools, right?
왜 이미 시장에 나와 있는 수많은 드래그 앤 드롭 무코딩 솔루션에 대해 아무도 이야기하지 않는 걸까요? 분명 LLMs가 그 도구들과 경쟁하고 있는 거 아니에요?

People trash LLM code as if most consumer software isn't buggy piles of half assed code.
사람들은 마치 대부분의 소비자용 소프트웨어가 버그 투성이의 엉성한 코드 덩어리가 아닌 것처럼 LLM 코드를 비난하죠.

all software if we're being honest :)
솔직히 말하면 모든 소프트웨어가 그렇습니다 :)

Hundreds of billions of dollars have changed hands through shitty drag-and-drop UIs, wordpress ecommerce plugins, and dreamweaver sites, lets not forget the code is there to serve a business purpose at the end of the day. Code quality is an implementation detail that may matter less over time as rewrites get easier. I love me some beatiful hand-written clean code, but clean code is not the true goal.
수천억 달러가 형편없는 드래그 앤 드롭 UI, 워드프레스 이커머스 플러그인, 드림위버 사이트를 통해 오갔습니다. 결국 코드는 비즈니스 목적을 위해 존재한다는 점을 잊지 맙시다. 코드 품질은 시간이 지날수록 리라이트가 쉬워지면서 덜 중요해질 수 있는 구현 세부사항입니다. 저는 아름답고 깔끔하게 손수 작성한 코드를 좋아하지만, 깔끔한 코드는 진정한 목표가 아닙니다.

> clean code is not the true goal
> 깔끔한 코드는 진정한 목표가 아니다

Its not, but it does matter. LLMs, being next word guessers, perform differently with different inputs. Its not hard to imagine a feedback loop of bad code generating worse code and good code generating more good code.
그렇지는 않지만, 중요하긴 하다. LLMs는 다음 단어를 예측하는 모델이기 때문에 입력에 따라 성능이 달라진다. 나쁜 코드가 더 나쁜 코드를 생성하고 좋은 코드가 더 좋은 코드를 생성하는 피드백 루프를 상상하는 것은 어렵지 않다.

My ability to get good responses from LLMs has been tied to me writing better code, docstrings, and using autoformatters.
내가 LLMs로부터 좋은 응답을 얻는 능력은 더 나은 코드 작성, 도큐스트링 작성, 그리고 자동 포매터 사용과 연결되어 있다.


I don't think that feedback loop is really a loop because code that doesn't actually do its job doesn't grow in popularity for long. We already have a great source of selection pressure to take care of shitty products that don't function: users and their $.
나는 그 피드백 루프가 실제로 루프라고 생각하지 않는다. 제 역할을 하지 못하는 코드는 오래도록 인기를 끌지 못하기 때문이다. 우리는 이미 제대로 작동하지 않는 형편없는 제품을 처리할 선택 압력의 훌륭한 원천을 가지고 있다: 사용자와 그들의 돈이다.

There is nothing about LLMs that make them bias towards "better" code. LLMs are every bit as good at making low effort reddit posts and writing essays for Harper's Magazine. In fact, there's a lot more shit reddit posts (and horrible student assignment github repos) than there are Harper's Magazine articles.
LLM이 "더 나은" 코드를 선호하도록 만드는 것은 아무것도 없습니다. LLM은 노력 없이 작성된 레딧 게시물이나 Harper's Magazine용 에세이 작성에도 똑같이 능숙합니다. 사실, Harper's Magazine 기사보다 형편없는 레딧 게시물(그리고 끔찍한 학생 과제 깃허브 저장소)이 훨씬 더 많습니다.

The only thing standing between your LLM and bad code is the quality of the prompt (including context and the hiddem OEM prompt).
당신의 LLM과 나쁜 코드 사이에 있는 유일한 것은 프롬프트의 품질(컨텍스트와 숨겨진 OEM 프롬프트 포함)입니다.


I don't consider drag-and-drop UIs anywhere close to wordpress plugins. I'm not talking about writing bad code, I'm talking about being able to understand what you are creating.
드래그 앤 드롭 UI를 워드프레스 플러그인과 비슷하다고 생각하지 않습니다. 나쁜 코드를 작성하는 것이 아니라, 당신이 무엇을 만들고 있는지 이해할 수 있는 능력에 대해 말하는 것입니다.

there are many parts of computers I don't understand in detail, but I still get tremendous value using them and coding on top of abstractions I don't need to know the internals of.
컴퓨터의 많은 부분을 자세히 이해하지 못하지만, 여전히 그것들을 사용하고 내부 구조를 알 필요 없는 추상화 위에서 코딩하면서 엄청난 가치를 얻고 있습니다.

Thats a really good comparison. Dreamweaver would be another one. You just don’t own the tool now, so it puts you at even more risk.
정말 좋은 비교입니다. Dreamweaver도 마찬가지입니다. 이제 도구를 소유하지 않기 때문에 더 큰 위험에 처하게 됩니다.

He did not pass the vibe check.
그는 분위기 검사를 통과하지 못했습니다.

People who complain that Claude Code Max $200 isn't enough are first to let go in my opinion.
Claude Code Max $200가 부족하다고 불평하는 사람들은 제 생각에 가장 먼저 포기하는 사람들입니다.

They have have either shitty codebase or can't narrow down the scope. Or both. Not the kind of folks you want on your team.
그들은 형편없는 코드베이스를 가지고 있거나 범위를 좁히지 못합니다. 아니면 둘 다일 수도 있고요. 이런 사람들은 팀에 두고 싶지 않은 유형입니다.


That's a nonsense take. How fast you burn through usage limits depends on your use patterns, and if there's one thing that's true about LLMs, is that you can practically always improve your results by spending more tokens. Pay-per-use API pricing just makes you hit diminishing returns quickly. With Claude Code subscription, it's different.
그건 터무니없는 의견입니다. 사용 한도를 얼마나 빨리 소진하는지는 사용 패턴에 달려 있으며, LLMs에 대해 확실한 한 가지는 더 많은 토큰을 사용하면 결과를 실질적으로 항상 개선할 수 있다는 점입니다. 종량제 API 요금제는 단지 빠르게 수익 감소 구간에 도달하게 만듭니다. Claude Code 구독은 다릅니다.

The whole value proposition of a Max subscription is that it lets you stop worrying about tokens (Claude Code literally tells you so if you type `/cost` while authenticated with a subscription). So I'd turn around and say, people who don't regularly hit usage limits aren't using Claude Code properly - they're not utilizing it in full.
Max 구독의 전체 가치 제안은 토큰 걱정을 멈출 수 있게 해준다는 점입니다(Claude Code는 구독 인증 상태에서 `/cost`를 입력하면 이를 명확히 알려줍니다). 그래서 저는 이렇게 말하고 싶습니다. 정기적으로 사용 한도에 도달하지 않는 사람들은 Claude Code를 제대로 사용하지 않는 것입니다 - 그들은 그것을 완전히 활용하지 않고 있습니다.

--

Myself, I'm only using Claude Code for little R&D and some side projects, but I upgraded from Max x5 to Max x20 on the second day, as it's trivial to hit the Max x5 limit in a regular, single-instance chat. And that's without any smarts, just a more streamlined flavor of good ol' basic chat experience.
저는 개인적으로 Claude Code를 소규모 연구개발과 몇 가지 부가 프로젝트에만 사용하지만, 일반적인 단일 인스턴스 채팅에서 Max x5 한도에 도달하는 것이 너무 쉬워서 둘째 날에 Max x5에서 Max x20으로 업그레이드했습니다. 그리고 이는 특별한 기술 없이, 단지 기본 채팅 경험을 좀 더 간소화한 버전일 뿐입니다.

But then I look around, and see people experiment with more complex approaches. They run 4+ instances in parallel to work on more things at a time. They run multiple instances in parallel to get multiple solutions to the same task, and then mix them into a final one - possibly with help of yet another instance. They have the agent extensively research a thing before doing it, and then extensively validate it afterwards. And so on. Any single one of such tricks/strategies is going to make hitting limits on Max x20 a regular occurrence again.
하지만 주변을 살펴보면, 더 복잡한 접근 방식을 실험하는 사람들을 볼 수 있습니다. 그들은 한 번에 더 많은 작업을 처리하기 위해 4개 이상의 인스턴스를 병렬로 실행합니다. 동일한 작업에 대해 여러 인스턴스를 병렬로 실행하여 여러 해답을 얻고, 이를 또 다른 인스턴스의 도움을 받아 최종 결과물로 혼합하기도 합니다. 에이전트가 작업을 수행하기 전에 광범위하게 조사하고, 작업 후에도 철저히 검증하게 합니다. 이런 식의 트릭이나 전략 중 어느 하나만 사용해도 Max x20 제한에 자주 걸리게 될 것입니다.


The funny thing is Claude 4.0 isn't even that 'smart' from a raw intelligence perspective compared to the other flagship models.
재미있는 점은 Claude 4.0이 다른 주요 모델들과 비교했을 때 원초적인 지능 면에서는 그리 '똑똑하지' 않다는 것입니다.

They've just done the work to tailor it specifically for proper tool using during coding. Once other models catch up, they will not be able to be so stingy on limits.
그들은 단지 코딩 중 적절한 도구 사용에 맞게 특별히 조정하는 작업을 해왔을 뿐입니다. 다른 모델들이 따라잡으면, 제한을 이렇게 인색하게 둘 수 없게 될 것입니다.

Google has the advantage here given they're running on their own silicon; can optimize for it; and have nearly unlimited cashflows they can burn.
Google은 자체 실리콘에서 실행하고 최적화할 수 있으며, 거의 무한한 현금 흐름을 태울 수 있다는 점에서 이점이 있습니다.

I find it amusing nobody here in the comments can understand the scaling laws of compute. It seems like people have a mental model of Uber burned into their head thinking that at some point the price has to go up. AI is not human labor.
댓글에서 아무도 컴퓨팅의 스케일링 법칙을 이해하지 못하는 게 재미있네요. 사람들은 언젠가는 가격이 올라야 한다는 생각을 우버 모델에 고정시킨 것 같습니다. AI는 인간 노동이 아닙니다.

Over time the price of compute will fall, not rise. Losing money in the short term betting this will happen is not a dumb strategy given it's the most likely scenario.
시간이 지남에 따라 컴퓨팅 비용은 오르지 않고 떨어질 것입니다. 단기적으로 이 일이 일어날 것에 베팅해 손해를 보는 것은 가장 가능성 높은 시나리오이기 때문에 어리석은 전략이 아닙니다.

I know everybody really wants this bubble to pop so they can make themselves feel smart for "calling it" (and feel less jealous of the people who got in early) and I'm sure there will be a pop, but in the long term this is all correct.
모두가 이 거품이 터지길 바라는 이유는 자신이 "예측했다"고 똑똑해 보이고 싶어서(그리고 일찍 진입한 사람들을 덜 부러워하기 위해서)인 걸 알지만, 분명히 거품은 터질 것이고 장기적으로는 이 모든 것이 맞습니다.


Even if Moore's law was still in effect and the computer resources required stayed the same and compute stayed as efficient per watt (neither is true), it would just halve compute costs every 18 months. You're able to read about people hitting $4000 costs/month on the $200 plan upthread. That's 8 years until it's cost effective.
만약 무어의 법칙이 여전히 유효하고 필요한 컴퓨터 자원이 변하지 않으며 와트당 컴퓨팅 효율이 유지된다면(둘 다 사실이 아니지만), 컴퓨팅 비용은 18개월마다 절반으로 줄어들 것입니다. 위에서 $200 요금제에서 월 $4000 비용이 발생하는 사례를 읽을 수 있습니다. 비용 효율적이 되려면 8년이 걸립니다.

Are they really ready to burn money for 8 years?
그들이 정말로 8년 동안 돈을 태울 준비가 되어 있을까?


Uber operated at a loss for 9 years. They're now a profitable, market-winning business.
우버는 9년 동안 적자를 냈다. 지금은 수익을 내는 시장을 선도하는 기업이다.

Amazon operated at a loss for 9 years, and barely turned a profit for over a decade longer than that. They're now one of the greatest businesses of all time.
아마존은 9년 동안 적자를 냈고, 그 이후로도 10년 넘게 간신히 수익을 냈다. 지금은 역대 최고의 기업 중 하나다.

Spotify operated at a loss for 17 years until becoming profitable. Tesla operated at a loss for 17 years before turning a profit. Palantir operated at a loss for 20 years before turning a profit.
스포티파이는 17년 동안 적자를 내다가 수익을 내기 시작했다. 테슬라도 17년 동안 적자를 내다가 수익을 냈다. 팔란티어는 20년 동안 적자를 내다가 수익을 냈다.

And this was before the real age of Big Tech. Google has more cashflows they can burn than any of these companies ever raised, combined.
그리고 이것은 빅테크의 진정한 시대가 오기 전의 일이었습니다. 구글은 이들 모든 회사가 합쳐서 모은 자금보다 더 많은 현금 흐름을 태울 수 있습니다.


Uber is profitable now, on a yearly basis. But they still presumably have a long way to go until they're actually profitable in the sense that they've made a profit over the lifetime of their existence.
우버는 현재 연간 기준으로 수익을 내고 있습니다. 하지만 그들이 실제로 존재 기간 동안 이익을 낸다는 의미에서 완전히 수익성이 있다고 보려면 아직 갈 길이 멀 것으로 보입니다.

Amazon pivoted to a totally different business that was profitable from the get-go.
아마존은 처음부터 수익성이 있는 완전히 다른 사업으로 전환했습니다.

Google became profitable within a couple of years of starting and went into the black on total lifetime spend almost immediately. As was normal, back then.
구글은 시작한 지 몇 년 만에 수익을 내기 시작했고, 총 누적 지출 대비 거의 즉시 흑자로 전환했습니다. 그 당시에는 이것이 일반적이었습니다.


Those aren’t good comparisons.
그것들은 좋은 비교가 아닙니다.

Uber operated at a loss to destroy competition and raised prices after they did that.
우버는 경쟁을 무너뜨리기 위해 손실을 감수했고, 그 후에 가격을 인상했습니다.

Amazon (the retailer) did the same and leveraged their position to enter new more lucrative markets.
아마존(소매업체)도 마찬가지로 행동했으며, 그들의 위치를 활용해 더 수익성 높은 새로운 시장에 진입했습니다.

Dunno about Spotify, but Tesla and palantir both secured lucrative contracts and subsidies.
스포티파이에 대해서는 잘 모르겠지만, 테슬라와 팔란티어는 모두 수익성 높은 계약과 보조금을 확보했습니다.

Anthropic is against companies with deeper pockets and can’t spend to destroy competition, their current business model can only survive if they reduce costs or raise prices. Something’s got to give
Anthropic은 자금력이 더 풍부한 기업들과 경쟁하는 것을 반대하며, 경쟁을 파괴할 만큼 지출할 수 없습니다. 현재 비즈니스 모델은 비용을 줄이거나 가격을 인상해야만 생존할 수 있습니다. 무언가 변화가 필요합니다.


They are good comparisons. All startups go against incumbents/competitors with deeper pockets.
그들은 좋은 비교 대상입니다. 모든 스타트업은 자금력이 더 풍부한 기존 기업이나 경쟁자들과 맞서 싸웁니다.

Re: Anthropic specifically, I tend to agree, hence why I'm saying the deeper pockets (eg. Google, Amazon, etc) are perfectly positioned to win here. However, big companies have a way of consistently missing the future due to internal incentive issues. Google is deathly afraid of cannibalizing their existing businesses.
Anthropic에 관해서는 저도 동의하는 편입니다. 그래서 자금력이 더 풍부한 기업들(예: Google, Amazon 등)이 이길 가능성이 크다고 말하는 것입니다. 하지만 대기업들은 내부 인센티브 문제로 인해 미래를 지속적으로 놓치는 경향이 있습니다. Google은 기존 사업을 잠식하는 것을 극도로 두려워합니다.

Plus, there's many investors with deep pockets who would love to get in on Anthropic's next round if their technical lead proves to be durable over time (like 6 months in AI terms).
게다가, 기술적 우위가 시간이 지나도(AI 기준으로 6개월 정도) 견고하다는 것이 입증된다면, Anthropic의 다음 투자 라운드에 참여하고 싶어하는 자금력이 풍부한 투자자들이 많이 있습니다.

This fight is still early innings.
이 싸움은 아직 초반입니다.


It’s true startups go against deeper pockets, but I stand by my analysis since Uber / Amazon / Tesla (to a degree) were early tech companies going against old companies and not competing with others doing the exact same thing. They operated at a loss to defeat the old guard. Today that model doesn’t work well, and Anthropic are against deeper pockets that are doing nearly the exact same thing as them. If they were the only innovative company with huge outside investment against entrenched and unwilling to innovate older companies like Uber and Amazon then I’d agree there was a bigger chance.
스타트업이 자본력이 더 큰 기업과 맞서 싸우는 것은 사실이지만, Uber, Amazon, Tesla(어느 정도까지는) 같은 초기 기술 기업들은 기존 기업과 경쟁하는 것이 아니라 전혀 다른 방식으로 경쟁했다는 점에서 제 분석을 고수합니다. 그들은 기존 세력을 무너뜨리기 위해 손실을 감수하며 운영했습니다. 오늘날에는 그런 모델이 잘 통하지 않고, Anthropic은 거의 똑같은 일을 하는 자본력이 더 큰 기업들과 경쟁하고 있습니다. 만약 그들이 Uber나 Amazon처럼 혁신을 거부하는 기존 기업에 맞서 막대한 외부 투자를 받은 유일한 혁신 기업이었다면 더 큰 가능성이 있다고 동의했을 것입니다.

And I like Anthropic, I want them to be successful, but they just can’t operate at a loss like this for long, they have to make some tough calls, and trying to cut corners behind the scenes is not good for long term trust
저는 Anthropic을 좋아하고 그들이 성공하기를 바라지만, 이렇게 손실을 감수하며 오래 운영할 수는 없습니다. 그들은 어려운 결정을 내려야 하며, 뒤에서 편법을 쓰려는 시도는 장기적인 신뢰에 좋지 않습니다.


Haven't they already cannibalized search? It really sucks now.
이미 검색 시장을 잠식하지 않았나요? 지금 정말 형편없습니다.

Google search results "sucking" probably is an indication that they are squeezing money out of it well. Just because you don't like the results you are getting doesn't mean the average user isn't still using Google a ton and generating $$$ for Goog
구글 검색 결과가 "형편없다"는 것은 아마도 그들이 그걸로부터 돈을 잘 짜내고 있다는 표시일 겁니다. 당신이 얻는 결과가 마음에 들지 않는다고 해서 평균 사용자가 여전히 구글을 엄청나게 사용하며 구글에 $$$를 벌어다 주지 않는다는 뜻은 아닙니다.

Could this just be survivorship bias? How many companies burned money until they died? This isn't some hot take. I'm kinda interested. Surely more companies failed with this model than survived.
이게 단지 생존자 편향일 수도 있나요? 얼마나 많은 회사들이 죽을 때까지 돈을 태웠을까요? 이건 어떤 급작스러운 의견이 아닙니다. 저는 꽤 흥미롭네요. 분명 이 모델로 실패한 회사가 성공한 회사보다 더 많을 겁니다.

Anecdotally have worked for a company in the past that did just that and eventually went bankrupt. Know of many many more just in my city, for what it’s worth.
개인적으로 과거에 그런 일을 하다가 결국 파산한 회사에서 일한 적이 있습니다. 제 도시만 해도 그런 회사가 훨씬 더 많다는 걸 알고 있습니다, 참고로요.

As long as Anthropic is better than their competitors they’ll continue to get my business.
Anthropic이 경쟁사보다 낫기만 하다면 계속 제 비즈니스를 맡길 겁니다.

Well, those companies were all successful, it's a bit of survivorship bias to only consider those. How many companies operated at a loss for years and eventually went out of business?
음, 그 회사들은 모두 성공했지만, 성공한 사례만 고려하는 것은 생존자 편향일 수 있습니다. 수년간 적자를 내다가 결국 문을 닫은 회사는 얼마나 될까요?

I think people also expect models to be optimised over time. For example, the 5x drop in cost of o3 was probably due to some optimisation on OpenAI's end (although I'm sure they had business reasons for dropping the price as well).
사람들은 모델이 시간이 지남에 따라 최적화될 것이라고도 기대하는 것 같습니다. 예를 들어, o3 비용이 5배나 떨어진 것은 아마도 OpenAI 측의 최적화 덕분일 가능성이 큽니다(물론 가격 인하에는 비즈니스적인 이유도 있었겠지만요).

Small models have also been improving steadily in ability, so it is feasible that a task that needs Claude Opus today could be done by Sonnet in a year's time. This trend of model "efficiency" will add on top of compute getting cheaper.
작은 모델들도 능력이 꾸준히 향상되고 있어서, 오늘날 Claude Opus가 필요한 작업이 1년 후에는 Sonnet으로도 가능해질 수 있습니다. 이러한 모델 "효율성"의 증가는 컴퓨팅 비용 감소와 더불어 이루어질 것입니다.

Although, that efficiency would probably be quickly eaten up by increased appetites for higher performance, bigger, models.
하지만 그 효율성은 아마도 더 높은 성능과 더 큰 모델에 대한 수요 증가로 인해 금방 소모될 가능성이 큽니다.


Every subscription service loses money on its heavy users. What matters is the average. Lots of people go for the higher plan because they need it once, then never downgrade even if their regular usage doesn't justify it. And then there are all the people paying for months where they don't use it at all
모든 구독 서비스는 무거운 사용자를 대상으로 손해를 본다. 중요한 것은 평균이다. 많은 사람들이 한 번 필요해서 더 높은 요금제를 선택한 후, 정기적인 사용량이 그에 미치지 못해도 절대 다운그레이드하지 않는다. 그리고 아예 사용하지 않는 달에도 비용을 지불하는 사람들도 있다.

Among private users willing to pay $200/month average usage is likely very high, but if Anthropic can convince companies to buy plans for entire departments average usage will be much lower on those.
월 200달러를 지불할 의향이 있는 개인 사용자들 사이에서는 평균 사용량이 매우 높을 가능성이 크지만, Anthropic이 기업들이 부서 전체를 위해 요금제를 구매하도록 설득할 수 있다면 그 부서들의 평균 사용량은 훨씬 낮을 것이다.

Another issue is that $4000 costs is assuming the regular API is offered at cost, which is unlikely to be true.
또 다른 문제는 4000달러 비용이 일반 API가 원가로 제공된다는 가정 하에 계산된 것인데, 이는 사실일 가능성이 낮다.


> They've just done the work to tailor it specifically for proper tool using during coding. Once other models catch up, they will not be able to be so stingy on limits.
> 그들은 코딩 중 적절한 도구 사용을 위해 특별히 맞춤 작업을 방금 완료했다. 다른 모델들이 따라잡으면, 그들은 제한을 그렇게 인색하게 설정할 수 없을 것이다.

I don't subscribe to the $100 a month plan, I am paying API usage pricing. Accordingly I have learned how to be much more careful with Claude Code than I think other users are. The first day I used it, Claude got stuck in a loop trying to fix a problem using the same 2 incorrect solutions again and again and burnt through $30 of API credits before I realized things were very wrong and I stopped it.
저는 월 100달러 요금제에 가입하지 않고 API 사용량에 따른 요금을 지불하고 있습니다. 그래서 다른 사용자들보다 Claude Code를 훨씬 더 신중하게 다루는 법을 배웠습니다. 처음 사용한 날, Claude가 같은 두 가지 잘못된 해결책을 반복해서 문제를 해결하려고 무한 루프에 빠졌고, 상황이 매우 잘못됐다는 것을 깨닫고 중단하기 전까지 API 크레딧 30달러를 소진했습니다.

Ever since then I've been getting away with $3-$5 of usage per day, and accomplishing a lot.
그 이후로는 하루에 3~5달러 정도의 사용량으로 많은 일을 해내고 있습니다.

Anthropic needs to find a way to incentivize developers to better use Claude Code, because when it goes off the rails, it really goes off the rails.
Anthropic은 개발자들이 Claude Code를 더 잘 활용하도록 동기를 부여할 방법을 찾아야 합니다. 왜냐하면 문제가 생기면 정말 심각하게 꼬이기 때문입니다.


> The first day I used it, Claude got stuck in a loop trying to fix a problem using the same 2 incorrect solutions again and again and burnt through $30 of API credits before I realized things were very wrong and I stopped it.
> 처음 사용한 날, Claude가 같은 두 가지 잘못된 해결책을 반복해서 문제를 해결하려고 무한 루프에 빠졌고, 상황이 매우 잘못됐다는 것을 깨닫고 중단하기 전까지 API 크레딧 30달러를 소진했습니다.

The worse it performs, the more you pay. That’s a hell of a business model. Will users tolerate that for long?
성능이 나쁠수록 더 많은 비용을 지불하게 됩니다. 정말 기가 막힌 비즈니스 모델이네요. 사용자가 그걸 오래 참을까요?


> The worse it performs, the more you pay. That’s a hell of a business model. Will users tolerate that for long?
> 성능이 나쁠수록 더 많은 비용을 지불하게 됩니다. 정말 기가 막힌 비즈니스 모델이네요. 사용자가 그걸 오래 참을까요?

I mean, AWS seems to be doing fine with that business model.
제 말은, AWS는 그 비즈니스 모델로 잘 운영되고 있는 것 같다는 겁니다.


The thing is, all the models are not that 'smart'. None of them is AGI.
문제는, 모든 모델이 그렇게 '똑똑'하지 않다는 점입니다. 어느 것도 AGI가 아닙니다.

Currently it's much more important to manage context, split tasks, retry when needed, not getting stuck in an infinite loop, expose the right tools (but not too many), ...
현재는 컨텍스트를 관리하고, 작업을 분할하며, 필요할 때 재시도하고, 무한 루프에 빠지지 않도록 하는 것이 훨씬 더 중요하며, 적절한 도구를 제공하는 것(하지만 너무 많지는 않게)도 중요합니다.


Prices for yesterday's frontier models will fall but there will always be the next big model. similar to how game graphics get ever better but ever more demanding at the bleeding edge.
어제의 최첨단 모델 가격은 하락하겠지만 항상 다음 큰 모델이 등장할 것입니다. 이는 게임 그래픽이 점점 더 좋아지면서도 최첨단에서는 점점 더 많은 요구를 하는 것과 비슷합니다.

Yes but games also look an awful lot better (fidelity wise) than not so many years ago.
맞습니다. 하지만 게임은 몇 년 전보다 훨씬 더 나은 그래픽(충실도 측면에서)을 보여줍니다.

The problem with models is that they create lots of junk content.
모델의 문제는 많은 쓸모없는 콘텐츠를 생성한다는 점입니다.

Industries can often get away with polluting when they're small, but once they reach planet scale salting the earth behind you is not as reliable of a tactic.
산업이 작을 때는 오염을 무사히 넘어갈 수 있지만, 지구 규모에 이르면 뒤에 땅을 소금으로 뒤덮는 전략은 그리 신뢰할 만한 전술이 아닙니다.


Claude is decent for sure, but if you are using these models for 'smarts', that is a whole separate problem. I also think honestly people are sleeping on Mistral's medium 3 and devstral medium. I know it isn't 'smart' either (none of them are), but for mundane tasks need valid code output, it is extremely good for the price.
Claude는 확실히 괜찮지만, 만약 이 모델들을 '지능' 용도로 사용한다면 그건 전혀 다른 문제입니다. 솔직히 Mistral의 medium 3와 devstral medium을 사람들이 과소평가하고 있다고 생각합니다. 이들도 '똑똑한' 건 아니지만(어느 것도 그렇지 않지만), 평범한 작업에서 유효한 코드 출력을 필요로 할 때 가격 대비 매우 훌륭합니다.

I use o3 to brainstorm research problems, and it's been pretty useful. Especially the deep research feature.
저는 o3를 연구 문제를 브레인스토밍하는 데 사용하고 있는데, 꽤 유용했습니다. 특히 딥 리서치 기능이 그렇습니다.

As a sounding board for things you are already well familiar with, I agree, and have experienced the same, and that can be useful. It's also a much better experience than say using Google to do the same, or just a rubber ducky.
이미 잘 알고 있는 것들에 대해 의견을 나누는 용도로는 저도 동의하며 같은 경험을 했고, 그것이 유용할 수 있습니다. 또한 구글을 사용하거나 고무 오리에게 말하는 것보다 훨씬 나은 경험입니다.

The NLP these models can do is definitely impressive, but they aren't 'thinking'. I find myself easily falling into the habit of filtering a lot of what the model returns and picking out the good parts which is useful and relatively easy for subjects I know well. But for a topic that I am not as familiar with, that filtering (identifying and dismissing) I do is much less finessed, and a lot of care needs to be taken to not just accept what is being presented. You can still interrogate each idea presented by the LLM to ensure you aren't being led astray, and that is still useful for discovering things, like traditional search, but once you mix agents into this, things can go off the rails far too quickly than I am comfortable with.
이 모델들이 할 수 있는 NLP는 확실히 인상적이지만, 이들이 '생각'하는 것은 아닙니다. 저는 모델이 반환하는 많은 결과를 필터링하고 유용한 좋은 부분만 골라내는 습관에 쉽게 빠지는데, 이는 제가 잘 아는 주제에 대해서는 상대적으로 쉽고 유용합니다. 하지만 익숙하지 않은 주제에 대해서는 그 필터링(식별하고 무시하는 과정)이 훨씬 덜 세련되어 있고, 단순히 제시된 내용을 받아들이지 않도록 많은 주의가 필요합니다. 여전히 LLM이 제시하는 각 아이디어를 면밀히 검토하여 잘못된 방향으로 이끌리지 않도록 할 수 있으며, 이는 전통적인 검색처럼 무언가를 발견하는 데 여전히 유용합니다. 하지만 여기에 에이전트를 섞으면 상황이 제가 편안하게 느끼는 것보다 훨씬 빠르게 엉망이 될 수 있습니다.


Will the other models really catch up, though? To me it seems like Anthropic's lead in programming has increased over the past year. Isn't it possible that over time, some models just become fundamentally better at some things than other models?
다른 모델들이 정말 따라잡을 수 있을까요? 제게는 지난 1년간 Anthropic의 프로그래밍 분야 선두가 더 커진 것처럼 보입니다. 시간이 지나면서 어떤 모델들은 단순히 다른 모델들보다 근본적으로 특정 부분에서 더 나아질 수 있지 않을까요?

> Will the other models really catch up, though? To me it seems like Anthropic's lead in programming has increased over the past year.
> 다른 모델들이 정말 따라잡을 수 있을까요? 제게는 지난 1년간 Anthropic의 프로그래밍 분야 선두가 더 커진 것처럼 보입니다.

To me it seems that they are all converging over time. So what if one is "better"[1]? The others will soon be there too.
저에게는 시간이 지남에 따라 모두 수렴하는 것처럼 보입니다. 그렇다면 하나가 "더 낫다"[1]고 해도 무슨 상관일까요? 다른 것들도 곧 그 수준에 도달할 것입니다.

[1] My experience with them is that Claude (Opus) is only slightly better than the competition at coding; it might do a better job on 2 out of every 5 tasks than the competition, but those people using the competition still get those two tasks done anyway.
[1] 제 경험으로는 Claude(Opus)가 코딩 면에서 경쟁 제품보다 약간 더 낫습니다; 5개의 작업 중 2개에서 경쟁 제품보다 더 잘할 수 있지만, 경쟁 제품을 사용하는 사람들도 어쨌든 그 두 작업을 완료합니다.


I've used Augment before moving to Claude, they are pretty similar, often can't tell the difference. I don't think there is that much difference in the dev focused llms.
저는 Claude로 옮기기 전에 Augment를 사용해봤는데, 둘은 꽤 비슷해서 차이를 잘 구분할 수 없습니다. 개발자 중심의 LLMs에서는 큰 차이가 없다고 생각합니다.

I mean, not based on anything we’ve seen so far in the DL space. The algorithms are public, the compute is fungible: the only differentiator is data. But deepseek demonstrates that it’s somewhat easy to siphon data off other models so… yeah unclear where the moat is.
지금까지 DL 분야에서 본 바로는 그렇지 않습니다. 알고리즘은 공개되어 있고, 컴퓨팅 자원은 대체 가능하며, 유일한 차별점은 데이터입니다. 하지만 deepseek는 다른 모델에서 데이터를 쉽게 빼낼 수 있음을 보여주었으니… 네, 차별화 요소가 어디에 있는지 불분명합니다.

I think you're right, but you're also ignoring the effects of monopolies and/or collusion. There's a absolutely a chance prices don't come down due to broader anti-competitive plays.
당신 말이 맞는 것 같지만, 독점이나 담합의 영향도 무시하고 있는 것 같습니다. 더 넓은 반경쟁적 행위로 인해 가격이 내려가지 않을 가능성도 분명히 있습니다.

The latest trend for the anti AI folks is just to deny it - to say that developers are imagining the benefits and then they demand hard numbers and data and when such hard numbers are not produced - they claim victory.
반(反) AI 진영의 최신 트렌드는 단순히 부정하는 것입니다 - 개발자들이 이점을 상상하고 있다고 말한 뒤, 구체적인 수치와 데이터를 요구하고, 그런 구체적인 수치가 나오지 않으면 자신들이 이긴 것처럼 주장합니다.

I played with Claude Code using the basic $20/month plan for a toy side project.
저는 장난감 사이드 프로젝트로 기본 $20/월 요금제의 Claude Code를 사용해 보았습니다.

I couldn't believe how many requests I could get in. I wasn't using this full-time for an entire workweek, but I thought for sure I'd be running into the $20/month limits quickly. Yet I never did.
얼마나 많은 요청을 할 수 있는지 믿기 어려웠습니다. 저는 이걸 전업으로 일주일 내내 사용한 건 아니었지만, 분명히 $20/월 한도에 금방 도달할 거라고 생각했어요. 그런데 전혀 그렇지 않았습니다.

To be fair, I spent a lot of time cleaning up after the AI and manually coding things it couldn't figure out. It still seemed like an incredible number of tokens were being processed. I don't have concrete numbers, but it felt like I was easily getting $10-20 worth of tokens (compared to raw API prices) out of it every single day.
공정하게 말하자면, 저는 AI가 해결하지 못한 부분을 정리하고 수동으로 코딩하는 데 많은 시간을 썼습니다. 그럼에도 불구하고 처리되는 토큰 수가 엄청난 것 같았습니다. 구체적인 수치는 없지만, 매일 쉽게 $10-20 상당의 토큰(원시 API 가격과 비교했을 때)을 사용하고 있는 느낌이었습니다.

My guess is that they left the limits extremely generous for a while to promote adoption, and now they're tightening them up because it’s starting to overwhelm their capacity.
제 추측으로는, 채택을 촉진하기 위해 한동안 제한을 매우 관대하게 두었고, 이제는 용량이 감당하기 어려워지기 시작해서 제한을 강화하는 것 같습니다.

I can't imagine how much vibe coding you'd have to be doing to hit the limits on the $200/month plan like this article, though.
하지만 이 기사에서처럼 $200/월 요금제의 제한에 도달하려면 얼마나 많은 vibe 코딩을 해야 할지 상상이 안 갑니다.


Worth noting that a lot of these limits are changing very rapidly (weekly if not daily) and also depend on time of day, location, account age, etc.
참고로, 이러한 제한들은 매우 빠르게(주 단위, 심지어 일 단위로) 변경되며, 시간대, 위치, 계정 연령 등에 따라서도 달라집니다.

I hit the limits within an hour with just one request in CC. Not even using opus. It’ll chug away but eventually switch to the nearing limit message. It’s really quite ridiculous and not a good way to upsell to the higher plans without definitive usage numbers.
나는 CC에서 단 한 번의 요청으로 한 시간 이내에 한도에 도달했다. opus도 사용하지 않았다. 계속 작동은 하지만 결국 한도 임박 메시지로 전환된다. 이건 정말 터무니없고 명확한 사용량 수치 없이 상위 요금제로 업셀링하는 좋은 방법이 아니다.

Use `npx ccusage` if you're interested in how much it would have costed if you paid by API usage.
API 사용량에 따라 비용이 얼마나 들었을지 궁금하다면 `npx ccusage`를 사용해 보라.


There's a lot you can do in terms of efficient token usage in the context of Claude Code, I wouldn't be surprised if they soon launch a Claude Code-specific model.
Claude Code 맥락에서 효율적인 토큰 사용 측면에서 할 수 있는 일이 많다. 곧 Claude Code 전용 모델을 출시해도 놀랍지 않을 것이다.

In my experiments, it would be enormously wasteful in token usage, doing things like re-reading all Python scripts in the current folder just to make sure all comments were up-to-date, or it re-read an R script to make sure all brackets were closed correctly. Surely that's where a good chunk of the waste comes from?
내 실험에서는 현재 폴더의 모든 Python 스크립트를 다시 읽어 모든 주석이 최신인지 확인하거나, R 스크립트를 다시 읽어 모든 괄호가 올바르게 닫혔는지 확인하는 등 토큰 사용이 엄청나게 낭비되었다. 분명히 그게 낭비의 큰 부분일 것이다.


It’s also silly to fork out for anything but the monthly plan. The tech is moving so fast that in 4 months something else is going to be on top.
월간 요금제 외에 다른 요금제를 선택하는 것은 어리석은 일입니다. 기술이 너무 빠르게 발전해서 4개월 후면 또 다른 것이 최고가 될 것입니다.

Thinking is extremely inefficient compared with the usual query in Chat.
생각하는 것은 채팅에서 일반적인 쿼리보다 매우 비효율적입니다.

If you think a lot, you can spend hundreds of dollars easily.
많이 생각하면 수백 달러를 쉽게 쓸 수 있습니다.


If you aren't hitting the limits you aren't writing great prompts. I can write a prompt and have it go off and work for about an hour and hit the limit. You can have it launch sub-agents, parallelize work and autonomously operate for long periods of time.
한도에 도달하지 않는다면 훌륭한 프롬프트를 작성하지 못하고 있는 것입니다. 저는 프롬프트를 작성해서 약 한 시간 동안 작동하게 하고 한도에 도달할 수 있습니다. 하위 에이전트를 실행하고 작업을 병렬화하며 장시간 자율적으로 운영할 수 있습니다.

Think beyond just saying "do this one thing".
단순히 "이 한 가지를 해라"라고 말하는 것 이상을 생각하세요.


How is that a great prompt having it run for an hour without your input? Sounds like it’s just generating wasteful output.
입력 없이 한 시간 동안 실행되는 것이 어떻게 훌륭한 프롬프트인가요? 그냥 쓸데없는 출력을 생성하는 것처럼 들리네요.

Who said it was writing code for an hour? Solving complex problems by problem solving, writing SQL, querying data, analyzing data. formulating plans.
누가 한 시간 동안 코드를 작성한다고 했나요? 문제 해결, SQL 작성, 데이터 쿼리, 데이터 분석, 계획 수립 등 복잡한 문제를 해결하는 것입니다.

What do you do for hours?
몇 시간 동안 무엇을 하시나요?

If all you're thinking about is code output, you're thinking too small.
만약 당신이 오직 코드 출력만 생각하고 있다면, 너무 좁게 생각하는 것입니다.


You should really read this.
이 글을 꼭 읽어보세요.

https://www.anthropic.com/news/claude-4

It was given a task and it solved a problem by operating for 7 hours straight.
한 작업을 부여받아 7시간 연속으로 작동하며 문제를 해결했습니다.


With 7 hour tasks it might become worthwhile to invest in a RAM-based local solution with DeepSeek Coder? I've heard that you can run it with 300-700GB. With such long tasks, Claude may run out of usage, right? So queueing it up on a local server may make sense? Always looking for an excuse to do things in-house, but it has to make sense :)
7시간짜리 작업이라면 DeepSeek Coder를 이용한 RAM 기반 로컬 솔루션에 투자할 가치가 있을까요? 300-700GB로 실행할 수 있다고 들었는데요. 이렇게 긴 작업에서는 Claude의 사용량이 부족해질 수도 있겠죠? 그래서 로컬 서버에 작업을 대기시키는 게 의미가 있을까요? 항상 내부에서 처리할 핑계를 찾고 있지만, 그럴 만한 이유가 있어야 하니까요 :)

I have not tested Claude Code but that's impressive because other agents get stuck long before that.
Claude Code는 테스트해보지 않았지만, 다른 에이전트들은 훨씬 전에 멈추기 때문에 인상적입니다.

Takes proper prompt crafting but Claude Code is really impressive.
적절한 프롬프트 작성이 필요하지만 Claude Code는 정말 인상적입니다.

It can be fixing unit tests and stuff for quite a while, but I usually find it cheats the goal when unattended.
한동안 단위 테스트 수정 같은 작업을 할 수 있지만, 보통 방치하면 목표를 우회하는 경향이 있습니다.

That clears up a lot for me. I don't think I've ever had it take for than a couple of minutes. If it takes more than a minute I usually freak out and press stop
그 점이 많이 명확해졌네요. 저는 한 번도 몇 분 이상 걸리는 경우를 본 적이 없어요. 1분 이상 걸리면 보통 당황해서 중지 버튼을 누릅니다.

I've used CC a lot and to great effect, but it never runs more than 10 mins (Opus). Completely independent for 60 min, sounds impressive. Can you share some insights on this? Really curious; I can also share recents prompts of mine.
나는 CC를 많이 사용했고 좋은 효과를 보았지만, 10분 이상 실행된 적은 없다(Opus). 60분 동안 완전히 독립적으로 작동한다니 인상적이다. 이에 대해 어떤 인사이트를 공유해줄 수 있나? 정말 궁금하다; 최근에 내가 사용한 프롬프트도 공유할 수 있다.

"You are an expert software engineer
"당신은 전문 소프트웨어 엔지니어입니다

Your key objective is to fix a bug in the XYAZ class. Use a team of experts as sub-agents to complete the analysis, debugging and triage work for you. Delegate to them, you are the manager and orchestrator of this work.
당신의 주요 목표는 XYAZ 클래스의 버그를 수정하는 것입니다. 전문가 팀을 하위 에이전트로 활용하여 분석, 디버깅 및 분류 작업을 완료하세요. 이 작업을 위임하고, 당신은 이 작업의 관리자이자 조율자입니다.

As you delegate work, review and approve/reject their work as needed. Continue to refine until you are confident you have found a simple and robust fix"
작업을 위임하면서 필요에 따라 그들의 작업을 검토하고 승인하거나 거부하세요. 간단하고 견고한 수정안을 찾았다고 확신할 때까지 계속 다듬으세요."


Wow! I will try that. Really cool. Never tried the mythical sub-agent feature, not sure if it was really a thing due to the sparse docs. The "You are an expert software engineer" really helps? Probably good idea to mention "simple" because Claude sometimes settles for an overengineered solution.
와! 한번 해볼게요. 정말 멋지네요. 전설적인 서브 에이전트 기능은 한 번도 써본 적 없는데, 문서가 부족해서 실제로 존재하는 기능인지 확신이 안 섰어요. "당신은 전문 소프트웨어 엔지니어입니다"라는 문구가 정말 도움이 되나요? Claude가 가끔 과도하게 복잡한 해결책을 내놓을 때가 있어서 "간단한"이라는 말을 덧붙이는 게 아마 좋은 아이디어일 것 같아요.

> The "You are an expert software engineer" really helps?
> "당신은 전문 소프트웨어 엔지니어입니다"라는 문구가 정말 도움이 되나요?

Anecdata, but it weirdly helped me. Seemed BS for me until I tried.
개인적인 경험이지만, 이상하게도 저한테는 도움이 됐어요. 시큰둥했는데 직접 써보니 효과가 있더라고요.

Maybe because good code is contextual? Sample codes to explain concepts may be simpler than a production ready code. The model may have the capability to do both but can't properly disguished the correct thing to do.
아마도 좋은 코드는 상황에 따라 다르기 때문일까요? 개념을 설명하는 샘플 코드는 실제 배포용 코드보다 더 단순할 수 있잖아요. 모델은 둘 다 할 수 있는 능력이 있지만, 올바른 선택을 제대로 구분하지 못하는 것 같아요.

I don't know.  모르겠어요.


Maybe it's not the "expert", but "software engineer" part that works? Essentially it's given a role. This constrains it a bit; e.g. it's not going to question the overall plan. Maybe this helps it take a subordinate position rather than an advisor or teacher. Which may help when there is a clear objective with clear boundaries laid out? Anyway, I will try myself and simply observe it if makes a difference.
아마도 "전문가"가 아니라 "소프트웨어 엔지니어" 역할이 작동하는 것일 수도 있겠네요? 본질적으로 역할이 주어지는 겁니다. 이로 인해 약간 제약이 생기는데, 예를 들어 전체 계획에 의문을 제기하지는 않을 겁니다. 아마도 이것이 조언자나 교사보다는 하위 위치를 취하도록 도와줄 수 있겠죠. 명확한 목표와 경계가 설정된 경우에 도움이 될 수도 있고요? 어쨌든 직접 시도해 보고 차이가 있는지 관찰해 보겠습니다.

Are there some good examples/wiki/knowledge base on how to do this? I'll read 2 competing theories on the same day so I'm kinda confused.
이 작업을 어떻게 하는지에 대한 좋은 예제나 위키, 지식 베이스가 있을까요? 같은 날에 서로 경쟁하는 두 가지 이론을 읽어서 좀 혼란스럽습니다.

They're likely burning money so I can't be pissed off yet, but we see the same Cursor as well; the pricing is not transparent.
아직 화낼 수는 없지만, 그들이 돈을 낭비하는 것 같고 우리도 같은 Cursor를 보고 있다; 가격 정책이 투명하지 않다.

I'm paying for Max, and when I use the tooling to calculate the spend returned by the API, I can see it's almost $1k! I have no idea how much quota I have left until the next block. The pricing returned by the API doesn't make any sense.
저는 Max 요금제를 사용 중인데, API가 반환하는 사용 금액을 계산하는 도구를 사용해 보니 거의 1,000달러에 육박하더군요! 다음 차단 시점까지 남은 할당량이 얼마나 되는지 전혀 알 수 없습니다. API가 반환하는 가격 정보는 전혀 이해가 되지 않습니다.


A coworker of mine claimed they've been burning $1k a week this month. Pretty wild it’s only costing the company $200 a month.
내 동료가 이번 달에 주당 1천 달러를 쓰고 있다고 주장했다. 회사 입장에선 한 달에 200달러밖에 안 든다니 꽤 놀랍다.

Crikey. Now I get the business model:
이런. 이제 비즈니스 모델을 알겠네요:

I hire someone for say £5K/mo. They then spend $200/mo or is it a $1000/wk on Claude or whatevs.
나는 누군가를 월 5천 파운드에 고용한다. 그들이 Claude나 뭐든지에 월 200달러, 아니면 주당 1000달러를 쓰는 거다.

Profit!  이익!


The model is "outspend others until they're bankrupt".
모델은 "다른 사람들을 파산시킬 때까지 지출을 늘리는 것"입니다.

Known as the Uber model or Amazon vs Diapers.com
우버 모델 또는 Amazon 대 Diapers.com으로 알려져 있습니다.


It's a shame that the LLM era missed out on coinciding with the zero interest rates era. Just imagine the waste we could create.
LLM 시대가 제로 금리 시대와 맞물리지 못한 것은 안타까운 일입니다. 우리가 만들어낼 낭비를 상상해 보세요.

> Amazon vs Diapers.com  > 아마존 대 Diapers.com

To be fair that was a little different; Amazon wanted to buy the parent company of Diapers.com so sold at a loss to tank the value of the company so they could buy it cheap.
공정하게 말하면 그건 좀 달랐습니다; Amazon은 Diapers.com의 모회사를 인수하려고 했기 때문에 회사를 싸게 사기 위해 손해를 보면서 가치를 떨어뜨렸습니다.


Wasn't there a stat somewhere that a good o3-pro deep research was ~$3500, per question?
어딘가에 좋은 o3-pro 심층 연구가 질문당 약 $3500라는 통계가 있지 않았나요?

I highly doubt that was ever the case in the UI version. You're probably thinking of when they benchmarked o3-high on ARC-AGI and it cost $3440 per question.
UI 버전에서 그런 일이 있었을 가능성은 거의 없습니다. 아마 ARC-AGI에서 o3-high를 벤치마킹할 때 질문당 $3440가 들었던 경우를 생각하시는 것 같습니다.

We just came out of closed alpha yesterday and have been trying to figure out how best to price, if you'd be willing to provide any feedback I'd certainly appreciate it: https://www.charlielabs.ai/pricing - Thank you!! :)
우리는 어제 막 클로즈드 알파를 종료했고, 최적의 가격 책정 방법을 찾으려고 노력 중입니다. 피드백을 제공해 주신다면 정말 감사하겠습니다: https://www.charlielabs.ai/pricing - 감사합니다!! :)

You are charging $2500 a month!?
한 달에 2500달러를 청구한다고요!?

I’ll assuming this is real and not trolling. Who are the customers? What kind of people spend that much? I know people using $200-300 models but this is 10x that!
이게 진짜라고 가정하고 장난이 아니라고 할게요. 고객이 누구죠? 누가 그렇게 많은 돈을 쓰나요? 저는 200~300달러 모델을 사용하는 사람들은 알지만, 이건 그 10배나 되네요!


We were in closed alpha and thankfully a fair number of teams converted. To your point: right now we don't have any users on the $2500/mth plan, but it aligned with what the people on the $500/mth plan are asking for, we'll see..! :) I was really wondering if our concept of credits is kinda hard to understand?
우리는 비공개 알파 단계에 있었고 다행히 꽤 많은 팀이 전환했습니다. 당신의 지적대로: 현재 $2500/월 요금제 사용자는 없지만, $500/월 요금제 사용자들이 요구하는 것과 일치했어요, 지켜보겠습니다..! :) 우리 크레딧 개념이 좀 이해하기 어려운 건가 궁금했어요.

Can you clarify which tooling you are using? Is it cursor-stats?
어떤 도구를 사용하고 있는지 명확히 말씀해 주실 수 있나요? cursor-stats인가요?

Look up ccusage. Great tool. Run “ccusage blocks” and you’ll see where you are in the current block.
ccusage를 찾아봐. 훌륭한 도구야. “ccusage blocks”를 실행하면 현재 블록에서 네 위치를 알 수 있어.

> They're likely burning money so I can't be pissed off yet
> 그들은 아마도 돈을 태우고 있을 테니 아직 화낼 수 없어

What do you mean? That’s totally a good reason to be pissed off at them. I’m so tired of products that launch before they have a clear path to profitability.
무슨 뜻이야? 그건 그들에게 화낼 충분한 이유야. 수익성 있는 명확한 경로도 없이 출시되는 제품들에 너무 지쳤어.


I'm okay with free VC money; it's their problem to make it profitable.
나는 무료 VC 자금에 대해 괜찮아; 수익을 내는 것은 그들의 문제야.

That’s funny I literally started the $200/month plan this week because I routinely spend $300+/month on API tokens.
웃기네요, 저는 매달 API 토큰에 300달러 이상을 정기적으로 쓰기 때문에 이번 주에 $200/월 요금제를 시작했거든요.

And I was thinking to myself, “How does this make any sense financially for Anthropic to let me have all of this for $200/month?”
그리고 저는 속으로 “Anthropic이 어떻게 이 모든 것을 $200/월에 제공하는 게 재정적으로 말이 되지?”라고 생각하고 있었어요.

And then I kept getting hit with those overloaded api errors so I canceled my plan and went back to API tokens.
그런데 계속 과부하된 API 오류가 발생해서 요금제를 취소하고 다시 API 토큰으로 돌아갔어요.

I still have no idea what they’re doing over there but I’ll happily pay for access. Just stop dangling that damn $200/month in my face if you’re not going to honor it with reasonable access.
저쪽에서 뭘 하는지 아직도 전혀 모르겠지만, 접근 권한에 대해 기꺼이 비용을 지불할 의향은 있습니다. 합리적인 접근 권한 없이 $200/월 요금제를 내 앞에서 흔들지 말아 주세요.


Why wouldn't you assume that it implies the API rates are massively inflated? I don't do anything really but started playing around last week. I put $5 in tokens in to see how long it would last while I play around. It came out at 30min of compute or whatever dir 3hrs of playing around. So my dumb back of the envelope says $10/hr of compute means $90k per year. Sure GPUs are expensive but are they $90k year expensive? Dunno. It's not like the incremental cost of adding GPUs to the inference side are unmoored from hardware incremental costs.
왜 API 요금이 엄청나게 부풀려졌다고 가정하지 않는 거죠? 저는 사실 별로 한 게 없는데 지난주에 조금 만져보기 시작했어요. 놀면서 얼마나 오래 버틸지 보기 위해 토큰에 5달러를 넣었죠. 계산해보니 30분 정도의 컴퓨팅 시간, 즉 3시간 정도 놀아본 셈이었어요. 그래서 대충 계산해보니 컴퓨팅 시간당 10달러면 연간 9만 달러라는 결론이 나옵니다. 물론 GPU가 비싼 건 알지만, 정말 연간 9만 달러나 할까요? 잘 모르겠네요. 추론 쪽에 GPU를 추가하는 데 드는 추가 비용이 하드웨어의 추가 비용과 완전히 동떨어져 있는 것도 아니니까요.

How did you come up with 30 min of compute from playing around with it for 3 hours? Did you spend 2.5 hours typing while playing around?
3시간 동안 가지고 놀면서 어떻게 30분의 컴퓨팅 시간을 산출했나요? 가지고 노는 동안 2.5시간을 타이핑하는 데 썼나요?

It's what claude code's cli /cost command reported. Like I said I haven't really used this stuff much so a lot of it was reviewing what it was doing and thinking about how to prompt it to do what I wanted it to do. I'm generally pretty skeptical about this stuff but I'm an old fart and decided I should see what the kids are doing rather than yell at clouds and tell people to get off my yard. So far I am able to get it to mostly work acceptably for annoying maintenance tasks (adding docstrings, explain code, rough drafts of tests). Things that I just generally don't have time for. Having it explain my own code from a few years ago to jog my memory about how it works. That sort of thing.
그건 claude code의 cli /cost 명령어가 보고한 내용입니다. 말씀드렸듯이 저는 이걸 많이 사용해본 적이 없어서, 대부분은 이게 뭘 하는지 검토하고 원하는 작업을 수행하도록 어떻게 프롬프트를 작성할지 고민하는 시간이었습니다. 저는 일반적으로 이런 것들에 대해 꽤 회의적인 편인데, 나이가 좀 있어서 아이들이 뭘 하는지 직접 보고 싶었지, 그냥 구름을 향해 소리 지르거나 내 마당에서 나가라고 말하고 싶진 않았습니다. 지금까지는 주로 귀찮은 유지보수 작업(문서 문자열 추가, 코드 설명, 테스트 초안 작성)에 대해 대체로 괜찮게 작동하도록 만들 수 있었습니다. 보통 시간이 없어서 못 하는 일들이죠. 몇 년 전 제 코드를 설명하게 해서 어떻게 작동하는지 기억을 되살리는 그런 용도입니다.

Interestingly, it came up with some definitions of abbreviations and slightly different ways to do things using confidential APIs that have been sort of reverse engineered in public but are not fully understood. Which to me was the most interesting. The things it suggested related to that are very plausible and I was trying to decide if it was clever hallucinations or because it's being used/trained on code bases at that company or by others who have better access. So I spent a lot of time googling to see if it had found some publicly available info to confirm.
흥미롭게도, 약어의 몇 가지 정의와 공개적으로 어느 정도 역공학된 비밀 API를 사용하여 약간 다른 방식으로 작업하는 방법을 제시했습니다. 하지만 이 API들은 완전히 이해되지는 않은 상태입니다. 저에게 가장 흥미로웠던 점은 바로 그 부분이었습니다. 그와 관련해 제안한 내용들은 매우 그럴듯했으며, 그것이 영리한 환각인지 아니면 그 회사나 더 나은 접근 권한을 가진 다른 사람들이 사용하는/학습시키는 코드베이스 때문인지 판단하려고 했습니다. 그래서 공개적으로 이용 가능한 정보를 찾았는지 확인하기 위해 구글링에 많은 시간을 썼습니다.

Anyway after I hit $5 I subscribed to pro to continue the playing but /cost won't tell you anything useful after switching to pro.
어쨌든 $5를 사용한 후에 계속 사용하려고 프로 구독을 했는데, 프로로 전환한 후에는 /cost가 아무 쓸모 있는 정보를 알려주지 않습니다.

I also wanted to try Gemini clinto compare but I couldn't figure out how to actually give Google my money. Why is Google so impossible to use.
저는 Gemini 클린토도 비교해보고 싶었는데, 구글에 실제로 돈을 어떻게 내야 하는지 도저히 알 수가 없었습니다. 왜 구글은 이렇게 사용하기 어려운 걸까요.


This was with Opus? What sort of tasks were you doing? I found that very large files (2.5MB source file) can really eat up tokens. Other than that, I've never run out with my 100 EUR plan, exclusively using Opus.
이게 Opus였나요? 어떤 종류의 작업을 하셨나요? 저는 아주 큰 파일(2.5MB 소스 파일)이 토큰을 정말 많이 소모한다는 것을 알게 되었습니다. 그 외에는, 저는 100유로 플랜으로 Opus만 사용하면서 토큰이 부족해진 적이 없습니다.

I need to see a video of what people are doing to hit the max limits regularly.
사람들이 정기적으로 최대 한도에 도달하는 모습을 담은 영상을 보고 싶습니다.

I find sonnet really useful for coding but I never even hit basic limits. at $20/mo. Writing specs, coming up with documentation, doing wrote tasks for which many examples exist in the database. Iterate on particular services etc.
저는 sonnet이 코딩에 정말 유용하다고 생각하지만 기본 한도조차도 한 번도 넘은 적이 없습니다. 월 $20에 사양 작성, 문서 작성, 데이터베이스에 이미 많은 예제가 있는 반복 작업 수행, 특정 서비스에 대한 반복 작업 등을 합니다.

Are these max users having it write the whole codebase w/ rewrites? Isn't it often just faster to fix small things I find incorrect than type up why I think it's wrong in English and have it do a whole big round trip?
이 최대 사용자들이 전체 코드베이스를 다시 작성하면서 작업하는 건가요? 제가 잘못됐다고 생각하는 부분을 영어로 설명하고 전체 큰 작업을 시키는 것보다, 작은 문제를 직접 고치는 게 더 빠른 경우가 많지 않나요?


I can tell you how I hit it: Opus and long workflows.
내가 어떻게 한계를 넘었는지 말해줄게: Opus와 긴 워크플로우 덕분이야.

I have two big workflows: plan and implement. Plan follows a detailed workflow to research an idea and produce a planning document for how to implement it. This routinely takes $10-30 in API credits to run in the background. I will then review this 200-600 line document and fix up any mistakes or remove unnecessary details.
나는 두 가지 큰 워크플로우가 있어: 계획과 구현. 계획은 아이디어를 조사하고 구현 방법에 대한 계획 문서를 만드는 상세한 워크플로우를 따르지. 이 과정은 보통 백그라운드에서 $10~30의 API 크레딧이 소모돼. 그런 다음 200~600줄짜리 문서를 검토하며 실수를 수정하거나 불필요한 세부사항을 제거하지.

Then implement is usually cheaper, and it will take that big planning document, make all the changes, and then make a PR in GitHub for me to review. This usually costs $5-15 in API credits.
그런 다음 구현은 보통 더 저렴하며, 그 큰 기획 문서를 가져와서 모든 변경 사항을 적용한 후, 제가 검토할 수 있도록 GitHub에 PR을 만듭니다. 보통 이 과정은 API 크레딧으로 $5-15 정도 듭니다.

All it takes is for me to do 3-4 of these in one 5-hour block and I will hit the rate-limit of the $100 Max plan. Setting this up made me realise just how much scaffolding you can give to Opus and it handles it like a champ. It is an unbelievably reliable model at following detailed instructions.
한 5시간 동안 3~4번만 이런 작업을 하면 $100 Max 플랜의 속도 제한에 걸려. 이걸 설정하면서 Opus에 얼마나 많은 스캐폴딩을 제공할 수 있는지 깨달았고, Opus는 이를 훌륭하게 처리해. 매우 상세한 지시도 믿을 수 없을 만큼 잘 따르는 모델이야.

It is rare that I would hit the rate-limits if I am just using Claude Code interactively, unless I am using it constantly for hours at a time, which is rare. Seems like vibe coders are the main people who would hit them regularly.
Claude Code를 단순히 대화형으로 사용할 때는 몇 시간씩 계속 사용하지 않는 이상 속도 제한에 걸리는 경우가 드물어. 주로 vibe 코더들이 정기적으로 제한에 걸리는 것 같아.


This is very interesting as a workflow. How “big” are the asks you’re giving Claude? Can you give an example of the type of question you’d ask it to implement where it requires a discrete planning document that long?
이 워크플로우는 매우 흥미롭네요. Claude에게 주는 요청의 “규모”는 어느 정도인가요? 그렇게 긴 별도의 계획 문서가 필요한 구현 요청의 예를 들어주실 수 있나요?

Whenever I use it, I typically do much smaller asks, eg “add a button here”, “make that button trigger a refresh with a filter of such state…”
제가 사용할 때는 보통 훨씬 작은 요청을 합니다. 예를 들어 “여기에 버튼 추가해줘”, “그 버튼이 특정 상태의 필터로 새로고침을 트리거하게 만들어줘” 같은 요청들입니다.


The best results I get are for things like writing a new database migration and plumbing the data through to an API endpoint. That touches a lot of the codebase, but is not particularly complicated, so this process works quite well for that. Especially because it is easy for me to review.
제가 가장 좋은 결과를 얻는 경우는 새로운 데이터베이스 마이그레이션을 작성하고 데이터를 API 엔드포인트까지 연결하는 작업입니다. 이 작업은 코드베이스의 많은 부분을 건드리지만 특별히 복잡하지 않아서 이 프로세스가 꽤 잘 작동합니다. 특히 제가 검토하기 쉽기 때문입니다.

I have also used this for creating new UI components or admin pages. One thing I have noticed is that the planning step is pretty good at searching through existing UI components to follow their patterns to maintain consistency. If I just asked Claude to make the change straight away, it often won't follow the patterns of our codebase.
저는 이 방법을 새 UI 컴포넌트나 관리자 페이지를 만들 때도 사용했습니다. 한 가지 눈에 띄는 점은 계획 단계가 기존 UI 컴포넌트를 검색하여 그 패턴을 따르도록 하는 데 꽤 효과적이라는 것입니다. 만약 바로 Claude에게 변경을 요청하면, 종종 우리 코드베이스의 패턴을 따르지 않습니다.

But for UI components, adding new pages, or things like that, it is usually more useful just as a starting point and I will often need to go in and tweak things from there. But often it is a pretty good starting point. And if it's not, I can just discard the changes anyway.
하지만 UI 컴포넌트나 새 페이지 추가 같은 경우에는 보통 시작점으로서 더 유용하며, 그 후에 직접 수정할 필요가 자주 있습니다. 하지만 대체로 꽤 좋은 출발점이 됩니다. 만약 그렇지 않더라도 변경 사항을 그냥 버릴 수 있습니다.

I find this is not worth it for very small tasks though, like adding a simple button or making a small behaviour change to a UI component. It will usually overcomplicate these small tasks and add in big testing rigs or performance optimisations, or other irrelevant concerns. It is like it doesn't want to produce a very short plan. So, for things like this I will use Claude interactively, or just make the change manually. Honestly, even if it did do a good job at these small tasks, it would still seem like overkill.
하지만 간단한 버튼 추가나 UI 컴포넌트의 작은 동작 변경 같은 아주 작은 작업에는 이 방법이 가치가 없다고 느낍니다. 보통 이런 작은 작업을 과도하게 복잡하게 만들고, 큰 테스트 환경이나 성능 최적화, 혹은 다른 관련 없는 문제들을 추가하는 경향이 있습니다. 매우 짧은 계획을 만들고 싶어하지 않는 것 같습니다. 그래서 이런 경우에는 Claude를 대화형으로 사용하거나 그냥 수동으로 변경합니다. 솔직히, 설령 이런 작은 작업을 잘 처리한다고 해도 여전히 과잉 대응처럼 보일 것입니다.


Here's an example of me doing a migration from Deno -> Bun, prompting with something like "migrate this, make a plan in BUN.md" and then "do step 1 and write your progress, do step 2, etc."
Deno에서 Bun으로 마이그레이션하는 예시로, "이걸 마이그레이션하고 BUN.md에 계획을 세워"라고 프롬프트를 주고, 그다음에 "1단계를 수행하고 진행 상황을 기록해, 2단계도 해" 같은 식으로 진행하는 경우입니다.

https://github.com/shepherdjerred/scout-for-lol/blob/6c6a3ca...


Yup. I'm on a side project trying to port the 1980's computer algebra system Macaulay I coauthored from 32-bit K&R C to 64-bit C23.
네. 저는 1980년대 컴퓨터 대수 시스템인 Macaulay를 32비트 K&R C에서 64비트 C23으로 포팅하는 사이드 프로젝트를 진행 중입니다.

K&R C is underspecified. And anyone who whines about AI code quality? Hold my beer, look at our 1980's source.
K&R C는 명세가 부족합니다. 그리고 AI 코드 품질에 대해 불평하는 사람이 있다면? 제 맥주를 잡고 우리 1980년대 소스를 한번 보세요.

I routinely have a task manager feed eight parallel Claude Code Opus 4 sessions their next source file to study for a specific purpose, to get through all 57 faster. That will hit my $200 Max limit, reliably.
저는 정기적으로 작업 관리자에게 8개의 병렬 Claude Code Opus 4 세션에 특정 목적을 위해 다음에 공부할 소스 파일을 제공합니다. 57개를 모두 빠르게 처리하기 위해서입니다. 이 작업은 제 $200 최대 한도에 안정적으로 도달할 것입니다.

Of course I should just wait a year, and AI will read the code base all at once. People _talk_ like it does now. It doesn't. Filtering information is THE critical issue for managing AI in 2025.
물론 1년만 기다리면 AI가 코드 베이스를 한 번에 읽을 것입니다. 사람들은 지금도 그렇게 _말_ 합니다. 하지만 그렇지 않습니다. 정보를 필터링하는 것이 2025년 AI 관리를 위한 가장 중요한 문제입니다.

The most useful tool I've written to support this effort is a tmux interface, so AI and I can debug together two terminal sessions at once: The old 32-bit code running on a Linode instance, and the new 64-bit code running locally on macOS. I wasn't happy with how the tools for this worked, that I could find online. It blows my mind to watch Opus 4 debug.
이 노력을 지원하기 위해 제가 작성한 가장 유용한 도구는 tmux 인터페이스입니다. 그래서 AI와 제가 동시에 두 개의 터미널 세션을 함께 디버깅할 수 있습니다: Linode 인스턴스에서 실행 중인 오래된 32비트 코드와 macOS에서 로컬로 실행 중인 새로운 64비트 코드입니다. 온라인에서 찾을 수 있는 도구들이 마음에 들지 않았습니다. Opus 4를 디버깅하는 모습을 보는 것은 정말 놀랍습니다.


Is any of this public? It sounds very interesting.
이 내용 중 공개된 것이 있나요? 매우 흥미롭게 들리네요.

Mind sharing your detailed planning workflow and/or how you came up with it? Is it basically a detailed prompt asking it to produce a PRD?
자세한 계획 워크플로우나 그것을 어떻게 생각해냈는지 공유해 주실 수 있나요? 기본적으로 PRD를 생성하도록 요청하는 상세 프롬프트인가요?

I often find my plans for the code changing as I get into implementation. I wonder if giving the model explicit permission to change the plan would work or cause it to go off the rails for big chunks of work like this.
코드를 구현하면서 계획이 자주 바뀌는 것을 경험합니다. 모델에게 명시적으로 계획 변경 권한을 주는 것이 효과가 있을지, 아니면 이렇게 큰 작업에서는 계획이 완전히 엇나가게 만들지 궁금하네요.


Here is the planning prompt, which I would usually place in .claude/commands/plan.md: https://gist.github.com/Sothatsit/c9fcbcb50445ebb6f367b0a6ca...
보통 .claude/commands/plan.md에 두는 계획 프롬프트는 여기 있습니다: https://gist.github.com/Sothatsit/c9fcbcb50445ebb6f367b0a6ca...

The implement prompt doesn't seem to matter as much: https://gist.github.com/Sothatsit/bdf2cf4ed7c319e2932a5d2d8d...
구현 프롬프트는 그렇게 중요하지 않은 것 같습니다: https://gist.github.com/Sothatsit/bdf2cf4ed7c319e2932a5d2d8d...

Creating these was basically just a workflow of writing out a workflow myself, getting Opus to refine it, then back to me, then back to Opus until it was something I was happy with. There is probably a lot more refining you could do with it, but it works pretty well as it is right now.
이것들을 만드는 과정은 기본적으로 제가 직접 워크플로우를 작성하고, Opus가 이를 다듬고, 다시 저에게 돌아오고, 다시 Opus로 돌아가는 과정을 반복하며 만족할 만한 결과가 나올 때까지 진행하는 워크플로우였습니다. 아마 더 많은 다듬기가 가능하겠지만, 현재 상태로도 꽤 잘 작동합니다.

I then have wrapper scripts that invoke these using claude -p in a container, but those are pretty specific to my codebase.
그런 다음 claude -p를 사용해 컨테이너 내에서 이를 호출하는 래퍼 스크립트가 있는데, 이들은 제 코드베이스에 꽤 특화되어 있습니다.


> Isn't it often just faster to fix small things I find incorrect than type up why I think it's wrong in English and have it do a whole big round trip?
> 틀린 부분을 영어로 왜 잘못됐는지 설명하고 AI가 전체 과정을 다시 하는 것보다, 작은 부분을 바로 고치는 게 더 빠른 경우가 많지 않나요?

This is my experience: at some point the AI isn't converging to a final solution and it's time to finish the rest by hand.
제 경험상: 어느 시점부터 AI가 최종 해결책에 수렴하지 않고, 나머지는 직접 마무리할 때가 됩니다.


My experience is that if the AI doesn't oneshot it, it's faster to do it myself
제 경험상 AI가 한 번에 해결하지 못하면 직접 하는 게 더 빠릅니다.

If you find yourself going back and forth with the AI, you're probably not saving time over a traditional google search
AI와 계속 왔다 갔다 한다면, 전통적인 구글 검색보다 시간을 절약하지 못하는 경우일 가능성이 큽니다.

Edit: and it basically never oneshots anything correctly
수정: 그리고 기본적으로 어떤 것도 한 번에 제대로 처리하지 못한다


Yesterday I tried CC the first time. I have the $20 package. I asked it to improve the code in a small kotlin based chess engine. Five minutes later I reached my limit and the engine performed poorer than before. It just created two new classes, changed some code in others and created a couple of tests which it ran. So I hit the limit pretty quickly.
어제 처음으로 CC를 사용해봤어요. $20 패키지를 가지고 있습니다. 작은 Kotlin 기반 체스 엔진의 코드를 개선해 달라고 요청했죠. 5분 후에 한도에 도달했고 엔진 성능은 오히려 나빠졌어요. 단지 두 개의 새 클래스를 만들고, 다른 코드 몇 군데를 바꾸고, 몇 개의 테스트를 만들어 실행했을 뿐입니다. 그래서 금방 한도에 걸렸어요.

Are you using claude code for coding with sonnet? Just claude web use alone is indeed fairly relaxed i think.
sonnet과 함께 코딩할 때 claude code를 사용하고 계신가요? 그냥 claude 웹만 사용하는 건 꽤 여유로운 편인 것 같아요.

I couldn’t even get it to do simple tasks for me this week on the max plan. It’s not just max users overloading it. It feels like they’re randomly rate limiting users.
이번 주에 맥스 플랜으로도 간단한 작업조차 시키지 못했어요. 단순히 맥스 사용자들이 과부하를 일으키는 게 아니에요. 사용자들을 무작위로 속도 제한하는 것 같은 느낌입니다.

One day my very first prompt in the morning was blocked. Super strange.
어느 날 아침에 처음으로 보낸 프롬프트가 차단되었어요. 정말 이상하네요.


Faster overall, sure. But I am interrupt driven and typing the prompt alone is faster yet, so I do that and come back after a bit (bouncing between many open tasks), so the fact that the agent took 3x longer overall doesn’t matter, because it happens in the background. my time was just spent typing out the prompt, which was only seconds.
전체적으로는 더 빠르긴 하지만, 저는 인터럽트 기반으로 작업하고 프롬프트를 입력하는 것이 더 빠르기 때문에 그렇게 하고 잠시 후에 돌아옵니다(여러 열린 작업 사이를 오가면서). 그래서 에이전트가 전체적으로 3배 더 오래 걸렸다는 사실은 중요하지 않습니다. 왜냐하면 그 작업이 백그라운드에서 이루어지기 때문입니다. 제 시간은 단지 프롬프트를 입력하는 데 쓰였고, 그 시간은 몇 초에 불과했습니다.

I'm not sure this is "intentional" per se or just massively overloaded servers because of unexpected demand growth and they are cutting rate limits until they can scale up more. This may become permanent/worse if the demand keeps outstripping their ability to scale.
이것이 "의도적"이라고 확신할 수는 없고, 예상치 못한 수요 증가로 인해 서버가 과부하 상태에 빠져서 확장할 수 있을 때까지 속도 제한을 줄이고 있는 것일 수도 있습니다. 수요가 계속해서 확장 능력을 초과한다면 이 상황은 영구적이거나 더 악화될 수 있습니다.

I'd be extremely surprised if Anthropic picked now of all times to decide on COGS optimisation. They potentially can take a significant slice of the entire DevTools market with the growth they are seeing, seems short sighted to me to nerf that when they have oodles of cash in bank and no doubt people hammering at their door to throw more cash at them.
Anthropic이 지금 같은 시기에 COGS 최적화를 결정했다면 매우 놀랄 것입니다. 그들이 보고 있는 성장세로 보면 전체 DevTools 시장에서 상당한 점유율을 차지할 수 있는데, 은행에 많은 현금이 있고 분명히 더 많은 자금을 투자하려는 사람들이 문을 두드리고 있는 상황에서 이를 약화시키는 것은 단견으로 보입니다.


A lot of people switched away from Cursor within the blink of an eye. Switching IDEs is a big deal for me - it takes a lot of effort, which is why I never switched to Cursor in the first place.
많은 사람들이 순식간에 Cursor에서 떠났습니다. IDE를 바꾸는 것은 저에게 큰 일입니다 - 많은 노력이 필요하기 때문에 처음부터 Cursor로 전환하지 않았습니다.

I think Claude Code is a much better concept, the coding agent doesn't need to be connected to the IDE at all. Which also means you can switch even faster to a competitor. In that sense, Claude Code may have been a huge footgun. Gaining market share might turn out to be completely worthless.
저는 Claude Code가 훨씬 더 나은 개념이라고 생각합니다. 코딩 에이전트는 IDE에 전혀 연결될 필요가 없습니다. 이는 경쟁사로 훨씬 더 빠르게 전환할 수 있다는 의미이기도 합니다. 그런 점에서 Claude Code는 큰 자충수가 되었을 수도 있습니다. 시장 점유율을 얻는 것이 전혀 가치가 없게 될 수도 있습니다.


I think in the case of Cursor, they are one of may VScode forks, so a switch is not really very challenging. I agree there is little to keep me on any individual app or model (which is one reason I think cursor's reported 9b valuation is a little crazy!)
Cursor의 경우, 그들이 여러 VScode 포크 중 하나이기 때문에 전환이 크게 어렵지 않다고 생각합니다. 특정 앱이나 모델에 머물 이유가 거의 없다는 데 동의합니다(이것이 제가 Cursor의 90억 달러 평가액이 다소 터무니없다고 생각하는 이유 중 하나입니다!).

Only if you're using VS code in the first place. VS code is fine for web dev and js/ts/python. But I really don't like it for Java, C#, C++, SQL, and many more.
처음부터 VS 코드를 사용하는 경우에만 그렇습니다. VS 코드는 웹 개발과 js/ts/python에는 괜찮습니다. 하지만 Java, C#, C++, SQL 등에는 정말 마음에 들지 않습니다.

Agreed. I do agree with your point that they are very replaceable, but the amount of people I know that still only have tried ChatGPT makes me think that most users are quite lazy once they have a tool. I suspect the (vast?) majority don't bother moving without good reason.
동의합니다. 그들이 매우 대체 가능하다는 점에는 동의하지만, 제가 아는 많은 사람들이 여전히 ChatGPT만 사용해봤다는 점을 보면 대부분의 사용자는 도구가 생기면 꽤 게으른 것 같아요. (대다수?) 사용자가 특별한 이유가 없으면 움직이려 하지 않는 것 같습니다.

So to me it seems to make sense to take as much marketshare in this as possible, rather than saving a few $10/100ms on COGS optimisation, then do the COGS optimisation later.
그래서 제 생각에는 COGS 최적화로 몇 달러/100ms를 절약하는 것보다 가능한 한 많은 시장 점유율을 차지하는 것이 더 합리적으로 보입니다. 그리고 나중에 COGS 최적화를 하는 것이죠.

FWIW all LLM stuff is quite easily replaceable, but that's not stopping anyone from trying to aggressively grow marketshare.
참고로 모든 LLM 관련 기술은 쉽게 대체 가능하지만, 그렇다고 해서 누군가가 시장 점유율을 공격적으로 키우려는 시도를 멈추지는 않습니다.


Fair point, I always forget how much of an early adopter I and the developers I am surrounded by are. There are plenty of developers who use whatever the CTO approved at their shop, which yesterday was probably github's copilot but tomorrow could be Cursor + Cursor Agents if they continue to out execute.
맞는 말입니다. 저와 제가 함께 일하는 개발자들이 얼마나 초기 수용자인지 항상 잊어버리곤 해요. 많은 개발자들은 CTO가 승인한 도구만 사용하는데, 어제는 아마도 github의 copilot이었겠지만 내일은 Cursor + Cursor Agents가 계속 잘 실행된다면 그걸 사용할 수도 있겠죠.

The other day I was doing major refactorings on two projects simultaneously while doing design work for two other projects. It occurred to me to check my API usage for Gemini and I had spent $200 that day already.
며칠 전 나는 두 개의 프로젝트에서 대대적인 리팩토링을 하면서 동시에 두 개의 다른 프로젝트 디자인 작업을 하고 있었다. 그때 문득 Gemini API 사용량을 확인해보니 그날 이미 200달러를 썼다는 것을 알게 되었다.

Users are no doubt working these things even harder than I am. There's no way they can be profitable at $200 a month with unlimited usage.
사용자들은 분명 저보다 훨씬 더 열심히 이걸 사용하고 있을 겁니다. 무제한 사용에 월 200달러로는 수익을 낼 수가 없어요.

I think we're going to evolve into a system that intelligently allocates tasks based on cost. I think that's part of what openrouter is trying to do, but it's going to require a lot of context information to do the routing correctly.
우리는 비용에 따라 작업을 지능적으로 할당하는 시스템으로 진화할 것이라고 생각한다. 이것이 openrouter가 시도하는 부분 중 하나라고 생각하지만, 올바른 라우팅을 위해서는 많은 컨텍스트 정보가 필요할 것이다.


> One user, who asked not to be identified, said it has been impossible to advance his project since the usage limits came into effect. “It just stopped the ability to make progress,” the user told TechCrunch. “I tried Gemini and Kimi, but there’s really nothing else that’s competitive with the capability set of Claude Code right now.”
한 사용자는 신원을 밝히지 말아 달라고 요청하며, 사용 한도가 적용된 이후로 프로젝트를 진행할 수 없게 되었다고 말했다. “진행할 수 있는 능력이 완전히 멈췄다,”고 그 사용자는 TechCrunch에 말했다. “Gemini와 Kimi를 시도해봤지만, 현재 Claude Code의 기능 세트와 경쟁할 만한 것은 정말 없다.”

PMF.


Product Market Fit? Yes, seems they have.
제품-시장 적합성? 네, 있는 것 같습니다.

Yes. That kind of reaction I quoted is telling.
네. 제가 인용한 그런 반응이 의미심장합니다.

This is what really makes me sceptical of these tools. I've tried Claude Code and it does save some time even if I find the process boring and unappealing. But as much as I hate typing, my keyboard is mine and isn't just going to disappear one day, have its price hiked or refuse to work after 1000 lines. I would hate to get used to these tools then find I don't have them any more. I'm all for cutting down on typing but I'll wait until I can run things entirely locally.
이것이 바로 제가 이런 도구들에 대해 회의적인 이유입니다. 저는 Claude Code를 사용해봤고, 과정이 지루하고 매력적이지 않더라도 시간을 절약해줍니다. 하지만 타이핑을 싫어하는 만큼, 제 키보드는 제 것이고 어느 날 갑자기 사라지거나 가격이 오르거나 1000줄 이후에 작동을 거부하지는 않습니다. 이런 도구들에 익숙해졌다가 더 이상 사용할 수 없게 된다면 정말 싫을 것 같습니다. 타이핑을 줄이는 데는 찬성하지만, 모든 것을 완전히 로컬에서 실행할 수 있을 때까지 기다리겠습니다.

Now say it about electricity from the wall. Just because you might not be able to use it next week doesn’t mean the productivity gains today aren’t real.
이제 벽면 콘센트에서 나오는 전기에 대해 말해보세요. 다음 주에 사용할 수 없을지도 모른다고 해서 오늘의 생산성 향상이 실제가 아닌 것은 아닙니다.

I maintain the ability to walk even though I could use an electric mobility scooter everywhere.
전기 이동 스쿠터를 어디서나 사용할 수 있지만, 나는 여전히 걸을 수 있는 능력을 유지하고 있습니다.

I guess the argument has time goes on AI will get cheaper and more efficient.
시간이 지나면 AI가 더 저렴하고 효율적이 될 것이라는 주장이 있는 것 같아요.

…but idk how true that, I think it’s pretty clear that these companies are using the Uber model to attract customers, and the fact that they’re already increasing prices or throttling is kind of insane.
…하지만 그게 얼마나 사실인지는 잘 모르겠어요. 이 회사들이 우버 모델을 사용해 고객을 끌어들이고 있다는 건 꽤 명확한데, 이미 가격을 올리거나 속도를 제한하고 있다는 사실은 좀 미친 것 같아요.


> my keyboard is mine and isn't just going to disappear one day, have its price hiked or refuse to work after 1000 lines.
> 내 키보드는 내 것이고 어느 날 갑자기 사라지거나 가격이 오르거나 1000줄 이후에 작동을 거부하지 않을 거예요.

I dunno, from my company or boss's perspective, there are definitely days where I've seriously considered just disappearing, demanding a raise, or refusing to work after the 3rd meeting or 17th Jira ticket. And I've seen cow orkers and friends do all three of those over my career.
글쎄요, 제 회사나 상사의 입장에서는, 3번째 회의나 17번째 Jira 티켓 이후에 그냥 사라지거나 임금 인상을 요구하거나 일을 거부하는 걸 진지하게 고려한 날들이 분명히 있어요. 그리고 제 경력 동안 동료들이나 친구들이 그 세 가지를 모두 하는 걸 봤어요.

(Perhaps LLMs are closer to replacing human developers that anyone has realized yet?)
(아마도 LLMs는 아직 아무도 깨닫지 못한 채 인간 개발자를 대체하는 데 더 가까워지고 있는 것일까요?)


I made a quick site so you can see what tools are using the most context and help control it, totally free and in your browser.
가장 많은 컨텍스트를 사용하는 도구가 무엇인지 확인하고 이를 제어할 수 있도록 완전히 무료로 브라우저에서 사용할 수 있는 간단한 사이트를 만들었습니다.

https://claude-code-analysis.pages.dev/


“It just stopped the ability to make progress,” the user told TechCrunch. “I tried Gemini and Kimi, but there’s really nothing else that’s competitive with the capability set of Claude Code right now.”
“진행할 수 있는 능력이 갑자기 멈췄다”고 사용자는 TechCrunch에 말했습니다. “Gemini와 Kimi를 시도해봤지만, 현재 Claude Code의 기능 세트와 경쟁할 만한 것은 정말 없습니다.”

This is probably another marketing stunt. Turn off the flow of cocaine and have users find out how addicted they are. And they'll pay for the purest cocaine, not for second grade.
아마도 이것은 또 다른 마케팅 쇼일 것입니다. 코카인을 끊게 하고 사용자가 자신이 얼마나 중독되었는지 알게 하는 거죠. 그리고 그들은 2등급이 아닌 가장 순수한 코카인에 돈을 지불할 것입니다.


It was always gonna be the Uber approach. Cheap and great turns to expensive and mediocre when they have to turn the money spigot on.
항상 우버 방식일 수밖에 없었죠. 저렴하고 훌륭하다가 돈줄을 틀어야 할 때 비싸고 평범해집니다.

Even expensive Uber or expensive Sonnet 4 is still a great deal when you consider the BATNA. Programmers on the level of Sonnet 4 are expensive.
비싼 우버나 비싼 Sonnet 4도 BATNA를 고려하면 여전히 훌륭한 거래입니다. Sonnet 4 수준의 프로그래머는 비쌉니다.

I wish models which we can self-host at home would start catching up. Relying on hosted providers like this is a huge risk, as can be seen in this case.
집에서 자체 호스팅할 수 있는 모델들이 따라잡기 시작했으면 좋겠어요. 이렇게 호스팅 제공자에 의존하는 것은 이번 사례에서 볼 수 있듯이 큰 위험입니다.

I just worry that there’s little incentive for bit corporations to research optimising the “running queries for a single user in a consumer GPU” use case. I wonder if getting funding for such research is even viable at all.
대기업들이 “소비자용 GPU에서 단일 사용자 쿼리 실행 최적화” 사례 연구에 투자할 동기가 거의 없다는 점이 걱정됩니다. 그런 연구에 자금을 받는 것이 과연 가능한지 궁금하네요.


We already have really strong models that run on a consumer GPU, and really strong frameworks and libraries to support them.
우리는 이미 소비자용 GPU에서 실행되는 매우 강력한 모델과 이를 지원하는 매우 강력한 프레임워크 및 라이브러리를 보유하고 있습니다.

The issue is (1) the extra size supports extra knowledge/abilities for the model. (2) a lot of the open source models are trained in a way to not compete with the paid offerings, or lack the data set of useful models.
문제는 (1) 추가 크기가 모델의 추가 지식/능력을 지원한다는 점입니다. (2) 많은 오픈 소스 모델은 유료 제품과 경쟁하지 않도록 훈련되었거나 유용한 모델의 데이터 세트가 부족합니다.

Specifically, it seems like the tool-use heavy “agentic” work is not being pushed to open models as aggressively as the big closed models. Presumably because that’s where the money is.
특히, 도구 사용이 많은 “에이전트형” 작업은 대형 폐쇄형 모델만큼 적극적으로 오픈 모델에 적용되지 않는 것 같습니다. 아마도 그곳에 수익이 있기 때문일 것입니다.


I think model providers would love to run their models on a single GPU. The latency and throughput of GPU interconnects is orders of magnitudes worse than accessing VRAM. Cutting out the latency would make the models much more efficient to run, they wouldn't have to pay for such expensive networking. If they got to run it on consumer GPUs even better. Consumer GPUs probably cost something like 5-10x less with regards to raw compute than data center ones. New coding optimized models for single GPUs drop all the time. But it's just a really hard problem to make them good and when the large models are still in the barely good enough phase (I wasn't using agents much before Sonnet 4) it's just not realistic to get something useful locally.
모델 제공자들은 단일 GPU에서 모델을 실행하는 것을 매우 원할 것 같습니다. GPU 인터커넥트의 지연 시간과 처리량은 VRAM 접근에 비해 수십 배나 더 나쁩니다. 지연 시간을 없애면 모델 실행이 훨씬 효율적이 되어, 그렇게 비싼 네트워킹 비용을 지불할 필요가 없어집니다. 만약 소비자용 GPU에서 실행할 수 있다면 더 좋겠죠. 소비자용 GPU는 데이터 센터용 GPU에 비해 원시 연산 성능 대비 5~10배 정도 저렴할 가능성이 큽니다. 단일 GPU에 최적화된 새로운 코딩 모델들이 계속 출시되고 있습니다. 하지만 좋은 성능을 내는 것은 매우 어려운 문제이고, 대형 모델들이 아직 간신히 쓸 만한 단계에 머물러 있을 때(저는 Sonnet 4 이전에는 에이전트를 많이 사용하지 않았습니다) 로컬에서 유용한 무언가를 얻는 것은 현실적이지 않습니다.

Deepseek R1 is better than any model released more than 6 months ago. You can plug it into open source equivalents of Claude Code like Goose. And it runs on a Mac Studio which you can buy at any consumer electronics store.
Deepseek R1은 6개월 이상 전에 출시된 어떤 모델보다도 뛰어납니다. Claude Code의 오픈 소스 대체제인 Goose에 연결할 수 있습니다. 그리고 Mac Studio에서 실행되며, 이는 어느 소비자 전자제품 매장에서도 구매할 수 있습니다.

The people saying that big tech is going to Gatekeep their IDE or pull the plug on them don’t seem to realize that the ship has already sailed. Good LLMs are here permanently and never going away. You just might have to do slightly more work than whipping out a credit card and buying a subscription product.
대형 기술 기업들이 IDE를 통제하거나 서비스를 중단할 거라고 말하는 사람들은 이미 기회가 지나갔다는 사실을 모르는 것 같습니다. 좋은 LLMs는 영구적으로 존재하며 절대 사라지지 않습니다. 단지 신용카드를 꺼내 구독 상품을 사는 것보다 약간 더 노력을 해야 할 수도 있을 뿐입니다.


Check out Llama 3.1 70B Instruct, which now runs on consumer hardware with 24GB VRAM using techniques like unsloth or llama.cpp's new Q4_K_M quantization - surprisingly competitive with Claude for many coding tasks.
Llama 3.1 70B Instruct를 확인해 보세요. 이제 unsloth나 llama.cpp의 새로운 Q4_K_M 양자화 같은 기술을 사용해 24GB VRAM을 가진 소비자용 하드웨어에서 실행되며, 많은 코딩 작업에서 Claude와 놀라울 정도로 경쟁력이 있습니다.

It’s like you buy an M4 MacBook and silently Apple throttles it and makes it an M1. If that happened every tech magazine would write about it, consumer advocates would be in rage.
M4 맥북을 샀는데 애플이 조용히 성능을 제한해서 M1으로 만드는 것과 같습니다. 그런 일이 일어나면 모든 기술 잡지에서 다루고 소비자 보호 단체가 분노할 것입니다.

How’s it possible that AI companies sell you a product for 100 USD a month and silently degrade it?
AI 회사들이 월 100달러에 제품을 팔면서 조용히 성능을 저하시킨다는 게 어떻게 가능한가요?


They have fixed capacity but want to provide a reasonable product for all. They've really struggled with defining and enforcing quotas. It seems they have issues predicting what their actual capacity is, how many users they want. Also, there is not much competition. The prices are not really anchored to anything. Hopefully it will improve.
그들은 고정된 용량을 가지고 있지만 모두에게 합리적인 제품을 제공하고자 합니다. 할당량을 정의하고 집행하는 데 정말 어려움을 겪고 있습니다. 실제 용량이 얼마인지, 원하는 사용자 수를 예측하는 데 문제가 있는 것 같습니다. 또한 경쟁도 많지 않습니다. 가격이 실제로 어떤 기준에 고정되어 있지 않습니다. 개선되길 바랍니다.

I was wondering when we'd get to the end of the reduced fare portion of the bubble. With the layoffs, increase in prices, we're going to see a lot more vibe coding to justify the price of ai.
할인 요금 구간이 끝나는 시점이 언제일지 궁금했습니다. 해고와 가격 인상으로 인해, AI 가격을 정당화하기 위한 분위기 코딩이 훨씬 더 많아질 것입니다.

With the talented employees laid off, I predict there will be some VERY LARGE code mistake pushed, either banking or travel, and we'll either see the burst, or they'll move on to strictly enterprise/gov opportunities. (see: grok for gov)
유능한 직원들이 해고되면서, 은행업이나 여행업 쪽에서 매우 큰 코드 실수가 발생할 것으로 예상합니다. 그 결과 버블이 터지거나, 아니면 기업 및 정부 기회에만 집중하는 방향으로 전환할 것입니다. (참고: 정부용 grok)

>Super Free [Introduction, lots of free options] >Reduced Fare [higher prices, smaller pool of free options](We are here) >Premium Only [only paid options, mostly whales]
>Super Free [소개, 많은 무료 옵션] >Reduced Fare [가격 상승, 무료 옵션 감소](우리가 있는 곳) >Premium Only [유료 옵션만, 주로 대형 고객]


I have the $100 plan and now quickly get downgraded to Sonnet. But so far have not hit any other limits. I use it more on the weekends over several hours, so lets see what this weekend has in store.
저는 $100 요금제를 사용 중인데 곧바로 Sonnet으로 강등됩니다. 하지만 아직 다른 제한에는 걸리지 않았어요. 주로 주말에 몇 시간씩 사용하니 이번 주말에 어떻게 될지 지켜보겠습니다.

I suspected that something like this might happen, where the demand will outstrip the supply and squeeze small players out. I still think demand is in its infancy and that many of us will be forced to pay a lot more. Unless of course there are breakthroughs. At work I recently switched to non-reasoning models because I find I get more work done and the quality is good enough. The queue to use Sonnet 3.7 and 4.0 is too long. Maybe the tools will improve reduce token count, e.g. a token reducing step (and maybe this already exists).
수요가 공급을 초과해 소규모 플레이어들이 밀려날 것이라는 점을 어느 정도 예상했습니다. 저는 여전히 수요가 초기 단계에 있다고 생각하며, 많은 사람들이 더 많은 비용을 지불해야 할 것이라고 봅니다. 물론 획기적인 발전이 있지 않는 한 말이죠. 최근 직장에서는 비추론 모델로 전환했는데, 작업 효율이 더 높고 품질도 충분히 좋기 때문입니다. Sonnet 3.7과 4.0을 사용하려는 대기열이 너무 길어요. 아마도 도구들이 개선되어 토큰 수를 줄이는 단계가 생길 수도 있겠죠(어쩌면 이미 존재할지도 모릅니다).


You are using the "auto-switch back to Sonnet" mode right? Try just selecting Opus without the auto-switch, probably you'll get more Opus and may not run out of it. Anthropic is just being careful because Opus eats compute and they don't want people getting disappointed. But for me it does not run out that quickly. Only when I asked it to work on a 50k+ source code file, which it had to ingest entirely in my case, is when I ran out.
"Sonnet으로 자동 전환" 모드를 사용하고 있죠? 자동 전환 없이 Opus만 선택해 보세요. 아마도 더 많은 Opus를 사용할 수 있고 금방 소진되지 않을 겁니다. Anthropic은 Opus가 많은 컴퓨팅 자원을 소모하기 때문에 사람들이 실망하지 않도록 조심하는 것뿐입니다. 하지만 제 경우에는 그렇게 빨리 소진되지 않아요. 5만 줄 이상의 소스 코드 파일을 작업하라고 했을 때, 그 파일을 전부 처리해야 해서 그때만 소진됐습니다.

Oh wow I didnt even know about that. Yeah it auto switches. I'll change the config.
와, 그거 몰랐어요. 네, 자동으로 전환되네요. 설정을 변경하겠습니다.

Off hour usage seems to be different for sure.
비근무 시간 사용량은 확실히 다른 것 같습니다.

Also there's likely only so much fixed compute available, and it might be getting re allcoated for other uses behind the scene from time to time as more compute arrives.
또한 고정된 컴퓨팅 자원이 한정되어 있을 가능성이 높으며, 더 많은 컴퓨팅 자원이 도입됨에 따라 때때로 다른 용도로 재할당되고 있을 수 있습니다.


Does anyone not realize they are just using the typical drug dealer type business model? I used to do cocaine and it was a similar vibe.
누구도 이들이 전형적인 마약상 비즈니스 모델을 사용하고 있다는 걸 깨닫지 못하는 건가? 나도 코카인을 했었는데 비슷한 분위기였어.

They will turn you into an AI junkie who no longer has motivation to do anything difficult on your own (despite having the skills and knowing how), and then, they will dramatically cut your usage limit and say you’ll need to pay more to use their AI.
그들은 당신을 스스로 어려운 일을 하려는 동기가 사라진 AI 중독자로 만들 거야 (기술도 있고 방법도 알면서도), 그리고 나서 갑자기 사용 한도를 대폭 줄이고 AI를 더 쓰려면 더 내야 한다고 할 거야.

And you will gladly pay more, because hey you are getting paid a lot and it’s only a few hundred extra. And look at all the time you save!
그리고 당신은 기꺼이 더 낼 거야, 왜냐면 돈도 많이 벌고 몇 백 달러 더 내는 건 별거 아니니까. 그리고 얼마나 많은 시간을 절약했는지 봐!

Soon you’re paying $2k a month on AI.
곧 당신은 AI에 한 달에 2천 달러를 지불하게 될 거야.


A subcontracted dev that can do that much is way more than $2k. I’ve had $800-on-AI months and it was a good deal.
그 정도 일을 할 수 있는 하청 개발자는 2천 달러 이상입니다. 저는 AI에 800달러를 쓴 달도 있었는데, 그때도 괜찮은 거래였어요.

Is it really worth it to use opus vs. sonnet? sonnet is pretty good on its own.
opus를 사용하는 것이 sonnet보다 정말 가치가 있나요? sonnet 자체도 꽤 괜찮은데요.

It's definitely worth it if you're on the plans and don't hit the usage limits already. It's subjectively better based on my experience.
이미 사용 한도에 도달하지 않는 요금제를 사용 중이라면 확실히 가치가 있습니다. 제 경험상 주관적으로 더 낫습니다.

Id like to hear about the tools and use cases that lead people to hit these limits. How many sub-agents are they spawning? How are they monitoring them?
사람들이 이러한 한도에 도달하게 만드는 도구와 사용 사례에 대해 듣고 싶습니다. 몇 개의 서브 에이전트를 생성하나요? 어떻게 모니터링하고 있나요?

I'm not on the pro plan, but on $20/mo, I asked Claude some 20 questions on architecture yesterday and it hit my limit.
저는 프로 플랜이 아니고 월 20달러 플랜인데, 어제 Claude에게 아키텍처 관련 질문을 20개 정도 했더니 한도에 도달했습니다.

This is going to be happening with every AI service. They are all burning cash and need to dumb it down somehow. Whether that's running worse models or rate limiting.
이런 일은 모든 AI 서비스에서 일어날 것입니다. 모두 자금을 소진하고 있어서 어떻게든 제한을 둬야 합니다. 더 낮은 성능의 모델을 사용하든지, 속도 제한을 하든지 말이죠.


There was a batchmode pulled from the documentation after the first few days of the Claude Code release. Many of have been trying to be respectful with a stable 5 agent call but some people have pushed those limits much higher as it wasn’t being technically throttle until last week.
Claude Code 출시 후 며칠 만에 문서에서 batchmode가 제거되었습니다. 많은 사람들이 안정적인 5 에이전트 호출을 존중하려고 했지만, 일부는 지난주까지 기술적으로 제한되지 않았기 때문에 그 한도를 훨씬 넘겼습니다.

Tragedy of the commons strikes again...
공유지의 비극이 다시 발생했습니다...

One with only manual interactions and regular context resets. I have a couple of commands I'll use regularly that have 200-500 words in them but it's almost exclusively me riding that console raw.
수동 상호작용과 정기적인 컨텍스트 초기화만 있는 경우입니다. 200~500단어가 포함된 명령어를 몇 개 정기적으로 사용하지만 거의 전적으로 콘솔을 직접 다루는 편입니다.

I'm only on the $100 Max plan and stick to the Sonnet model and I'll run into the hard usage limits after about three hours, that's been down to about two hours recently. The resets are about every four hours.
저는 $100 Max 요금제만 사용하고 Sonnet 모델을 고수하는데, 약 3시간 후에 사용 한도에 도달합니다. 최근에는 약 2시간으로 줄었고, 초기화는 약 4시간마다 이루어집니다.


I've seen prompts telling it to spawn an agent to review every change it makes... and they're not monitoring anything
변경 사항을 검토하기 위해 에이전트를 생성하라는 프롬프트를 본 적이 있는데... 그들은 아무것도 모니터링하지 않고 있습니다.

oh yea looks like everyone and their grandma is hitting claude code
아, 맞아. 거의 모든 사람이 클로드 코드를 사용하고 있는 것 같아.

https://github.com/anthropics/claude-code/issues/3572

Inside info is they are using their servers to prioritize training for sonnet 4.5 to launch at the same time as xAI dedicated coding model. xAI coding logic is very close to sonnet 4 and has anthropic scrambling. xAI sucks at making designs but codes really well.
내부 정보에 따르면, 그들은 xAI 전용 코딩 모델과 동시에 출시될 sonnet 4.5의 훈련을 우선시하기 위해 서버를 사용하고 있습니다. xAI 코딩 로직은 sonnet 4와 매우 유사하며 anthropic 스크램블링이 적용되어 있습니다. xAI는 디자인 제작에는 형편없지만 코딩은 정말 잘합니다.


the day of COGS reckoning for the "AI" industry is approaching fast
"AI" 산업의 COGS 정산일이 빠르게 다가오고 있다

COGS == cost of goods sold?
COGS == 매출원가인가요?

All you people who were happy to pay $100 and $200 a month have ruined it for the rest of us!!
한 달에 100달러, 200달러를 기꺼이 지불하던 여러분 모두가 우리 모두를 망쳐버렸다!!

Yeah, i noticed it falls back to sonnet much quicker too. Most days within the first few minutes.
네, 저도 sonnet으로 훨씬 더 빨리 돌아가는 걸 알아챘습니다. 대부분의 날은 처음 몇 분 안에 그렇습니다.

And the 529.. it's borderline unusable at times.
그리고 529는... 때때로 거의 사용할 수 없을 정도입니다.

But the worst part: While claude code, the tools and cli etc, has become much better over the last weeks; it seems the models or prompts have gotten worse. It will do things like add a test, see that it fails, claim it was already broken and out of scope. Or maybe i ask it to implement this, DO NOT use Y. Use Y anyway. Sometimes i ask it to update a test & it decides to revert all changes in the application code.
하지만 가장 최악인 점은: Claude Code, 도구들, CLI 등이 지난 몇 주 동안 훨씬 좋아졌음에도 불구하고 모델이나 프롬프트가 오히려 나빠진 것 같습니다. 예를 들어 테스트를 추가하고 실패하는 걸 보면 이미 깨져 있었고 범위 밖이라고 주장합니다. 또는 어떤 기능을 구현하라고 했는데 Y를 사용하지 말라고 했음에도 불구하고 Y를 사용합니다. 때로는 테스트를 업데이트하라고 하면 애플리케이션 코드의 모든 변경 사항을 되돌리기도 합니다.

I am very close to cancelling my plan again. Maybe it is a great deal when comparing too api pricing, but that is not a fair comparison; prepaid/pay-as-you-go is always way more expensive. And if they priced it wrong, change the pricing? Degrading a new service you are developing to save cost is even more stupid then the burn money until ??? profit stats imo hehe
저는 다시 한 번 플랜을 취소할까 매우 고민 중입니다. API 가격과 비교하면 좋은 거래일 수도 있지만, 그건 공정한 비교가 아닙니다; 선불/종량제는 항상 훨씬 더 비쌉니다. 그리고 만약 가격 책정이 잘못됐다면, 가격을 바꾸면 되지 않나요? 비용 절감을 위해 개발 중인 새로운 서비스를 저하시키는 것은, 제 생각에, 이익이 ??? 될 때까지 돈을 태우는 것보다 더 어리석은 일입니다, 헤헤


Hardly surprising.  전혀 놀랍지 않다.

AWS Bedrock which seems to be a popular way to get access to Claude etc. while not having to go through another "cloud security audit", will easily run up ~20-30$ bills in half-hour with something like Cline.
AWS Bedrock은 Claude 등에 접근하는 인기 있는 방법인 것 같은데, 또 다른 "클라우드 보안 감사"를 거치지 않아도 되면서 Cline 같은 것을 사용하면 30분 만에 20~30달러 정도 청구될 것이다.

Anthropic likely is making bank with this and can afford to lose the less-profitable (or even loss-making) business of lone-man developers.
Anthropic은 아마도 이로 인해 큰 수익을 내고 있으며, 수익성이 낮거나 심지어 손해를 보는 개인 개발자들의 사업은 포기할 여유가 있다.


So far I’ve had 3-4 Claude code instances constantly working 8-12 hours a day every day. I use it like a stick shift though. When I need a big plan doc, switch to recommended model between opus and sonnet. And for coding, use sonnet. Sometimes I hit the opus limit but I simply switch to sonnet for the day and watch it more closely.
지금까지 3~4개의 Claude code 인스턴스를 매일 8~12시간씩 계속 가동해왔습니다. 저는 수동 변속기처럼 사용해요. 큰 계획 문서가 필요할 때는 opus와 sonnet 사이에서 추천 모델로 전환하고, 코딩할 때는 sonnet을 사용합니다. 가끔 opus 한도에 도달하면 그날은 그냥 sonnet으로 전환해서 더 주의 깊게 지켜봅니다.

Honest question: what do you do with them? I would be so fascinated to see a video of this kind of workflow… I feel like I use LLMs as much as I can while still being productive (because the code they generate has a lot of slop) and still barely use the agentic CLIs, mostly just tab completion through windsurf, and Claude for specific questions by steering the context manually pasting the relevant stuff
솔직한 질문입니다: 그걸 가지고 뭘 하시나요? 이런 종류의 워크플로우 영상을 보면 정말 흥미로울 것 같아요… 저는 생산성을 유지하면서 가능한 한 LLMs를 최대한 활용하는 것 같은데(생성된 코드가 많이 부실해서) 에이전트형 CLI는 거의 사용하지 않고, 주로 windsurf의 탭 완성 기능과 관련 내용을 수동으로 붙여넣어 문맥을 조정하며 특정 질문에 Claude를 사용합니다.

I focus more on reading code & prompting claude to write code for me at a high level. I also experiment a lot. I don't write code anymore by hand except in very rare cases. I ask claude for questions about the code to build understanding. I have it produce documentation, which is then consumed into other prompts. Often, claude code will need several minutes on a task so I start another task. My coding throughput on a day to day basis is now the equivalent of about 2-3 people.
저는 코드 읽기와 고수준에서 클로드에게 코드를 작성하도록 요청하는 데 더 집중합니다. 또한 실험도 많이 합니다. 이제는 아주 드문 경우를 제외하고는 직접 코드를 손으로 작성하지 않습니다. 코드를 이해하기 위해 클로드에게 질문을 합니다. 문서도 생성하게 하고, 그 문서는 다른 프롬프트에 활용됩니다. 클로드 코드가 작업에 몇 분씩 걸리는 경우가 많아 다른 작업을 동시에 시작합니다. 일상적인 코딩 처리량은 이제 약 2~3명 분에 해당합니다.

I also use gemini to try out trading ideas. For example, the other day I had gemini process google's latest quarterly report to create a market value given the total sum of all it's businesses. It valued google at $215. Then I bought long call options on google. Literally vibe day trading.
저는 또한 Gemini를 사용해 트레이딩 아이디어를 시험해 봅니다. 예를 들어, 며칠 전 Gemini가 구글의 최신 분기 보고서를 처리해 모든 사업체의 총합을 기준으로 시장 가치를 산출했습니다. 구글 가치를 215달러로 평가했죠. 그 후 구글에 대한 롱 콜 옵션을 매수했습니다. 문자 그대로 바이브 데이 트레이딩입니다.

I use chat gpt sora to experiment with art. I've always been fascinated with frank lloyd wright and o4 has gotten good enough to not munge the squares around in the coonley playhouse image so that's been a lot of fun to mess with.
저는 chat gpt sora를 사용해 예술 실험을 합니다. 저는 항상 Frank Lloyd Wright에 매료되어 있었고, o4는 Coonley Playhouse 이미지에서 사각형을 망치지 않을 정도로 충분히 발전해서 이걸 가지고 노는 게 정말 재미있었습니다.

I use cheaper models & rag to automate categorizing of my transactions in Tiller. Claude code does the devops/python scripting to set up anything google cloud related so I can connect directly to my budget spreadsheet in google sheets. Then I use llama via openrouter + a complex RAG system to analyze my historical credit card data & come up with accurate categorizations for new transactions.
저는 더 저렴한 모델과 RAG를 사용해 Tiller에서 거래 내역 분류를 자동화합니다. Claude code는 구글 클라우드 관련 설정을 위해 devops/python 스크립팅을 수행하여 구글 시트의 예산 스프레드시트에 직접 연결할 수 있게 해줍니다. 그런 다음 openrouter를 통한 llama와 복잡한 RAG 시스템을 사용해 과거 신용카드 데이터를 분석하고 새로운 거래에 대한 정확한 분류를 도출합니다.

This is only scratching the surface. I now use claude for devops, frontend, backend, fixing issues with embedder models in huggingface candle. The list is endless.
이것은 빙산의 일각에 불과합니다. 저는 이제 클로드를 데브옵스, 프론트엔드, 백엔드, huggingface candle의 임베더 모델 문제 해결 등에도 사용합니다. 활용 범위는 무한합니다.


Can you share some code? I work with a guy like this who claims this level of output but in reality he consumes massive amounts of other devs time in PR review.
코드를 좀 공유해 주실 수 있나요? 저는 이런 수준의 결과물을 주장하지만 실제로는 PR 리뷰에서 다른 개발자들의 시간을 엄청나게 소비하는 사람과 함께 일하고 있습니다.

Are you doing a lot of broad throwaway tasks? I’ve had similar feelings when writing custom code for my editor, one off scripts, etc but it’s nothing I would ever put my professional reputation behind.
광범위한 일회성 작업을 많이 하시나요? 저도 에디터용 맞춤 코드 작성이나 일회성 스크립트 작성할 때 비슷한 느낌을 받았지만, 절대 제 전문적인 평판을 걸 만한 일은 아니었습니다.


Sorry, most of my code is proprietary. However, I have a stock exchange project on my github I plan to rewrite in rust. I'm pretty busy now at work but I'll do that using claude code.
죄송하지만, 제 코드 대부분은 독점적입니다. 다만, 깃허브에 주식 거래소 프로젝트가 있는데 이를 Rust로 다시 작성할 계획입니다. 지금은 업무가 바쁘지만 Claude Code를 사용해 작업할 예정입니다.

If your friend is consuming massive amounts of other dev time in PR reviews, maybe he has other issues. I'm willing to bet even without agentic coding, he would still be problem for your coworkers.
만약 당신의 친구가 PR 리뷰에서 다른 개발자들의 시간을 엄청나게 소비하고 있다면, 아마도 다른 문제가 있을 겁니다. 에이전트 코딩 없이도 그는 여전히 동료들에게 문제를 일으킬 것이라고 장담합니다.

Sometimes I do broad throwaway tasks. For example I needed a rust lambda function that would do appsync event authorization for jwt tokens. All it needed to do was connect to aws secrets, load up the keys & check inbound requests. I basically had claude-code do everything from cdk to building/testing the rust function & deploying to staging. It worked great! However, I've certainly had my fair share of f-ups like I recently tried doing some work on the frontend with claude code and didn't realize it was doing useEffect everywhere!! Whoops. So I had to adapt and manage 2-3x claude code instances extremely closely to prevent that from happening again.
가끔은 광범위한 일회성 작업을 합니다. 예를 들어, jwt 토큰에 대한 appsync 이벤트 권한 부여를 처리하는 rust 람다 함수가 필요했어요. 해야 할 일은 aws 시크릿에 연결해서 키를 불러오고 들어오는 요청을 확인하는 것뿐이었죠. 저는 기본적으로 claude-code에게 cdk부터 rust 함수 빌드/테스트 및 스테이징 배포까지 모든 걸 맡겼습니다. 정말 잘 작동했어요! 하지만 최근에 프론트엔드 작업을 claude code로 하다가 useEffect가 곳곳에서 실행되고 있다는 걸 몰랐던 실수 같은 것도 분명히 있었습니다!! 이런 일이 다시 발생하지 않도록 claude code 인스턴스 2~3개를 매우 밀접하게 관리하고 조정해야 했죠.


As a follow-up, I've gotten much much faster at modeling code in my mind and directly translating it into prompts. It really changes how you code! For each task, I'm extremely specific about what I want and depending on how closely claude does what I want, I change my specificity. Sometimes like with the lambda function, I can be high level and with my react.js codebase, due to it's lack of types (I know...) needs extra attention.
후속으로, 저는 머릿속에서 코드를 모델링하고 그것을 바로 프롬프트로 번역하는 속도가 훨씬 빨라졌습니다. 이게 정말 코딩 방식을 바꿔버립니다! 각 작업마다 제가 원하는 바를 매우 구체적으로 명시하고, Claude가 얼마나 정확히 원하는 대로 하는지에 따라 구체성의 정도를 조절합니다. 때로는 람다 함수처럼 고수준으로 할 수 있지만, React.js 코드베이스는 타입이 없어서(알고 있습니다...) 더 세심한 주의가 필요합니다.

To be effective with agentic coding, you have to know when to go high level and low level. And have to accept that sometimes agentic coders need a lot of help! It all depends on how much context you give it.
에이전트 코딩을 효과적으로 하려면 언제 고수준으로, 언제 저수준으로 접근할지 알아야 합니다. 그리고 때로는 에이전트 코더가 많은 도움이 필요하다는 것을 받아들여야 합니다! 모든 것은 얼마나 많은 컨텍스트를 제공하느냐에 달려 있습니다.


I wouldn't blame AI. A terrible developer using AI becomes a bad developer. A good developer using AI becomes a great developer.
AI를 탓하지는 않겠습니다. 형편없는 개발자가 AI를 사용하면 나쁜 개발자가 되고, 좋은 개발자가 AI를 사용하면 훌륭한 개발자가 됩니다.

Do you use it to make any actual products that makes money?
이걸 사용해서 실제로 돈을 버는 제품을 만드나요?

yes. https://app.grantpuma.com/
네. https://app.grantpuma.com/

I can’t read any text on homepage with iOS Safari as first few characters/words of each sentence is cut off. Text justification is different on different pages. Vertical spacing and images are uneven across the site. FAQ accordion animation is jittery and the hamburger menu doesn’t open actual menu from any other page other than homepage. Going back to homepage from FAQ page renders homepage in previous state, such as with sidebar open, momentarily before resetting to expected state. Focusing on input on sign in page zooms in on email field, but half of it is off page.
iOS 사파리에서 홈페이지의 텍스트가 전혀 읽히지 않는데, 각 문장의 처음 몇 글자/단어가 잘려 나갑니다. 페이지마다 텍스트 정렬이 다릅니다. 사이트 전반에 걸쳐 세로 간격과 이미지가 고르지 않습니다. FAQ 아코디언 애니메이션이 떨리고, 햄버거 메뉴는 홈페이지가 아닌 다른 페이지에서는 실제 메뉴를 열지 않습니다. FAQ 페이지에서 홈페이지로 돌아가면 사이드바가 열린 상태 등 이전 상태로 잠시 렌더링되었다가 예상 상태로 리셋됩니다. 로그인 페이지에서 입력란에 포커스하면 이메일 필드가 확대되는데, 절반이 화면 밖으로 나갑니다.

I’m assuming this is work in progress and currently it’s been vibe coded to MVP stage?
이게 진행 중인 작업이고 현재 MVP 단계로 대충 코딩된 상태라고 가정하는 건가요?


I do the same with two $200 MAX plans that I switch between when one hits the limit. I use opus exclusively though so I tend to hit the first account's limits at least once a day.
저도 두 개의 $200 MAX 플랜을 사용하면서 하나가 한도에 도달하면 다른 것으로 전환합니다. 다만 저는 opus만 사용해서 첫 번째 계정의 한도에 적어도 하루에 한 번은 도달하는 편입니다.

lol thanks for ruining it for the rest of us. i am sure you created something groundbreaking with 4 instances of cc.
하하, 우리 모두를 위해 망쳐줘서 고마워요. cc 4개 인스턴스로 뭔가 획기적인 걸 만드셨나 보네요.

I think that Cursor is doing the same. A couple of weeks ago they removed the 500 prime model requests limit per month in the $20 plan, it seemed like this was going to be good for users, in fact it's worse, my impression is that now the limit is effectively much lower, and you can't check anymore in your account's dashboard how many of these requests you've made over the last month.
Cursor도 비슷한 것 같아요. 몇 주 전에 $20 플랜에서 월 500회 프라임 모델 요청 제한을 없앴는데, 사용자에게 좋을 것 같았지만 오히려 더 나빠졌어요. 제 느낌에는 이제 사실상 한도가 훨씬 낮아졌고, 계정 대시보드에서 지난달에 몇 번 요청했는지 더 이상 확인할 수 없게 됐습니다.

I guess flat fee AI subscriptions are not a thing that is going to work out.
정액제 AI 구독은 성공하기 어려운 모델인 것 같네요.

Probably better to stay on usage based pricing, and just accept that every API call will be charged to your account.
사용량 기반 요금제를 유지하고 모든 API 호출이 계정에 청구된다는 점을 받아들이는 것이 아마 더 나을 것입니다.


I don't think CLI/terminal-based approaches are going to win out in the long run compared to visual IDEs like Cursor but I think Anthropic has something good with Claude Code and I've been loving it lately (after using only Cursor for a while.) Wouldn't be surprised if they end up purchasing Cursor after squeezing them out via pricing and then merging Cursor + Claude Code so you have the best of both worlds under one name.
CLI/터미널 기반 접근 방식이 Cursor 같은 시각적 IDE에 비해 장기적으로 승리할 것 같지는 않지만, Anthropic이 Claude Code로 좋은 무언가를 가지고 있다고 생각하며 최근에 정말 좋아하고 있습니다(한동안 Cursor만 사용하다가). 가격 정책으로 Cursor를 압박해 결국 인수한 후 Cursor와 Claude Code를 합쳐 두 가지 장점을 하나의 이름 아래 제공할 가능성도 놀랍지 않을 것 같습니다.

That must somehow be illegal, at least in the consumer space. I have noticed quicker degrade to sonnet, but don't often hit limits ($200 plan). Seems none of these guys can afford loyalty, so I will be skipping between 'tool of the month' instead of sticking with one. New companies with new VC money are good for a few months and then degrade, so it's not hard to do.
적어도 소비자 분야에서는 이게 어떻게든 불법일 것 같습니다. 저는 sonnet의 성능 저하가 더 빨라진 것을 느꼈지만, 한도에 자주 도달하지는 않습니다($200 요금제). 이 업체들 중 어느 누구도 충성도를 유지할 여력이 없는 것 같아서, 한 가지 도구에 정착하기보다는 '이달의 도구'를 계속 바꿔가며 사용할 것 같습니다. 새로운 VC 자금을 받은 신생 기업들은 몇 달 동안은 좋다가 곧 성능이 떨어지니, 그렇게 하는 게 어렵지 않습니다.

Customers are always chasing the next big thing in this space. As a programmer who’s worked on mobile UIs and backends using CC, I can say the appeal isn’t really the model itself—it’s the form factor. It’s a decent product, but hardly groundbreaking or essential.
이 분야의 고객들은 항상 다음 큰 것을 쫓고 있습니다. 모바일 UI와 백엔드에서 CC를 사용해 본 프로그래머로서 말하자면, 매력은 모델 자체가 아니라 폼 팩터에 있습니다. 괜찮은 제품이긴 하지만 획기적이거나 필수적인 것은 아닙니다.

There’s been a ton of ‘service overloaded’ errors this week so it makes sense that they had to adjust it.
이번 주에 ‘서비스 과부하’ 오류가 엄청 많이 발생해서 조정할 수밖에 없었을 것 같아요.

Personally I’ve never hit a usage limit on the $100 plan even when running several Claude tabs at once. I can’t imagine how people can max out the $200 plan.
개인적으로는 여러 개의 Claude 탭을 동시에 실행해도 $100 요금제에서 사용 한도에 걸린 적이 없어요. $200 요금제를 어떻게 다 쓰는지 상상이 안 가네요.


I went from pro to max because I hve been hitting limits, I could tell they were reducing it because I used to go multiple hours on pro but now its like 3. Congrats Anthropic you got $100 more out of me, at the cost of irrecoverable goodwill
저는 프로에서 맥스로 올렸는데, 한도에 자꾸 걸려서요. 예전에는 프로에서 몇 시간씩 쓸 수 있었는데 지금은 3시간 정도밖에 안 돼서 줄이고 있다는 걸 알 수 있었어요. 축하해요 Anthropic, 저한테서 $100을 더 벌었네요, 하지만 돌이킬 수 없는 신뢰를 잃는 대가로요.

For what it's worth, when Cursor downgraded their Claude limits in the middle of my annual subscription term, I emailed them to ask for a pro-rated refund, and it was granted. You may be able to do something similar with Claude Code.
참고로, Cursor가 제 연간 구독 기간 중간에 Claude 한도를 낮췄을 때, 저는 비례 환불을 요청하는 이메일을 보냈고 환불을 받았어요. Claude Code도 비슷한 조치를 받을 수 있을지도 몰라요.

Changing the terms of the deal midway through a subscription to make it much less valuable is a really shady business practice, and I'm not sure it's legal.
구독 중간에 계약 조건을 변경하여 가치를 크게 떨어뜨리는 것은 정말 불투명한 영업 관행이며, 법적으로 문제가 있는지 확신할 수 없습니다.


As a independent dev, I haven't had the need to pay for any AI yet. When I run into my limit at one company, I switch to the next one. Not always the same experience, but the next day I can start fresh again.
독립 개발자로서 아직 AI 사용료를 지불할 필요를 느끼지 못했습니다. 한 회사에서 한도에 도달하면 다음 회사로 옮깁니다. 항상 같은 경험은 아니지만, 다음 날에는 다시 새롭게 시작할 수 있습니다.

They didn’t reduce it they actually increased it. I was using it for 14 hours straight without any issues. I think they did that to stay competitive, but now it seems like it's back to normal.
그들은 한도를 줄인 것이 아니라 실제로 늘렸습니다. 저는 14시간 연속으로 문제 없이 사용했습니다. 경쟁력을 유지하기 위해 그렇게 한 것 같은데, 지금은 다시 원래대로 돌아간 것 같습니다.

Ha was just talking about this coming down the pipeline with folks days ago (in so many words) https://news.ycombinator.com/context?id=44565481
며칠 전에도 사람들이 이와 관련된 이야기를 하고 있었습니다(말하자면) https://news.ycombinator.com/context?id=44565481

What are these people doing to hit their limit this fast?
이 사람들이 이렇게 빨리 한도를 다 채우는 이유가 뭘까요?

I put $30 on it, use it daily at work, and I still have half of it left. Are Zed agents just that optimized? I doubt it
저는 30달러를 결제해서 매일 업무에 사용하고 있는데, 아직 절반이나 남아 있어요. Zed 에이전트들이 그렇게 최적화된 건가요? 그럴 것 같지 않네요.


Where is my model I can run local and off line?
로컬에서 오프라인으로 실행할 수 있는 제 모델은 어디에 있나요?

That's when the LLM stuff is going to take off for me.
그때가 바로 저에게 LLM 기술이 본격적으로 도입되는 시점일 겁니다.


Haven't you checked out Ollama, yet?
아직 Ollama를 확인해보지 않으셨나요?

I think it was just an outage that unfortunately returned 429 errors instead of something else.
아마도 다른 오류 대신 429 오류를 반환하는 단순한 장애였던 것 같습니다.

Probably why they were able to just 10x the token based API limits.
아마도 그래서 토큰 기반 API 제한을 10배로 늘릴 수 있었던 것 같네요.

Claude Code is not worth the time sink for anyone that already knows what they are doing. It's not that hard to write boilerplate and standard llm auto-predict was 95% of the way to Claude Code, Continue, Aider, Cursor, etc without the extra headaches. The hangover from all this wasted investment is going to be so painful.
Claude Code는 이미 자신이 무엇을 하는지 아는 사람에게는 시간 낭비일 뿐입니다. 보일러플레이트를 작성하는 것이 그리 어렵지 않고, 표준 LLM 자동 예측이 Claude Code, Continue, Aider, Cursor 등과 같은 추가적인 번거로움 없이 95% 정도는 커버했기 때문입니다. 이 모든 낭비된 투자로 인한 후유증은 매우 고통스러울 것입니다.

>Claude Code is not worth the time sink
>Claude Code는 시간을 낭비할 가치가 없다

there are like 15~ total pages of documentation.
문서가 총 15페이지 정도 있다.

There are two folders , one for the home directory and one for the project root. You put a CLAUDE.md file in either folder which essentially acts like a pre-prompt. There are like 5 'magic phrases' like "think hard", 'make a todo', 'research..' , and 'use agents' -- or any similar set of phrases that trigger that route.
홈 디렉토리용 폴더 하나와 프로젝트 루트용 폴더 하나, 이렇게 두 개의 폴더가 있다. 어느 폴더에든 CLAUDE.md 파일을 넣으면 사실상 프리프롬프트 역할을 한다. "think hard", "make a todo", "research..", "use agents" 같은 5개의 '매직 프레이즈'가 있는데, 이와 유사한 문구들이 해당 경로를 트리거한다.

Every command can be ran in the 'REPL' environment for instant feedback, it itself can teach you how to use the product, and /help will list every command.
모든 명령어는 즉각적인 피드백을 위한 'REPL' 환경에서 실행할 수 있으며, 이 환경 자체가 제품 사용법을 가르쳐주고 /help 명령어는 모든 명령어를 나열해준다.

The hooks document is a bit incomplete last I checked, but it's a fairly straightforward system, too.
훅 문서는 제가 마지막으로 확인했을 때 약간 불완전했지만, 꽤 직관적인 시스템이기도 합니다.

That's about it -- now explain vi/vim/emacs/pycharm/vscode in a few sentences for me. The 'time sink' is like 4 hours for someone that isn't learning how to use the computer environment itself.
그게 다입니다 -- 이제 vi/vim/emacs/pycharm/vscode에 대해 몇 문장으로 설명해 주세요. '시간 소모'는 컴퓨터 환경 자체를 배우지 않는 사람에게는 약 4시간 정도입니다.


Yeah, Claude Code was by far the quickest/easiest for me to get set up. The longest part was just getting my API key
네, Claude Code가 제가 설정하는 데 가장 빠르고 쉬웠습니다. 가장 오래 걸린 부분은 API 키를 받는 것이었어요.

I've spent far too much of my life writing boilerplate and API integrations. Let Claude do it.
저는 너무 많은 시간을 보일러플레이트 작성과 API 통합에 썼습니다. Claude에게 맡기세요.

I agree. It’s a lot faster to tell it what I want and work on something else in the meantime. You end up ready code diffs more than writing code but it saves time.
동의합니다. 내가 원하는 것을 말해주고 그 사이에 다른 작업을 하는 것이 훨씬 빠릅니다. 결국 코드를 직접 작성하기보다는 코드 차이를 준비하는 경우가 많지만 시간이 절약됩니다.

Comments like this remind me that there's a whole host of people out there who have _no idea_ what these tools are capable of doing to ones productivity or skill set in general.
이런 댓글을 보면 이 도구들이 생산성이나 전반적인 기술 수준에 얼마나 큰 영향을 미치는지 전혀 모르는 사람들이 많다는 것을 상기시켜줍니다.

> It's not that hard to write boilerplate and standard llm auto-predict was 95% of the way to Claude Code, Continue, Aider, Cursor, etc without the extra headaches.
> 보일러플레이트 코드를 작성하는 것이 그렇게 어렵지 않고, 표준 LLM 자동 예측 기능이 Claude Code, Continue, Aider, Cursor 등과 같은 도구들의 95% 정도는 이미 해결해주기 때문에 추가적인 골칫거리 없이도 충분합니다.

Uh, no. To start - yea, boilerplate is easy. But like a sibling comment to this one said - it's also tedious and annoying, let the LLM do it. Beyond that, though, is that if you apply some curiosity and that "anyone that already knows what they are doing" level prior knowledge you can use these tools to _learn_ a great deal.
아니요. 우선, 네, 보일러플레이트 코드는 쉽습니다. 하지만 이 댓글과 비슷한 다른 댓글에서 말했듯이, 그것은 또한 지루하고 귀찮은 작업이기 때문에 LLM에게 맡기는 것이 좋습니다. 그 이상으로, 약간의 호기심과 "이미 무엇을 하고 있는지 아는 사람" 수준의 사전 지식을 적용하면 이 도구들을 사용해 많은 것을 _배울_ 수 있습니다.

You might think your way of doing things is perfect, and the only way to do them - but I'm more of the mindset that there's a lot of ways to skins most of these cats. I'm always open to better ways to do things - patterns or approaches I know nothing about that might just be _perfect_ for what I'm trying to do. And given that I do, in general, know what I'm asking it to do, I'm able to judge whether it's approach is any good. Sometimes it's not, no big deal. Sometimes it opens my mind to something I wasn't aware of, or didn't understand or know would apply to the given scenario. Sometimes it leads me into rabbit holes of "omg, that means I could do this ... over there" and it turns into a whole ass refactor.
자신의 방식이 완벽하고 유일한 방법이라고 생각할 수도 있지만, 저는 대부분의 문제를 해결하는 방법이 여러 가지 있다고 생각하는 편입니다. 항상 더 나은 방법, 제가 전혀 모르는 패턴이나 접근법에 열려 있으며, 그것이 제가 하려는 일에 _완벽하게_ 맞을 수도 있다고 봅니다. 그리고 일반적으로 제가 무엇을 요구하는지 알고 있기 때문에, 그 접근법이 좋은지 판단할 수 있습니다. 때로는 그렇지 않을 때도 있지만, 큰 문제는 아닙니다. 때로는 제가 몰랐거나 이해하지 못했거나 해당 상황에 적용될 줄 몰랐던 무언가를 깨닫게 해주기도 합니다. 때로는 "세상에, 이걸 저기서도 할 수 있겠네"라는 생각에 빠져들어 완전한 리팩토링으로 이어지기도 합니다.

Claude code has broadened my capabilities, professionally, tremendously. The way it makes available "try it out and see how it works" in terms of trying multiple approaches/libraries/databases/patterns/languages and how those have many times led me to learning something new - honestly, priceless.
Claude Code는 제 전문 역량을 엄청나게 확장시켜 주었습니다. 여러 접근법, 라이브러리, 데이터베이스, 패턴, 언어를 시도해보고 어떻게 작동하는지 직접 경험할 수 있게 해주는 방식은, 여러 번 새로운 것을 배우게 해주었고, 솔직히 말해 그 가치는 헤아릴 수 없습니다.

I can see how these tools would scare the 9-5 sit in the office and bang out boilerplate stuff, or to those who are building things that have never been done before (but even then, there's caveats, IMO, to how effective it would/could be in these cases)... but to people writing software or building things (software or otherwise) because they enjoy it or because they're financial or professional lives depend on what they're building - absolutely astonishing to me anyone who isn't embracing these tools with open arms.
이 도구들이 9시부터 5시까지 사무실에 앉아 반복적인 작업을 하는 사람들에게나, 전에 없던 것을 만드는 사람들에게는(하지만 제 생각에는 이런 경우에도 효과가 어느 정도일지에 대한 주의사항이 있죠) 위협적으로 보일 수 있다는 점은 이해가 됩니다... 하지만 소프트웨어를 쓰거나 무언가를 만드는 것을 즐기거나, 혹은 그들이 만드는 것에 재정적 또는 직업적 삶이 달려 있는 사람들에게는 이 도구들을 두 팔 벌려 환영하지 않는 사람이 있다는 게 정말 놀랍습니다.

With all that said. I keep the MCP servers limited to only if I need it in that session and generally if I'm needing an MCP server in an on-going basis I'm better off building a tool or custom documentation around that thing. And idk about all that agent stuff - I got lucky and held out for Claude Code, dabbled a bit with others and they're leagues behind. If I need an agent I'ma just tap on CC, for now.
이 모든 점을 감안해도, 저는 MCP 서버 사용을 그 세션에서 꼭 필요할 때로만 제한합니다. 그리고 일반적으로 지속적으로 MCP 서버가 필요하다면, 그 대상에 맞는 도구나 맞춤형 문서를 만드는 편이 낫다고 생각합니다. 에이전트 관련된 것들은 잘 모르겠는데, 저는 운 좋게 Claude Code를 기다렸고, 다른 것들도 조금 써봤지만 그들과는 차원이 다릅니다. 에이전트가 필요하면 당분간은 그냥 CC를 사용할 생각입니다.

Context and the ability to express what you want in a way that a human would understand is all you need. If you screw either of those up, you're gonna have a bad time.
맥락과 인간이 이해할 수 있는 방식으로 원하는 바를 표현하는 능력만 있으면 됩니다. 이 둘 중 하나라도 잘못되면, 좋은 결과를 기대하기 어렵습니다.


Well said. People seem to be binary: I code with it or I don’t.
정말 잘 표현하셨네요. 사람들은 이 도구를 사용하느냐 사용하지 않느냐, 이분법적으로 생각하는 것 같습니다.

Very few folks are talking about using the LLMs to sharpen THE DEVELOPER.
LLMs를 사용해 개발자를 날카롭게 만드는 것에 대해 이야기하는 사람은 거의 없습니다.

Just today I troubleshot an issue that likely would’ve taken me 2-3 hours without additional input. I wrapped it up and put a bow on it in 15 minutes. Oh, and also wrote a CLI tool fix the issue for me next time. Oh and wrote a small write up for the README for anyone else who runs into it.
오늘도 추가 입력 없이라면 2~3시간 걸렸을 문제를 해결했습니다. 15분 만에 마무리하고 깔끔하게 정리했죠. 그리고 다음에 같은 문제를 해결할 수 있도록 CLI 도구도 작성했습니다. 또 README에 문제를 겪는 사람들을 위한 간단한 설명도 적었고요.

Like… if you’re not embracing these tools at SOME level, you’re just being willfully ignorant at this point. There’s no badge of honor for willfully staying stuck in the past.
즉, 어느 정도라도 이런 도구를 받아들이지 않는다면, 지금은 일부러 무지한 상태로 있는 것과 다름없습니다. 과거에 머무르는 것을 자랑할 이유는 없습니다.


I’m still using it for home use, it’s totally adequate for one person code bases. Once you have teams and tribal knowledge to consider, Claude is a waste of time. It valuable for non-commercial or hobbyist grade work.
저는 여전히 개인 용도로 사용 중인데, 1인 코드베이스에는 완전히 적합합니다. 팀과 집단 지식을 고려해야 할 때는 Claude가 시간 낭비입니다. 비상업적이거나 취미 수준 작업에는 가치가 있습니다.

Title should be: Anthropic caught getting high on their own supply
Anthropic가 자기 공급에 취한 것이 발각됨

At some point they’ll need to make money. Expect it to go way up
언젠가는 돈을 벌어야 할 것이다. 가격이 크게 오를 것으로 예상됨

opencode with kimi-k2 is my backup just in case claude is down or I hit the limits on the max 20x plan.
claude가 다운되거나 최대 20배 요금제 한도에 도달할 경우를 대비해 opencode와 kimi-k2를 백업으로 사용 중임.

Hopefully Anthropic is reading these.
부디 Anthropic이 이 글들을 보고 있길 바람.

I want to start by saying that Claude as a model is excellent. The AI performs exceptionally well at problem-solving and code generation across a wide variety of tasks. My feedback focuses specifically on the Claude Desktop application for Windows.
먼저 Claude 모델 자체는 훌륭하다는 점을 말씀드리고 싶습니다. 이 AI는 다양한 작업에서 문제 해결과 코드 생성 능력이 뛰어납니다. 제 피드백은 특히 Windows용 Claude Desktop 애플리케이션에 집중되어 있습니다.

Stability and Performance: The application frequently displays confusing error messages in the top-right corner, especially when MCP servers encounter issues or during service maintenance. The interface regularly freezes for 30+ seconds, goes completely blank, then takes another 30 seconds to recover. The application often becomes unresponsive to user input, requiring clicks to reactivate. Despite advertising 50+ tools to the LLM, tools are frequently reported as "not found" on first attempt, then work on retry.
안정성 및 성능: 애플리케이션은 MCP 서버에 문제가 발생하거나 서비스 점검 중일 때 특히 우측 상단에 혼란스러운 오류 메시지를 자주 표시합니다. 인터페이스가 30초 이상 정지하거나 완전히 빈 화면이 된 후 다시 복구되기까지 30초가 더 걸리는 경우가 잦습니다. 애플리케이션이 사용자 입력에 반응하지 않아 클릭을 해야 다시 활성화되는 경우도 많습니다. LLM에 50개 이상의 도구가 있다고 광고하지만, 도구가 처음 시도 시 "찾을 수 없음"으로 자주 보고되며 재시도하면 작동합니다.

User Experience Problems: Loading historical chats takes 5-10 seconds per click, making navigation extremely slow. Chat history is only searchable by auto-generated titles, which are often irrelevant to the actual conversation content. Deleting multiple chats is nearly impossible due to slow loading and poor navigation. No centralized view exists for created artifacts, making them difficult to locate later.
사용자 경험 문제: 과거 채팅 불러오기가 클릭당 5~10초가 걸려 탐색이 매우 느립니다. 채팅 기록은 자동 생성된 제목으로만 검색할 수 있는데, 이 제목들이 실제 대화 내용과 관련 없는 경우가 많습니다. 여러 채팅을 삭제하는 것은 느린 로딩과 열악한 탐색 때문에 거의 불가능합니다. 생성된 아티팩트에 대한 중앙 집중식 뷰가 없어 나중에 찾기 어렵습니다.

Session Management: The application provides insufficient warning about approaching conversation length limits. Previously available warnings have disappeared. The persistent "Claude can't run code...yet" message is misleading given existing tools like REPL and custom MCP implementations.
세션 관리: 애플리케이션은 대화 길이 제한에 근접했을 때 충분한 경고를 제공하지 않습니다. 이전에 제공되던 경고가 사라졌습니다. REPL 및 맞춤 MCP 구현과 같은 기존 도구가 있음에도 불구하고 지속적으로 표시되는 "Claude는 아직 코드를 실행할 수 없습니다" 메시지는 오해의 소지가 있습니다.

Interface Issues: The support chat UI randomly covers interface elements and lacks message editing capabilities. Service status messages are unclear and don't effectively communicate what's happening.
인터페이스 문제: 지원 채팅 UI가 무작위로 인터페이스 요소를 가리며 메시지 편집 기능이 없습니다. 서비스 상태 메시지는 명확하지 않고 현재 상황을 효과적으로 전달하지 못합니다.

Suggestions for Improvement
개선 제안

1. Implement clear conversation length warnings at 75% and 90% capacity
1. 대화 길이 용량이 75% 및 90%에 도달했을 때 명확한 경고를 구현할 것

2. Add an artifacts gallery for easy access to created content
2. 생성된 콘텐츠에 쉽게 접근할 수 있도록 아티팩트 갤러리 추가

3. Improve chat search with content-based indexing, not just titles
3. 제목뿐만 아니라 콘텐츠 기반 인덱싱으로 채팅 검색 개선

4. Optimize chat loading performance to reduce switching delays
4. 전환 지연을 줄이기 위해 채팅 로딩 성능 최적화

5. Provide better error messaging that clearly explains issues and solutions
5. 문제와 해결책을 명확히 설명하는 더 나은 오류 메시지 제공

6. Add bulk management tools for chat organization and deletion
6. 채팅 정리 및 삭제를 위한 대량 관리 도구 추가

7. Remove or update misleading messages about code execution capabilities
7. 코드 실행 기능에 대한 오해를 불러일으키는 메시지 제거 또는 업데이트

Claude Desktop is a critical tool in my workflow, but these issues significantly impact productivity and user experience. The application has tremendous potential, and addressing these concerns would greatly improve its value proposition.
Claude Desktop은 제 작업 흐름에서 중요한 도구이지만, 이러한 문제들은 생산성과 사용자 경험에 큰 영향을 미칩니다. 이 애플리케이션은 엄청난 잠재력을 가지고 있으며, 이러한 문제를 해결하면 가치 제안이 크게 향상될 것입니다.

If continued development isn't prioritized, consider open-sourcing the desktop application to allow the community to contribute improvements.
지속적인 개발이 우선시되지 않는다면, 커뮤니티가 개선에 기여할 수 있도록 데스크톱 애플리케이션을 오픈소스로 전환하는 것을 고려해 보십시오.


big agree on making usage more visible, i have no idea how much i have left of opus, or even sonnet, and the command to check says i have unlimited but that doesnt appear to be the case bc i got cut off of sonnet even on the $100/m plan
사용량을 더 명확히 보여주는 것에 전적으로 동의합니다. opus가 얼마나 남았는지, sonnet은 또 얼마나 남았는지 전혀 모르겠고, 확인하는 명령어는 무제한이라고 나오지만 실제로는 그렇지 않은 것 같아요. $100/월 요금제임에도 불구하고 sonnet이 중단됐거든요.

Where’s your Ed at was right?
Where’s your Ed at가 맞았네요?

Demand > Supply?  수요 > 공급?

No surprise. I always thought it was so pathetically low that it couldn't do much meaningful. I'm sure now if I tried it again, it'd be worse.
놀랍지 않네요. 항상 너무 형편없이 낮아서 의미 있는 일을 할 수 없다고 생각했어요. 지금 다시 시도하면 더 나빠질 거라고 확신합니다.



Consider applying for YC's Fall 2025 batch! Applications are open till Aug 4

Guidelines | FAQ | Lists | API | Security | Legal | Apply to YC | Contact