읽기 설정
저는 버그투성이 코드도 좋아해요. 정말요. 저는 Anthropic의 Opus 4.5 모델이 지금까지 본 최고의 코딩 모델 중 하나라고 생각해요. 하지만 문제가 있어요. 정말 비싸거든요.00:00
만약 저처럼 개발을 많이 하시는 분이라면, 20달러짜리 월정액 요금제에 만족하지 않으실 겁니다. 아마 AI를 활용해서 React 컴포넌트 작성을 돕기 위해 월 200달러 정도의 요금이 발생할 수도 있습니다.00:10
정말 엄청나네요. 그런데 제가 말씀드리면, 터미널 에이전트, 파일 편집, 툴 호출 기능까지 90% 정도 경험하실 수 있는데, 비용은 딱 0달러입니다.00:20
API 키도 없고, 토큰에 대한 걱정도 없고, 데이터도 여러분의 컴퓨터를 떠나지 않아요. 00:30
그리고 2026년이 오픈 소스 모델의 해가 될 거라고 정말 생각해요.00:35
그리고 이건 시작에 불과합니다. 더 빨리 배우실수록 실력이 더 좋아지죠. 그래서 오늘, 저희는 로컬 환경으로 넘어가도록 하겠습니다. 제가 안트로픽스 백엔드를 로컬 파워하우스로 교체하는 방법을 보여드리겠습니다.00:39
라마와 몇 가지 교묘한 프록시를 이용해서 여러분의 컴퓨터에서 바로 실행되는 무료 클라우드 코드 킬러를 만들 거예요. 지금 당장은 Opus 4.5만큼 똑똑하지는 않을 수도 있겠죠.00:48
오늘 말씀드릴 강력한 오픈 소스 모델들을 활용하면 대부분의 작업을 수행할 수 있습니다. 그럼 바로 시작해서 작동 방식을 보여드리겠습니다. 예를 들어, Remotion 앱을 만들거나 Hello World Next.js 애플리케이션을 구축하는 문제가 있다고 가정해 보겠습니다. 기본적으로 어떤 일이 일어나는지 살펴보겠습니다.01:00
클라우드 코드 플랜에 가입하시면 프로 플랜이나 다양한 플랜에서 클라우드 코드 모델, 특히 옵서스 4.5, 4.1, 그리고 A 모델에 접근하실 수 있습니다.01:15
다양한 다른 모델들이 있고, 아마 한 달에 200달러 정도 지불하게 되실 텐데요. 결제하시는 금액은 그들의 인프라를 사용하시는 비용입니다. 클라우드 기반으로 운영되며, 훌륭한 모델들에 접근할 수 있는 권한을 제공받으시는 것이죠. 따라서 그들이 사용자님의 서비스를 실행하는 책임을 지게 됩니다.01:26
질문하실 내용이 있으시면 언제든지 편하게 질문해 주시면 됩니다. 반드시 사용하시는 하드웨어를 활용하는 것은 아니며, 엔트로피를 활용합니다. 하지만 오늘 저희가 하는 일은 완전히 오픈 소스로 공개하는 것입니다.01:41
저희는 오픈 소스 모델을 동일한 작업에 활용할 예정입니다. 다만, 저희가 직접 여러분의 컴퓨터에서 실행할 것이며, 이것이 이 특정 접근 방식의 단점 중 하나입니다.01:52
이 모델들을 실행하려면 꽤 강력한 하드웨어가 필요하고, 그래야 만족스러운 결과를 얻으실 수 있습니다.02:05
저기 정말 멋진 오픈 소스 모델들이 많이 있습니다. LLM3, GLM OCR, GLM 4.7 Flash 같은 것들이 있죠.02:12
이런 모델들은 모두 훌륭하고, 코딩 작업에 정말 유용합니다.02:18
앤트로픽이나 커서, 그리고 이와 같은 유료 프리미엄 모델에 돈을 지불하실 필요는 없습니다. 올라마를 사용하여 이러한 오픈 소스 모델을 로컬에서 실행하실 수 있습니다. 대신, 고객님의 자원을 사용하게 됩니다.02:22
컴퓨터죠, 정확히 지금부터 설정해 보겠습니다. 우선 olama.com으로 들어가서 오라마를 다운로드받으셔야 합니다. 그래야 모델을 실행할 수 있습니다.02:33
올라마는 오픈 모델을 사용하여 작업을 자동화하고 데이터를 안전하게 유지하는 가장 쉬운 방법입니다. 이 방법의 또 다른 장점은 데이터를 직접 소유하게 된다는 점입니다. 데이터가 전혀 빠져나가지 않습니다. 왜냐하면 여러분의 특정 기계에서 실행하기 때문입니다.02:43
모델을 살펴보시면, 세상에 존재하는 다양한 오픈 소스 모델들이 있습니다. 인기순으로 정렬할 수 있고, 각 모델이 어떤 점이 좋고, 다운로드 횟수가 얼마나 있는지 등 다양한 정보들을 확인할 수 있습니다.02:57
그래서, 첫 번째 단계는 Ollama를 이용해서 이 모델들을 실행해야 합니다. 두 번째로, 이 중에서 하나를 골라서 로컬 컴퓨터에서 실행해야 합니다. 제가 이미 Ollama를 가지고 있어서, Ollama가 어떻게 생겼는지 보여드릴게요.03:09
여기 보시는 것처럼 간단한 윈도우이고, 여기에서 다양한 모델들을 선택하거나 찾아보실 수 있습니다. 그리고 간단히 여러분의 컴퓨터에 다운로드하시면 됩니다. 이렇게, 제가 선택한 gpt oss 20b 모델처럼 말씀이죠.03:19
다운로드했는데, 제가 선택해서 원하는 무엇이든 물어볼 수 있습니다. 예를 들어, 제가 그냥 '안녕하세요'라고 말하면, 이 모델은 제가 여기에서 '안녕'이라고 말했더니 '안녕하세요. 오늘 무엇을 도와드릴까요?'라고 대답하는 것처럼 생각하게 됩니다. 마찬가지로 '안녕하세요'라고 말하면 '안녕하세요. 오늘 무엇을 도와드릴까요?'라고 대답합니다. 이 모델을 구해야 합니다.03:33
그분들은 이미 다운로드했고, Corcor를 사용하여 이 특정 모델을 선택하도록 했습니다. 자, 이제 그렇게 해보겠습니다. 2단계는 터미널을 설치하는 것입니다. 예를 들어, CloudCode를 사용하여 방금 다운로드한 모델로 전환하려면 터미널 설치가 필요할 수 있습니다.03:48
따라서, CloudCode를 로컬 환경에 설치하는 것도 잊지 마시고, 사용하시는 운영체제에 따라 설치 방법이 조금씩 다를 수 있습니다.04:03
이상적으로는 터미널에서 Cloud를 검색하면 자동으로 이런 게 나타날 거예요. 네라고 말하면 CloudCode가 터미널에서 실행될 거예요.04:11
보시는 것처럼 Cloud Code가 Opus 4.5를 실행하고 있습니다. 저희가 설치한 로컬 모델로 이걸 전환하고 싶으실 거예요. 그리고 Olama를 다운로드하시면, 이렇게 간단하게 Olama라고 입력하시면 됩니다.04:23
가지고 있는 다양한 모델들을 로컬에서 확인하려면 다운로드한 모델이 무엇이든 'list' 명령어를 입력하시면 됩니다. 그리고 이 모델, GPT OSS 20D는 13기가바이트 크기라는 것을 확인할 수 있습니다.04:34
로컬에 다운로드되어 있습니다. 마찬가지로 이 모델도 최신 모델도 모두 로컬에 설치되어 있고요. 이제 클로드에게 오라마가 어디에서 실행 중인지 알려줘야 합니다. 그래야 클로드가 그걸 가리키게 되니까요. 그래서, 저희는...04:48
앤트로픽 베이스 URL이라는 환경 변수 두 개가 필요합니다. 이 변수는 localhost 11434 포인트를 가리켜야 하는데, 이 포트에서 올라마가 실행되고 있습니다. 클로드도 그렇습니다.05:00
API 키를 요구하므로, 임시 값이나 더미 값을 넣어주셔야 합니다. 그렇지 않으면 오류가 발생할 수 있습니다. 따라서, 'anthropic auth underscore token'을 다시 설정해주시면 됩니다.05:14
그리고 어떤 값이라도 제이비러시 값에 할당해도 괜찮습니다. 지금부터 이 두 값을 토큰으로 설정하겠습니다. 이제 이 두 값이 설정되었으니 클라우드 코드가 설치된 모델을 선택하도록 해야 합니다. 이를 위해 클라우드 아이를 자주 사용하겠습니다.05:25
모델에 가져와서 모델을 선택해야 해요. 그냥 이 모델을 선택하고 설정해 볼게요. 플롯이 이미 실행 중이고, 이제 GPT 모델을 가지고 있습니다.05:38
GPT OSS 20B입니다. 모델을 실행할 폴더에 이미 있는지 확인하세요.05:51
자, 여기, Hello World Next.js 앱을 만들겠다고 말씀드리겠습니다.05:56
결과가 어떻게 나오는지 한번 살펴볼까요. 다시 한번 말씀드리면, GPT OSS 20B를 사용하고 있습니다.06:02
이 쿼리를 기본적으로 파싱하고, 계산하고, 실행할 거예요. 기억해 두세요, 응답 시간은 하드웨어, 제가 가진 RAM 용량, 제 컴퓨터의 성능 등에 따라 완전히 달라져요.06:07
만약 모델을 더 빠르게 사용하고 싶으시다면, 더 빠른 속도로 실행될 수 있고, 그만큼 많은 하드웨어를 필요로 하지 않는 모델을 선택하시는 것이 좋겠습니다. 이미 진행 여부를 묻고 있는데, 저는 진행하겠습니다.06:19
네, 그렇게 진행해주십시오. 이미 좋은 징조입니다. 보시다시피 이 특정 로컬 모델은 이미 실행 중이고, 따라서 데이터가 여러분의 컴퓨터를 떠나지 않을 것입니다. 자, 이제 확인해 보겠습니다.06:30
무슨 일이 다음으로 일어날까요? 생각 중이고, 저는 그냥 네라고 말하겠습니다. 현재 디렉터리입니다. TypeScript로 진행해 봅시다. 답을 제출할 준비가 되었네요. 보통 물어보는 모든 질문도 묻고 있네요.06:40
로컬에 설치해 놓은 모델을 이용해서 코드를 작성할 텐데요, 정말 멋진 기술이에요. 자, 여기 보시는 것처럼 패키지.json 파일이 이미 생성되었고, 저는 이제...06:52
패키지.json, tsconfig.json 등 모든 파일을 허용하기 위해 2를 사용하려고 하고, 지금 그것들을 작성할 준비도 하고 있습니다. 이 점을 기억해 주십시오. 라우터를 설치하도록 지시하지 않았습니다.07:02
넥스트JS 앱 라우터 대신 넥스트JS 페이지 라우터를 사용하셨군요. 괜찮습니다, 큰 문제는 아니고요. 이제 필요한 의존성들을 설치하신 후에 개발을 시작하실 수 있습니다.07:16
서버를 시작하기 위해 새로운 터미널을 열고 npm run dev 명령어를 실행한 다음 localhost 3000으로 접속하면 됩니다. 자, 이렇게 Next.js 앱이 준비되었습니다. 간단한 Hello World Next.js 앱인데, 어떤가요?07:26
바로 찾고 있는 딱 그 모습입니다. 클라우드 코드를 이용하여 로컬 모델을 실행하면서도 우리가 클라우드 코드에서 정말 좋아하는 모든 기능을 그대로 얻을 수 있는 방식이죠.07:39
AI Summary
Anthropic의 Opus 4.5 모델처럼 뛰어난 코딩 성능을 제공하지만 비싸다는 문제점을 해결하기 위해, 이 영상은 로컬 환경에서 유사한 기능을 무료로 사용할 수 있는 방법을 제시해요. Ollama를 사용하여 오픈 소스 모델을 쉽게 다운로드하고 실행할 수 있으며, 데이터 유출 걱정 없이 안전하게 사용할 수 있다는 장점이 있어요. 2026년에는 오픈 소스 모델이 더욱 발전할 것으로 예상되므로, 로컬 개발 환경 구축의 중요성을 강조하고 있답니다.
Key Highlights
- •Anthropic Opus 4.5 모델의 높은 비용을 무료로 해결하는 방법 제시
- •Ollama를 사용하여 오픈 소스 모델을 간편하게 다운로드하고 실행하는 방법 안내
- •API 키, 토큰, 데이터 유출 걱정 없이 로컬 환경에서 안전하게 사용 가능
- •GPT OSS 20B와 같은 강력한 오픈 소스 모델 활용 가능
- •2026년 오픈 소스 모델 발전과 로컬 개발 환경 구축의 중요성 강조


