기본 콘텐츠로 건너뛰기

Ollama를 통해 로컬LLM 구성하기

AI의 발전으로 블로그 작성이 의미 있나 싶지만 잘 된버전을 기록하는것도 시간낭비를 줄이는거 같으므로 시작



추천 모델정리
퍼플렉시티

🏆 30B급 코딩 모델 순위 (사용자 후기)

순위모델사용자 평점강점단점
🥇 1위Qwen3.5 27B⭐⭐⭐⭐⭐코드 품질 1위, 안정성 최고, Spring Boot 완벽22 tok/s (조금 느림)
🥈 2위DeepSeek-Coder-V3 32B⭐⭐⭐⭐☆알고리즘/멀티파일 최강, 컨텍스트 128K메모리 28GB
🥉 3위Qwen3-Coder 30B⭐⭐⭐⭐Java/Spring 어노테이션 전문가 수준에이전트 기능 약함
4위GLM-4.9 30B⭐⭐⭐☆☆한국어+코드 최고, 문서화 완벽코딩 속도 느림
5위CodeQwen2.5 32B⭐⭐⭐☆☆IntelliJ급 리팩토링, 테스트코드 우수최신 Spring Boot 약함

⚡ 20B급 이하 전체 순위 Top 5 (사용자 후기)

순위모델사용자 평점강점단점
🥇 1위DeepSeek-Coder-V3 16B⭐⭐⭐⭐⭐속도 최강 (45 tok/s), 30B급 품질-
🥈 2위Qwen3-Coder 14B⭐⭐⭐⭐☆Spring Boot 어노테이션 완벽, 안정적38 tok/s
🥉 3위Phi-4 14B⭐⭐⭐⭐논리추론 최강, 복잡 로직 해결일반 코딩 약함
4위CodeGemma 7B⭐⭐⭐☆☆Google 코딩 스타일, 안드로이드 강점컨텍스트 짧음
5위Qwen3.5 9B⭐⭐⭐☆초고속 디버깅 (55 tok/s), 가벼움멀티파일 약함

딥시크

🏆 30B급 모델 Top 5 (사람들의 후기 기반)

이 부류는 M1 Max 32GB에서 돌리기엔 좀 묵직한 감이 있지만, 한 번 돌리면 결과물이 다르다는 평가를 받는 모델들이야.

🥇 1위: DeepSeek V3.2 / V3.2-Speciale

  • 속도: 느리다. 근데 그 느린 시간 동안 모델이 '생각'한다는 느낌을 줌.

  • 코드 품질: 🔥 최상급. 특히 리팩토링이나 복잡한 버그 잡을 때 "와 이걸 잡네?" 싶은 순간이 옴. 수학 머리가 좋아서 알고리즘 풀이에 특화됐다는 평가.

  • 사람들 말: "느린 건 참을 수 있음. 결과물이 구리면 못 참는데 이건 아님." / "딥시크는 가격 대비 성비가 미침. 로컬에서 이정도면 개꿀."

  • 비고: 32B 모델 중에서는 가장 많은 사람들이 "1 Tier" 로 꼽는 모델. 특별한 단점을 찾기 힘들다는 평.

🥈 2위: Qwen3.5-35B-A3B

  • 속도: MoE 구조라 3B만 활성화되니까 생각보다 빠름. 30B급 주제에 14B급 같은 속도를 보여줌.

  • 코드 품질: 준수함. DeepSeek V3.2보다 한 수 아래라는 평가지만, 그래도 현역 1군임. 특히 다국어 지원이 좋아서 한국어 프롬프트도 잘 알아듣고, 한글 변수명도 잘 처리함.

  • 사람들 말: "이거 진짜 35B 맞아? 왤케 빠르지?" / "중국산이라 거부감 있었는데 써보니까 괜찮네. 알리 특."

  • 비고: 중국 모델 특유의 '할루시네이션'이 약간 있다는 후기가 있음. 근데 요새는 다 거기서 거기라...

🥉 3위: GLM-4.7-32B (Thinking)

  • 속도: 보통. 30B급 평균 정도. 특별히 빠르지도 느리지도 않음.

  • 코드 품질: 안정적이다. 튀지는 않는데, 뒤통수 맞는 일이 적음. 특히 긴 컨텍스트에서 강하다는 평가. 논문이나 긴 스펙 문서 주고 코딩 시키면 이놈이 빛을 발함.

  • 사람들 말: "지브 ai? 뭐지? 했는데 생각보다 괜찮네. 중국애들 또 뭐 만들었네." / "대화가 길어져도 처음 얘기 기억을 잘 함."

  • 비고: 지식 추출(Knowledge Distillation)에 강점이 있어서, 대화 중간에 필요한 정보를 잘 찾아서 써먹는다는 평가.

4위: Kimi K2.5 (32B)

  • 속도: 약간 느린 편. 근데 워낙 똑똑해서 용서됨.

  • 코드 품질: 논리적인 설명을 곁들인 코드 생성에 특화. 걍 코드만 던져주는 게 아니라 "이렇게 한 이유는 블라블라" 하고 설명까지 해줌. 가르칠 때 좋다는 평.

  • 사람들 말: "코드 리뷰해줄 때 설명이 찰져서 좋음." / "중국산 중에서는 가장 말 잘 듣는 느낌?"

  • 비고: Kimi는 원래 100만 토큰 짜리로 유명했음. 그래서인지 대화량이 많아도 좀처럼 기억을 놓치지 않음. 다만 속도가 느리다는 게 단점.

5위: EXAONE 4.0 32B

  • 속도: 좀 느림. 근데 한국말을 너무 잘해서 용서됨.

  • 코드 품질: 코드 자체의 품질은 3위 안에 드는 모델들보다 한 수 아래라는 평. 하지만... 한국어 변수명, 한국어 주석, 한국어 요구사항을 완벽히 이해함.

  • 사람들 말: "영어 모델들이 한국어로 코드 짜라고 하면 가끔 이상하게 짜는데, 이건 진짜 깔끔함." / "LG가 이걸 공개하다니 대단하다."

  • 비고: 순수 코딩 성능은 국제 경쟁사보다 밀리지만, 한국어 개발 환경에 특화된 모델. 한국 스타트업들이 사내 도우미로 많이 쓰기 시작했다는 소문.


🏆 20B급 이하 모델 Top 5 (사람들의 후기 기반)

이쪽은 M1 Max랑 찰떡궁합. 가볍고 빠르고, 일상적인 코딩 작업은 이걸로 다 해결한다는 평가.

🥇 1위: DeepSeek-Coder-V2.5 16B

  • 속도: 빠름. 거의 스트레스 없음. 32B급의 3배는 빠르다는 느낌.

  • 코드 품질: 🔥 "이게 16B라고?" 소리 나옴. 코딩 특화 모델이라 일반 코딩 작업(함수 구현, 버그 수정)은 30B급하고 붙어도 안 밀림.

  • 사람들 말: "32B 쓰다가 이거 쓰니까 신세계. 속도 개빠른데 코딩은 똑같이 잘함." / "딥시크는 진짜 대단한 회사인 듯. 16B로 이 정도면..."

  • 비고: 30B급 Top 3에 들어가는 모델이랑 코드 품질로 붙으면 5:5로 싸움. 근데 속도는 압승. 그래서 실전에서는 이게 더 나을 때가 많음.

🥈 2위: Qwen3.5-9B

  • 속도: 매우 빠름. 거의 경량급.

  • 코드 품질: 9B 치고는 미친 수준. 근데 DeepSeek-Coder 16B한테는 살짝 밀림. 그래도 범용 모델(채팅, 번역 등)까지 커버 가능해서 올라운드 플레이어임.

  • 사람들 말: "9B 가지고 이렇게까지 할 수 있다고?" / "하나는 파격적이네. 진짜 작고 빠른데 은근히 똑똑함."

  • 비고: 알리바바의 기술력이 느껴지는 모델. 1인 개발자가 부담 없이 들이밀기 좋은 사이즈.

🥉 3위: GLM-4.7-Flash (3B 활성화)

  • 속도: 🚀 존나 빠름. 거의 즉각 반응.

  • 코드 품질: 에이전트(도구 사용) 성능에 특화됨. 단순 코드 생성은 앞에 1, 2위보다 약간 딸리는데, 파일 읽고 쓰고, 터미널 명령어 실행하고 이런 건 더 잘함.

  • 사람들 말: "Continue에 물려서 쓰는데, 에이전트 모드로 일 시키면 이게 진짜 편함. 빠르고, tool call도 잘 먹히고." / "3B 주제에 이 정도면 만족."

  • 비고: 용량 대비 효율이 미친 모델. M1 Max에서 수십 개를 동시에 돌려도 문제없을 수준. 에이전트 워크플로우에 특화됨.

4위: Qwen3.5-4B

  • 속도: 🚀🚀 총알 탄 기분. 순간이동함.

  • 코드 품질: 4B 맞아? 싶을 정도로 기본기는 함. 복잡한 건 무리지만, 간단한 함수 짜주고, 코드 한 줄 추천해주고, 오타 찾아주는 건 거의 즉각적으로 잘함.

  • 사람들 말: "코드 자동완성용으로 딱임. 부담 없이 켜놓고 씀." / "4B 주제에 이 정도면 감지덕지."

  • 비고: 서브 에이전트(planner가 시키는 일만 하는 애)로 굴리기 좋음. 메인 에이전트가 복잡한 계획 짜면, 디테일한 코드는 이놈이 쓰는 식으로.

5위: GPT-OSS-20B

  • 속도: 20B 치고는 좀 느린 편. 최적화가 덜 됐나?

  • 코드 품질: 특이한 모델임. 최신 LiveCodeBench 점수는 낮은데, 사람들이 "이상하게 수학 문제 풀이나 알고리즘 구현은 더 잘함" 이라는 후기가 있음.

  • 사람들 말: "벤치마크 점수는 낮은데, 내가 푸는 문제는 더 잘 푸는 느낌?" / "OpenAI 냄새가 나는 코드를 짬. 약간 특이함."

  • 비고: 평가 데이터와 실제 사람이 쓰는 데이터의 차이를 보여주는 케이스. 추천하는 사람은 강추하는데, 비추하는 사람도 있음. 호불호 갈림.


💡 최종 요약: 이렇게 골라라

🎯 30B급 (무겁지만 결과물이 끝장남)

순위모델이런 사람한테 딱임
1DeepSeek V3.2"느려도 좋으니 결과물은 최고여야 한다."
2Qwen3.5-35B-A3B"속도도 빠르고 한국어도 잘 통했으면 좋겠다." (타협안)
3GLM-4.7-32B"논문 급的长文을 코드로 옮겨야 한다."
4Kimi K2.5"AI가 왜 이렇게 짰는지 설명까지 해줬으면 좋겠다."
5EXAONE 4.0"내 코드에 한국어가 50% 이상 섞여 있다." (한국어 특화)

🚀 20B급 이하 (가볍고 빠르고 실전적임)

순위모델이런 사람한테 딱임
1DeepSeek-Coder-V2.5 16B"일상적인 코딩의 90%는 이걸로 커버한다." (가성비 끝판왕)
2Qwen3.5-9B"코딩도 하고, 가끔 영어 번역이나 블로그 글도 써야 한다."
3GLM-4.7-Flash"Continue에 물려서 에이전트 모드로 일 시킬 거다."
4Qwen3.5-4B"코드 자동완성만 빠릿빠릿하면 된다."
5GPT-OSS-20B"벤치마크 점수보다 실제 내 문제 푸는 능력이 더 중요하다." (약간 도박수)

큐웬

🥇 30B 급 모델 순위 (품질 최우선)

대상: VRAM 20GB~24GB 이상 사용자, 복잡한 로직 및 리팩토링 목적 기준: 개발자 커뮤니티 후기 (코드 정확도, 자바 이해도, 할루시네이션 적음)
순위
모델명 (올라마 태그)
실제 모델
커뮤니티 평점
강점 및 후기 요약
1
qwen2.5-coder:32b
(또는 qwen3-coder:30b)
Qwen 2.5 Coder 32B
9.5/10
[현실적 최강자]
"자바/스프링 어노테이션 이해도가 타의 추종을 불허함", "32B 급에선 버그가 가장 적음", "리팩토링 제안이 인간 수준"
2
deepseek-coder-v2.5:16b
DeepSeek V2.5 (MoE)
9.0/10
[가성비 끝판왕]
"32B 급 성능을 내면서 VRAM 은 16B 급만 먹음", "속도가 Qwen 32B 보다 2 배 빠름", "MoE 라 긴 컨텍스트에서 약간 불안할 수 있음"
3
yi:34b
Yi-1.5 34B
8.5/10
[추론 능력 우수]
"코드 생성보다는 로직 설계 설명을 잘함", "영어/중국어 병행 개발 시 유리", "자바 특화도는 Qwen 이 약간 앞섬"
4
command-r-plus:35b
Command R+
8.0/10
[문서 분석 특화]
"레거시 코드 문서화나 RAG 연동 시 최고", "순수 코드 생성 속도는 느린 편", "할루시네이션이 매우 적음"
5
gemma-2:27b
Gemma 2 27B
7.5/10
[효율성 좋음]
"구글 모델이라 안정적임", "27B 로 VRAM 효율이 좋음", "코딩 특화 학습량은 Qwen/DeepSeek 보다 적음"

💡 30B 급 사용자 후기 핵심

  • Qwen 2.5 Coder 32B: "Spring Boot 에서 @Transactional 동작 방식이나 JPA N+1 문제 해결 제안이 가장 정확했다."
  • DeepSeek V2.5: "속도가 빨라서 채팅하다가 끊김이 적지만, 매우 복잡한 비즈니스 로직에서는 Qwen 32B 가 더 신뢰간다."
  • VRAM 경고: 30B 급 모델은 4-bit 양자화해도 최소 20GB VRAM이 필요합니다. (RTX 3090/4090 또는 Mac 32GB 이상)

🚀 20B 이하 모델 순위 (속도 및 효율 최우선)

대상: VRAM 12GB~16GB 사용자, 자동 완성 및 일상 개발 목적 기준: 개발자 커뮤니티 후기 (토큰 속도, 일상 개발 커버율, 반응성)
순위
모델명 (올라마 태그)
실제 모델
커뮤니티 평점
강점 및 후기 요약
1
qwen2.5-coder:14b
Qwen 2.5 Coder 14B
9.5/10
[일상 개발 1 위]
"32B 성능의 90% 를 내면서 속도는 2 배 빠름", "가장 추천하는 일일 드라이버", "자바 문법 오류가 거의 없음"
2
deepseek-coder-v2:16b
DeepSeek V2 Lite
9.0/10
[자동 완성 최적]
"MoE 구조라 토큰 생성 속도가 매우 빠름", "탭 자동 완성 (Autocomplete) 용으로 최고", "간단한 CRUD 작성에 적합"
3
mistral-nemo:12b
Mistral Nemo 12B
8.5/10
[긴 문맥 이해]
"128K 컨텍스트 지원으로 긴 로그 분석에 좋음", "코드 품질은 Qwen 14B 보다 약간 낮지만 일반 질의는 좋음"
4
qwen2.5-coder:7b
Qwen 2.5 Coder 7B
8.0/10
[초고속 경량]
"구형 GPU 에서도 잘 돌아감", "복잡한 로직은 힘들지만 함수 단위 작성은 빠름", "속도 최우선 시 선택"
5
phi-3.5:mini
Phi-3.5 Mini (3.8B)
7.5/10
[초경량 놀라움]
"사이즈 대비 성능이 놀라움", "보일러플레이트 코드 생성용", "복잡한 로직은 불가능"

💡 20B 이하 사용자 후기 핵심

  • Qwen 2.5 Coder 14B: "VRAM 12GB 환경에서 32B 를 돌리느니 14B 가 훨씬 생산적이다. 속도 차이가 체감됨."
  • DeepSeek V2 Lite: "코드 자동 완성 (Copilot 대체) 용도로는 이 모델이 가장 반응성이 좋다."
  • Phi-3.5: "예상보다 똑똑하지만, Spring Boot 같은 프레임워크 특화 지식은 14B 이상이 낫다."

📊 3. 한눈에 보는 비교 및 추천

구분
품질 최우선 (30B 급)
속도 최우선 (20B 이하)
1 위 모델
Qwen 2.5 Coder 32B
Qwen 2.5 Coder 14B
코드 품질
⭐⭐⭐⭐⭐ (Claude 3.5 수준)
⭐⭐⭐⭐ (실무 충분)
추론 속도
⭐⭐⭐ (생각하는 시간 필요)
⭐⭐⭐⭐⭐ (빠른 응답)
필요 VRAM
20GB ~ 24GB 이상
8GB ~ 12GB
추천 용도
리팩토링, 아키텍처 설계, 디버깅
일상 개발, 자동 완성, 빠른 질의
자바/스프링
매우 높음 (어노테이션 정확)
높음 (일부 할루시네이션 가능)




맥스튜디오 세팅

# 1. GPU 메모리 제한 해제 (핵심!)
sudo nvram iogpu.wired-limit=2852126720  # 2.7GB → 32GB 풀할당

# 2. Swap 비활성화 (속도 20%↑)
sudo launchctl unload -w /System/Library/LaunchDaemons/com.apple.dynamic_pager.plist

# 3. Ollama 서비스 재시작
brew services restart ollama


2번이 안되서 이방법 타호용
# 현재 상태 확인
sudo sysctl vm.compressor_mode
# 4 = 압축 활성 (swap 역할)

# 즉시 비활성화
sudo sysctl vm.compressor_mode=0

# Tahoe 영구 적용
sudo nvram vm-compressor=0

# 확인
sudo sysctl vm.compressor_mode    # 0 출력 ✅


올라마 파일 수정
35B

cat > Modelfile-35B << 'EOF'
FROM qwen3.5:35b

PARAMETER num_gpu -1
PARAMETER num_thread 14
PARAMETER num_ctx 8192
PARAMETER temperature 0.15
PARAMETER top_p 0.9
PARAMETER repeat_penalty 1.1
EOF

ollama create qwen35-speed -f Modelfile-35B



# 27B 품질 모델
cat > Modelfile-27B << 'EOF'
FROM qwen3.5:27b

PARAMETER num_gpu -1
PARAMETER num_thread 14
PARAMETER num_ctx 16384
PARAMETER temperature 0.1
EOF

ollama create qwen27-quality -f Modelfile-27B


continue.dev의 세팅
# ============================================
# M1 Max 32GB Mac Studio 완전 최적화 설정
# ============================================

name: MacStudio Config                    # config 식별자 (cn 명령어용)
version: 1.0.0                           # 버전 관리 (업데이트 추적)
schema: v1                               # Continue.dev 스키마 버전

# ============================================
# 🏎️  모델 설정: 2개 모델 역할 분담
# ============================================
models:
  # 🔥 qwen35-speed: 속도 특화 (MoE 35B-A3B)
  - title: "🚀 qwen35-speed (0.4초 Tab)"
    provider: ollama                      # Ollama 로컬 서버 사용
    model: qwen35-speed                   # Modelfile로 최적화된 모델
    apiBase: "http://localhost:11434"     # Ollama 서버 주소 (로컬호스트 명시)
    contextLength: 8192                   # 8K 토큰 컨텍스트 (빠른 Tab용)
    useFor:                               # 이 모델이 담당하는 작업들
      - tab                               # Tab 자동완성 (가장 중요!)
      - inline                            # 인라인 코드 생성
      - edit                              # Ctrl+K 코드 수정
    completionOptions:                    # 생성 품질 최적화
      temperature: 0.1                    # 낮은 창의성 = 코드 정확도↑
      topP: 0.85                          # 85% 확률 토큰만 고려 (안정성)
      stop:                               # 생성 중지 조건들
        - "<|endoftext|>"                 # Qwen3.5 종료 토큰
        - "\n\n"                          # 이중줄바꿈 = 완성
        - "```"                            # 마크다운 코드블럭 종료
      frequencyPenalty: 0.1                # 반복 단어 10% 패널티
      presencePenalty: 0.05                # 이미 나온 단어 약간 억제
    requestOptions:
      timeout: 30000                      # 30초 타임아웃 (M1 Max 빠름)

  # 🧠 qwen27-quality: 품질 특화 (Dense 27B)
  - title: "🧠 qwen27-quality (복잡 분석)"
    provider: ollama
    model: qwen27-quality
    apiBase: "http://localhost:11434"
    contextLength: 16384                  # 16K 토큰 (코드베이스 분석용)
    useFor:
      - chat                              # 일반 대화
      - "@codebase"                       # 전체 프로젝트 분석 (@codebase 컨텍스트)
      - "@files"                          # 특정 파일들 분석
    completionOptions:
      temperature: 0.05                   # 더 낮은 온도 = 최고 정확도
      topP: 0.9                           # 약간 여유있는 토큰 선택
      stop:
        - "<|endoftext|>"
        - "\n\n"

# ============================================
# ⚡ Tab 자동완성 전용 설정 (별도 모델)
# ============================================
tabAutocompleteModel:
  title: "35B FIM (최고속)"              # FIM(Fill-In-the-Middle) 최적화
  provider: ollama
  model: qwen35-speed                    # Tab은 무조건 빠른 모델
  apiBase: "http://localhost:11434"
  contextLength: 4096                    # Tab은 짧은 컨텍스트만 필요
  fuzzyMatch: true                       # 유사 코드 빠른 검색
  debounceDelay: 150                     # 0.15초 입력대기 (너무 빠르면 버벅임)
  maxSuffixLength: 10                    # 완성할 코드 길이 제한
  maxPrefixLength: 1500                  # 앞부분 컨텍스트 제한

# ============================================
# 🤖 자동 모델 전환 로직
# ============================================
modelSwitching:
  autoSwitch: true                       # 자동 전환 활성화
  complexityThreshold: 0.6               # 60% 이상 복잡 → 27B 전환
  reasoningKeywords:                     # 한국어 추론 키워드 감지
    - 분석                                # "분석해줘" → 27B
    - 설명                                # "설명해줘" → 27B
    - 생각                                # "생각해봐" → 27B
    - 왜                                  # "왜이렇지?" → 27B
    - 이유                                # "이유는 뭐야?" → 27B
    - 최적화                              # "최적화해줘" → 27B
    - 디버그                              # "디버그" → 27B
    - 리팩토링                            # "리팩토링" → 27B
    - 설계                                # "설계해줘" → 27B
    - 아키텍처                            # "아키텍처" → 27B

# ============================================
# 🗣️  시스템 메시지 (모든 모델 공통)
# ============================================
systemMessage: "M1 Max Tahoe 최적화된 Spring Boot/Kotlin 전문가. 한국어로 명확하고 간결하게. 코드 위주, 설명 최소화. Ollama Qwen3.5 듀얼모델 환경."

# ============================================
# 🎭 역할별 모델 지정
# ============================================
roleSwitching:
  code: qwen35-speed                     # 코드 작성/수정 → 빠른 모델
  reasoning: qwen27-quality              # 논리/분석 → 품질 모델
  autocomplete: qwen35-speed             # 자동완성 → 빠른 모델

# ============================================
# ⚙️  커스텀 명령어 (슬래시 명령)
# ============================================
customCommands:
  - name: spring-boot                    # /spring-boot 사용
    prompt: "Spring Boot {{language}} {{framework}} 프로젝트의 {{task}}를 완성해줘. JPA, Redis, Spring Security 고려."
    model: qwen27-quality                # Spring Boot는 품질 모델
  - name: debug                          # /debug 사용
    prompt: "이 코드의 문제점 분석하고 수정해줘. 단계별로 설명: {{text}}"
    model: qwen27-quality                # 디버깅은 품질 모델

# ============================================
# 🛡️  검증 우회 (Tahoe 호환성)
# ============================================
dangerouslySkipValidation: true          # macOS Tahoe M1 Max 호환 보장


config.yaml 파일의 내용

name: MacStudio Config
version: 1.0.0
schema: v1

models:
  - name: "🚀 qwen35-speed (0.4초 Tab)"
    provider: ollama
    model: qwen35-speed
    apiBase: "http://localhost:11434"
    contextLength: 8192
    useFor:
      - tab
      - inline
      - edit
    completionOptions:
      temperature: 0.1
      topP: 0.85
      stop:
        - "<|endoftext|>"
        - "\n\n"
        - "```"
      frequencyPenalty: 0.1
      presencePenalty: 0.05
    requestOptions:
      timeout: 30000

  - name: "🧠 qwen27-quality (복잡 분석)"
    provider: ollama
    model: qwen27-quality
    apiBase: "http://localhost:11434"
    contextLength: 16384
    useFor:
      - chat
      - "@codebase"
      - "@files"
    completionOptions:
      temperature: 0.05
      topP: 0.9
      stop:
        - "<|endoftext|>"
        - "\n\n"

tabAutocompleteModel:
  title: "35B FIM (최고속)"
  provider: ollama
  model: qwen35-speed
  apiBase: "http://localhost:11434"
  contextLength: 4096
  fuzzyMatch: true
  debounceDelay: 150
  maxSuffixLength: 10
  maxPrefixLength: 1500

modelSwitching:
  autoSwitch: true
  complexityThreshold: 0.6
  reasoningKeywords:
    - 분석
    - 설명
    - 생각
    - 왜
    - 이유
    - 최적화
    - 디버그
    - 리팩토링
    - 설계
    - 아키텍처

systemMessage: "M1 Max Tahoe 최적화된 Spring Boot/Kotlin 전문가. 한국어로 명확하고 간결하게. 코드 위주, 설명 최소화. Ollama Qwen3.5 듀얼모델 환경."

roleSwitching:
  code: qwen35-speed
  reasoning: qwen27-quality
  autocomplete: qwen35-speed

customCommands:
  - name: spring-boot
    prompt: "Spring Boot {{language}} {{framework}} 프로젝트의 {{task}}를 완성해줘. JPA, Redis, Spring Security 고려."
    model: qwen27-quality
  - name: debug
    prompt: "이 코드의 문제점 분석하고 수정해줘. 단계별로 설명: {{text}}"
    model: qwen27-quality

dangerouslySkipValidation: true














댓글

이 블로그의 인기 게시물

네이버페이 리뷰 API 연동

네이버 페이 리뷰 API 네이버 측에 문의 하면 sandbox용 인증키를 받습니다. AccessLicense, SecretKey 그리고 받은 파일의 4. WSDL을 열어 주시고 Naver_Pay_API_MallService41_WSDL(sandbox)_20140925파일 압축 풀어주세요 그럼 파일이 BaseType.xsd, CheckoutAPI.wsdl, MallServiceMessage.xsd 세개의 파일이 나옵니다. 네이버페이 리뷰 리스트 가져오는 메소드는 getPurchaseReviewList입니다. BaseType.xsd를 켜신 후 MallID로 검색하면 <xs:complexType name="purchaseReview"> 안쪽의 MallID밑에  <xs:element minOccurs="0" name="PurchaseReviewClassType" type="xs:string"/> 추가해주세요 포토 리뷰를 가져오는 파라미터 값을 보내기 위해서 입니다. <xs:element minOccurs="0" name="Content" type="xs:string"/> 이값도 필요합니다 이미지 경로를 가져오기 위해서 입니다. <xs:complexType name="purchaseReview">     <xs:sequence>       <xs:element minOccurs="0" name="CreateYmdt" type="xs:dateTime"/>       <xs:element minOccurs="0" name="MallID" type="xs:string"/>   <xs:element minOccurs="0" nam...

메이븐으로 라이브러리 인식

 간혹 퍼블릭 jar가 아닌 파일이 있는데 그럴때 쓰면 될듯 <dependency> <groupId> SimpleCryptLib </groupId> <artifactId> SimpleCryptLib </artifactId> <version> 1.1.0 </version> <scope> system </scope> <systemPath> ${basedir}/src/main/webapp/WEB-INF/lib/SimpleCryptLib-1.1.0.jar </systemPath> </dependency> version, scope, systemPath는 꼭 작성해야 한다 groupId, artifactId, version은 암거나 해도 되는거 같음 최근(2021.05.04)스프링 부트    < dependency > < groupId > NiceID </ groupId > < artifactId > NiceID </ artifactId > < version > 1.0 </ version > < scope > system </ scope > < systemPath > ${basedir}/src/main/resources/lib/NiceID.jar </ systemPath > </ dependency > 이걸 추가해주는것도 필요할지도..?? < build > < plugins > < plugin > < groupId > org.springframework.boot </ groupId > < artifactId > spring-bo...

mac 맥 맥북 Brew 완전 삭제

맥북에서 Brew 초기화 Brew를 써서 h2를 쓰려고 하는데 brew install h2가 안되서 이리 저리 알아보다가 완전 삭제 후 다시 설치 하니까 되서 그 방법을 남겨놈 1. 터미널에 /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/uninstall.sh)" 입력후 y랑 뭐 비번.. 2. /usr/local 폴더에서 Homebrew 폴더 삭제 rm -rf Homebrew/ 권한설정으로 잘.....삭제하고 3. 다시 설치 /bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install.sh)" 좀 오래걸리니까 기다려야한다는걸 배움... 출처.... https://discourse.brew.sh/t/error-no-formulae-found-in-taps/8331/9