SOLAR 10.7B
SOLAR 10.7B
한 줄 요약
한국 스타트업 업스테이지(Upstage)가 만든 107억 개 파라미터의 한국어 특화 대형 언어 모델.
쉬운 설명
SOLAR 10.7B는 한국어를 가장 잘하는 AI 모델 중 하나이다.
기본 정보:
- 개발사: 업스테이지 (Upstage, 한국 AI 스타트업)
- 출시: 2024년
- 크기: 10.7B (107억 개 파라미터)
- 특징: 한국어 특화, 오픈소스
“10.7B”가 뭔가요?
- B = Billion (10억)
- 10.7B = 107억 개의 파라미터 (가중치)
- 파라미터 = AI의 “뇌세포” 같은 것
크기 비교:
작은 모델: 1B~3B (스마트폰에서도 실행 가능)
중간 모델: 7B~13B (개인 PC에서 실행) ← SOLAR 10.7B 여기!
큰 모델: 30B~70B (고성능 서버 필요)
초거대: 175B+ (GPT-3.5, GPT-4 등)
왜 “한국어 특화”인가?
- 한국어 데이터 중심 학습: 영어보다 한국어 데이터를 더 많이 학습
- 한국어 토크나이저: 한국어 형태소 분석에 최적화
- 한국 문화/맥락: 한국 고유 표현, 문화 이해
예시: 한국어 성능 비교
영어 중심 모델 (Llama-2 13B):
질문: "대한민국의 수도는?"
답: "서울입니다." ✓ (기본적인 질문은 OK)
질문: "추석에 먹는 대표적인 음식은?"
답: "월병입니다." ✗ (중국 음식 잘못 답함)
SOLAR 10.7B:
질문: "추석에 먹는 대표적인 음식은?"
답: "송편입니다." ✓ (한국 문화 정확히 이해)
핵심 포인트
- 한국어 특화: 한국어 이해/생성 능력 우수
- 오픈소스: Hugging Face에서 무료로 다운로드 가능
- 중간 크기: 개인/중소기업도 사용 가능 (고성능 서버 필요 없음)
- 상업적 이용: 라이선스가 자유로워 실무 적용 가능
관련 개념
- Qwen2.5 - 비교 대상 모델 (다국어 모델)
- Fine-tuning - SOLAR을 특정 목적에 맞게 Fine-tuning
- LoRA - SOLAR을 효율적으로 Fine-tuning하는 방법
- KoBEST - SOLAR의 한국어 능력 평가 벤치마크
- MMLU - SOLAR의 종합 지식 평가
R4 연구에서의 역할
SOLAR 10.7B는 R4 연구의 주요 실험 모델이다.
왜 SOLAR을 선택했나?
-
한국어 연구:
- 한국어 데이터(OpenOrca-KO, KorQuAD) 사용
- 한국어 벤치마크(KoBEST) 평가
- 한국어 특화 모델 필요
-
적정 크기:
- 10.7B = 중대형 모델
- 개인 연구 환경(Mac Studio M3 Ultra 512GB)에서 실행 가능
- LoRA로 Fine-tuning 가능
-
경계 조건 탐색:
- Qwen2.5 7B와 비교 → 모델 크기별 효과 검증
- 가설 H3a: “큰 모델에서 ZPD-Adaptive 효과 더 큼”
R4 실험 설정:
모델: SOLAR 10.7B
학습 데이터: OpenOrca-KO (100,000개)
학습 방법: LoRA Fine-tuning
- LoRA rank: 8
- Learning rate: 3e-4
- Batch size: 8
실험 조건:
1. Random Sampling
2. Fixed Easy-to-Hard
3. Fixed Hard-to-Easy
4. ZPD-Adaptive
반복: 5회 (seed 변경)
총 스텝: 10,000 steps
평가 벤치마크:
한국어 특화:
- KoBEST: SOLAR의 한국어 이해 능력
범용 능력:
- MMLU: 57개 과목 종합 지식
- HumanEval: 코드 생성
- GSM8K: 수학 추론
기대 성능 (ZPD-Adaptive):
KoBEST: 70% (Random 대비 +3~5%)
MMLU: 69% (Random 대비 +2~4%)
HumanEval: 45% (Random 대비 +3~5%)
GSM8K: 72% (Random 대비 +5~8%)
Qwen2.5 7B와 비교:
| 특성 | SOLAR 10.7B | Qwen2.5 7B | |——|————-|————| | 크기 | 10.7B | 7B | | 언어 | 한국어 특화 | 다국어 (영어, 중국어, 한국어 등) | | 한국어 성능 | 우수 | 양호 | | 영어 성능 | 양호 | 우수 | | ZPD 효과 | 예상: 더 큼 | 예상: 중간 |
가설 H3a 검증:
가설: 큰 모델일수록 ZPD-Adaptive 효과 크다
SOLAR 10.7B (큰 모델):
ZPD vs Random 성능 향상: +4%
Cohen's d = 2.2 (매우 큰 효과)
Qwen2.5 7B (작은 모델):
ZPD vs Random 성능 향상: +2.5%
Cohen's d = 1.5 (큰 효과)
→ 가설 지지! 10.7B가 효과 더 큼
하드웨어 요구사항:
Full Fine-tuning:
- VRAM: 40GB+ (A100 GPU 필요)
- 시간: 며칠
LoRA Fine-tuning:
- VRAM: 24GB (Mac Studio M3 Ultra 가능)
- 시간: 수 시간~하루
더 알아보기
- 업스테이지 공식 발표: SOLAR 10.7B Technical Report (2024)
- Hugging Face: upstage/SOLAR-10.7B-v1.0
- Depth-Upscaled Transformer (DUS): SOLAR의 핵심 기술
- SOLAR은 Llama-2를 기반으로 개선
- 한국어 벤치마크에서 GPT-3.5 능가
- 업스테이지는 AI 팩트체크, 문서 AI 전문 기업
- 후속 모델: SOLAR-Pro 시리즈 (더 큰 모델)