가이드 — 모델 선정 + 학습 기법 (BLK-MODEL-01)¤
📖 약 18 분 읽기
ℹ️ 페이지 정보 (워크스페이스 메타)
Phase 0 콘텐츠 갭 9 종 중 4 번째 신설. 사용자 신설 핵심 §7 (9 섹션 구조의 추가 영역) — 모델 후보 매트릭스·선정 근거·학습 전략·하이퍼파라미터·검증·baseline·리스크 7 항 통합 generator. Agent 의 Section §7 Writer 가 본 가이드를 컨텍스트로 받아 §7 본문·표·ASCII 아키텍처 자동 생성. 운영 가이드 군 15 번째 멤버. 4.26 자산 군 포맷 통일 (8 장 구조) 답습.
플레이스홀더 범례 —
[고객사]기업명,[공정]공정명,[모델]모델명,[수치]수량·규모,[기간]학습·운영 [기간],[%]비율,[임계]KPI 임계값,[변수]X·y 변수명. (확인 필요) — 모델 후보 우선순위·하이퍼파라미터 탐색 범위·baseline 비교 정확도·LLM 모델 deprecation 일정은 사용자 입력·실측·외부 공지 기준 확정 영역이므로 §7 에 목록화.본 가이드의 직접 근거 —
track/track1-engine-cards.md(엔진 패턴 7 종 5.2-a~g — LSTM·Transformer·XGBoost·CNN·앙상블·이상탐지·LLM+RAG — §3.1 모델 후보 매트릭스 직접 입력);guide/korean-slm.md(EXAONE·HyperCLOVA·삼성·포스코·Mi:dm — 한국 sLM 7 비교 매트릭스 + LoRA·QLoRA fine-tune — §3.3 학습 전략 직접 입력);track/track2-index.md§6.3 (챔피언·챌린저 승급) · §7.2 (KPI 5 그룹 정의·대시보드) — §3.5 검증·성능 지표;track/track3-index.md§5.2·5.5 (RAG 청킹·환각 방지·인용 강제) — §3.7 모델 리스크;guide/kpi-measurement.md§1.3 (AI 모델 KPI 군 — Accuracy·F1·MAPE·RAGAS·환각률 등) — §3.5 검증 지표;guide/data-spec.md(BLK-DATA-01) §3.2·3.3 (X 형식·차원·y 문제 유형) — 본 가이드 §3.1 모델 선정의 1 차 제약;guide/risk-matrix.md(4 분기·7 카테고리 위험 매트릭스) — §3.7 모델 리스크 형식 답습; 6 패키지 §5 (5.2 카드 매핑) + 시나리오 카탈로그 (40 SCN → 엔진 패턴 매칭) — 6 도메인 적용 예시 §4 직접 추출.
1. 분류 — 모델 선정·학습 기법 7 범주¤
본 가이드는 사업계획서 §7 (모델 선정 + 학습 기법) 에 필요한 정보를 발생 원천에 따라 7 범주로 분류한다. 7 범주는 mutually exclusive 하게 설계되어 §7.1~§7.7 본문에서 범주별 단독 인용 가능하며, collectively exhaustive 하게 한국 R&D 평가자의 기술성 평가 (40 % 점수) 중 모델 선택의 적합성·학습 방법의 과학적 엄밀성·운영 환경 정합성 3 차원을 모두 포괄한다. §6 (데이터 명세) 의 X·y 정의를 받아 "어떤 모델·기법으로 학습할지" 결정.
1.1 모델 후보 매트릭스 (Candidate Models)¤
시나리오 → 권장 모델 매핑. track/track1-engine-cards.md 의 7 엔진 패턴 (5.2-a 시계열·5.2-b 분류·5.2-c 회귀·5.2-d 비전·5.2-e 이상탐지·5.2-f LLM+RAG·5.2-g 앙상블) 답습. 본 범주는 §7.1 모델 후보 표가 1 차 산출물이며, §6.2 X 형식 (시계열·이미지·텍스트·정형 표·혼합) · §6.3 y 문제 유형 (분류·회귀·이상탐지·생성·검색) 의 직접 제약 하에 후보를 좁힌다.
1.2 선정 근거 (Selection Rationale)¤
후보 매트릭스에서 최종 1-3 모델을 선택한 근거. 데이터 규모·도메인 적합성·해석성·인프라 제약·운영 환경 5 차원 평가. 본 범주는 §7.2 선정 근거 표 + 의사결정 매트릭스가 1 차 산출물.
1.3 학습 전략 (Training Strategy)¤
pre-train·fine-tune·LoRA·QLoRA·few-shot·zero-shot·전이학습·앙상블·다단계 학습. guide/korean-slm.md 의 EXAONE·HyperCLOVA·삼성·포스코·Mi:dm LoRA·QLoRA fine-tune 전략 답습. 본 범주는 §7.3 학습 전략 표 + 학습 phase 별 ASCII 흐름도.
1.4 하이퍼파라미터 탐색 (HPO)¤
grid·random·bayesian (Optuna 등) 전략 + 탐색 공간 + 자원 한도. 본 범주는 §7.4 탐색 공간 표 + 자원 예산.
1.5 검증·성능 지표 (Evaluation Metrics)¤
accuracy·F1·MAPE·MAE·AUROC·RAGAS·환각률·응답 지연 + 도메인 KPI 매핑. guide/kpi-measurement.md §1.3 (AI 모델 KPI 군) + track/track2-index.md §7.2 (KPI 5 그룹) 답습. 본 범주는 §7.5 지표 표가 1 차 산출물이며, §3 (개선방향) 의 도메인 KPI 와 정합 검증.
1.6 비교 Baselines (Baselines)¤
통계 모델·rule-based·기존 산업 표준·사내 기존 시스템 대비 우월성 입증. 본 범주는 §7.6 baseline 비교 표.
1.7 모델 리스크 (Model Risks)¤
환각·드리프트·과적합·도메인 시프트·인용 실패·민감도 누출·LLM 응답 지연 대비. guide/risk-matrix.md 4 분기 매트릭스 형식 + track/track3-index.md §5.5 RAG 환각 방지 답습. 본 범주는 §7.7 리스크 등록 표.
2. 입력 스키마 매트릭스 (3 Tier · 24 필드)¤
guide/data-spec.md (BLK-DATA-01) 의 §3.2·3.3 출력 ([X형식]·[X차원수]·[y문제유형]·[클래스수]·[샘플수]) 을 1 차 수신.
| Tier | 범주 | 필드 | 형식 | 사용 §·자산 |
|---|---|---|---|---|
| 1 | 후보 | 1 차 모델 후보 (1-3 종 선택) | multi-select (LSTM·Transformer·XGBoost·CNN·앙상블·이상탐지·LLM+RAG) | §7.1 표 |
| 1 | 선정 | 운영 환경 | dropdown (온프레미스·edge·cloud·hybrid) | §7.2 + 추론 자원 제약 |
| 1 | 선정 | 해석성 요구 수준 | dropdown (높음·중간·낮음) | §7.2 + 모델 종류 1 차 제약 |
| 1 | 학습 | 학습 데이터 규모 ([수치] 행·이미지) |
number (BLK-DATA-01 §3.2·3.3 수신) | §7.3 + 학습 전략 결정 |
| 1 | 학습 | 학습 전략 | dropdown (scratch·pre-train + fine-tune·LoRA·QLoRA·few-shot·zero-shot·앙상블) | §7.3 |
| 1 | 검증 | 1 차 평가 지표 | multi-select (Accuracy·F1·MAPE·MAE·AUROC·RAGAS·기타) | §7.5 |
| 1 | 검증 | 1 차 KPI 임계 ([임계]) |
text | §7.5 + §3 도메인 KPI 정합 |
| 1 | Baseline | 비교 baseline | multi-select (SPC·rule-based·검사관·사내 기존·산업 표준) | §7.6 |
| 1 | 리스크 | 우선순위 리스크 (상위 3) | multi-select (환각·드리프트·과적합·도메인 시프트·인용 실패·민감도 누출·지연) | §7.7 |
| 2 | 후보 | 2 차 모델 후보 (앙상블·후보 변형) | multi-text | §7.1 표 |
| 2 | 선정 | 추론 지연 한도 (P95 ms) | number | §7.2 + edge 모델 적합성 |
| 2 | 선정 | 인프라 자원 (GPU·CPU·RAM) | text | §7.2 + 학습·추론 비용 |
| 2 | 학습 | LLM·sLM 선택 (LLM+RAG 시) | dropdown (EXAONE·HyperCLOVA·Mi:dm·삼성 가우스·포스코 PB) | §7.3 + 한국 sLM 가이드 |
| 2 | 학습 | LoRA·QLoRA·전체 fine-tune | dropdown | §7.3 |
| 2 | 학습 | 학습 [기간] 예상 | text | §7.3 + phase 정합 |
| 2 | HPO | 탐색 전략 | dropdown (grid·random·bayesian·Optuna TPE) | §7.4 |
| 2 | HPO | 탐색 trial 수 | number | §7.4 |
| 2 | 검증 | 평가 데이터셋 (BLK-DATA-01 §3.6) | text | §7.5 + 분할 정합 |
| 2 | 검증 | 챔피언·챌린저 운영 여부 | bool | §7.5 + track2 §6.3 |
| 2 | Baseline | baseline 정확도 ([%]) |
number | §7.6 |
| 2 | 리스크 | 리스크별 완화 조치 | text | §7.7 |
| 3 | 학습 | 외부 학습 자원 활용 (위탁·클라우드) | text | §7.3 + 외부 위탁 정합 |
| 3 | HPO | 자동 HPO 도구 | dropdown (Optuna·Ray Tune·없음) | §7.4 |
| 3 | 검증 | A/B 테스트 운영 | bool | §7.5 + 운영 검증 |
3. §7 본문 7 절 템플릿¤
Agent 의 Section §7 Writer 는 본 절의 7 템플릿을 컨텍스트로 받아 §7.1~§7.7 본문 + 표 5 종 + ASCII 모델 아키텍처 도식 1-2 종 자동 생성. 한국어 압축 4.34 — 각 절 150-300 자 + 표·도식.
3.1 §7.1 모델 후보 매트릭스 (~ 300 자 + 표)¤
본 사업의 AI 모델은
[track/track1-engine-cards.md]의 엔진 패턴 7 종 (5.2-a 시계열·5.2-b 분류·5.2-c 회귀·5.2-d 비전·5.2-e 이상탐지·5.2-f LLM+RAG·5.2-g 앙상블) 중 본 사업의 X·y 정합 후보를 매트릭스로 선별한다.[guide/data-spec.md]§3.2·3.3 의 X 형식 ([X형식]) · y 문제 유형 ([문제유형]) 이 1 차 제약이며, 운영 환경 ([운영환경]) · 해석성 요구 ([해석성]) 가 2 차 필터로 작용한다.
| 시나리오·문제 | 1 차 후보 | 2 차 후보 (앙상블) | 5.2 카드 | 운영 환경 |
|---|---|---|---|---|
시계열 예측 ([변수] 예측) |
LSTM | Transformer + XGBoost 앙상블 | 5.2-a | edge·on-prem |
| 분류 (불량 분류) | XGBoost | LightGBM + Random Forest 앙상블 | 5.2-b | on-prem |
| 회귀 (치수·물성 예측) | XGBoost | LSTM·MLP 결합 | 5.2-c | edge·on-prem |
| 비전 결함 검출 | CNN (YOLOv8·EfficientNet) | ViT 보강 | 5.2-d | edge GPU |
| 이상 탐지 | Isolation Forest | AutoEncoder + LSTM | 5.2-e | on-prem |
| 공정 설계 LLM·RAG | sLM (EXAONE·HyperCLOVA) + RAG | + few-shot·CoT prompting | 5.2-f | 온프레미스 sLM |
| 멀티모달 결합 | 시계열 + 이미지 결합 앙상블 | 5.2-a + 5.2-d Stacking | 5.2-g | on-prem GPU |
3.2 §7.2 선정 근거 (~ 300 자 + 표)¤
본 사업의 최종 모델은
[1차모델]을 1 차 운영 모델로,[2차모델]을 챌린저·앙상블 후보로 선정한다. 선정 근거는 다음 5 차원 평가 매트릭스를 기반한다.
| 차원 | 평가 | 1 차 모델 | 챌린저 |
|---|---|---|---|
| 데이터 규모 적합성 | [샘플수] 규모 ↔ 모델 복잡도 |
[1차근거] |
[2차근거] |
| 도메인 적합성 | [공정] 도메인 사례·논문·실적 |
[고] |
[중] |
| 해석성 | feature importance·SHAP·attention | [해석성요구] 정합 |
보강 필요 |
| 인프라 제약 | [운영환경] 추론 자원·지연 |
정합 | edge 한계 |
| 운영 환경 | 챔피언·챌린저 (track2 §6.3) | 챔피언 후보 | 챌린저 |
3.3 §7.3 학습 전략 (~ 300 자 + ASCII 흐름도)¤
본 모델의 학습 전략은
[학습전략]으로 설정한다.[X형식]별 차등 전략 — 시계열·정형 표는 scratch, 비전은 ImageNet pre-train + fine-tune, LLM·RAG 부분은[LLM모델](EXAONE·HyperCLOVA·삼성·포스코·Mi:dm 중[guide/korean-slm.md]§3 의 7 비교 매트릭스 기반 선정) +[LoRA여부](LoRA·QLoRA·전체 fine-tune) — 을 적용한다.
[Raw 데이터 (BLK-DATA-01 §3.1)]
│
├──→ ① 전처리·X·y 분할 (BLK-DATA-01 §3.4·3.6)
│
├──→ ② 학습 전략 분기
│ ├─ 시계열·표: scratch (LSTM·XGBoost)
│ ├─ 비전: ImageNet pre-train + fine-tune (CNN)
│ └─ 텍스트·LLM: sLM + LoRA fine-tune (`[LLM모델]`)
│
├──→ ③ 하이퍼파라미터 탐색 (§7.4)
│ · Optuna TPE `[trial수]` trial
│
├──→ ④ 챔피언·챌린저 비교 (track2 §6.3)
│ · 검증셋 + holdout 평가
│
▼
[챔피언 모델 + 챌린저 모델 등록 (MLflow)]
3.4 §7.4 하이퍼파라미터 탐색 (~ 250 자 + 표)¤
본 사업의 하이퍼파라미터 탐색은
[탐색전략](grid·random·Optuna TPE 등) 으로[trial수]trial 수행한다. 탐색 공간은 모델별로 다음과 같이 정의하며, 자원 예산 (GPU 시간) 은 phase 1·2 합산[자원]으로 한정한다.
| 모델 | 탐색 공간 | trial 수 | 평가 지표 |
|---|---|---|---|
| LSTM | hidden [64, 512] · layers [1, 4] · dropout [0.1, 0.5] · lr [1e-5, 1e-2] | 100 | [1차지표] |
| XGBoost | n_estimators [100, 1000] · max_depth [3, 10] · lr [0.01, 0.3] | 50 | [1차지표] |
| CNN | backbone (ResNet·EfficientNet) · lr · batch · augmentation | 60 | [1차지표] |
| LLM+RAG | chunk size [256, 1024] · top-k [3, 10] · temperature [0.0, 0.7] | 30 | RAGAS Faithfulness |
3.5 §7.5 검증·성능 지표 (~ 300 자 + 표)¤
본 모델의 성능 지표는
[guide/kpi-measurement.md]§1.3 AI 모델 KPI 군 +[track/track2-index.md]§7.2 KPI 5 그룹을 답습하여 모델 성능·도메인 KPI 정합 양 축을 함께 평가한다. 1 차 KPI 임계[임계]이상 달성 시 챔피언 승급 후보로 등록하며, 챌린저는 분기별 비교 후 승급 (track2 §6.3).
| 지표 군 | 1 차 지표 | 임계 | 도메인 KPI 정합 |
|---|---|---|---|
| 분류 | F1 (Macro) · Precision · Recall | F1 ≥ [임계1] |
불량률 ↓ [%] |
| 회귀 | MAE · MAPE · R² | MAE ≤ [임계2] |
치수 σ ↓ [%] |
| 이상탐지 | AUROC · AUPRC · F1 (이상) | AUROC ≥ [임계3] |
이상 검출 → 사전 조치 비율 ↑ |
| LLM+RAG | RAGAS Faithfulness · Answer Relevancy · 인용 정확도 | Faithfulness ≥ [임계4] |
작업 지시서 응답 정확도 ↑ |
| 운영 | 추론 지연 P95 · 처리량 | P95 ≤ [지연] ms |
실시간성 만족 |
3.6 §7.6 비교 Baselines (~ 250 자 + 표)¤
본 모델의 우월성은 다음 baseline 비교로 입증한다. 한국 R&D 평가자가 "AI 도입의 차별화" 를 점검하는 직접 항목.
| Baseline | 비교 방식 | 1 차 모델 목표 |
|---|---|---|
| 통계 모델 (SPC 3σ rule·MA) | 동일 검증셋 평가 | 정확도 ≥ baseline + 15 % p |
| Rule-based (현장 규칙) | 동일 검증셋 평가 | 정확도 ≥ rule-based + 10 % p |
| 검사관 평균 정확도 | 검사관 ground-truth | 정확도 ≥ 검사관 평균 |
| 사내 기존 시스템 | A/B 테스트 (운영) | 운영 KPI ↑ [%] |
| 산업 표준·논문 | 외부 검증 | 정합 또는 우월 |
3.7 §7.7 모델 리스크 등록 (~ 300 자 + 표)¤
본 모델의 운영·기술 리스크는
[guide/risk-matrix.md]4 분기 매트릭스 형식 +[track/track3-index.md]§5.5 RAG 환각 방지를 답습한다. 우선순위 리스크 3 종 ([우선순위리스크]) 은 phase 1·2 의 완화 활동에 자원을 우선 배정.
| # | 리스크 | 발생가능성 | 영향도 | 완화 조치 | 모니터링 (§9 입력) |
|---|---|---|---|---|---|
| M1 | LLM 환각 (인용 누락·왜곡) | 중 | 높음 | RAG 5 계층 + 인용 강제 + Validator 그렙 감사 | RAGAS Faithfulness 일 단위 |
| M2 | 드리프트 (운영 후 성능 저하) | 중 | 중 | track2 §5.5 모니터링 PSI 0.1·0.25 임계 + 재학습 트리거 | PSI · 도메인 KPI 주 단위 |
| M3 | 과적합 (val·test 격차) | 낮음 | 중 | early stopping + L2 + 교차검증 + 외부 holdout | val·test gap 모니터 |
| M4 | 도메인 시프트 ([고객사] 외 일반화) |
중 | 낮음 | 도메인 다양화·앙상블·전이학습 + 운영 시 fine-tune | 외부 데이터 평가 |
| M5 | 인용 실패 (RAG citation drop) | 중 | 높음 | 인용 표기 강제 + Validator 그렙 100 % 보존 검사 | 인용 보존율 |
| M6 | 민감도 누출 (등급 ④·⑤) | 낮음 | 치명 | [module/saas-security.md] 도면 마스킹 + 온프레미스 sLM 강제 |
외부 호출 로그 0 |
| M7 | 추론 지연 (P95 > SLA) | 낮음 | 중 | edge 양자화·distillation + 모델 경량화 + 자원 증설 | P50·P95·P99 실시간 |
4. 6 도메인 적용 예시¤
본 워크스페이스 6 패키지 §5 의 5.2 카드 매핑 + 시나리오 카탈로그 모델 매핑 추출.
| 도메인 | X·y 형식 | 1 차 모델 | 2 차 (앙상블) | 학습 전략 | LLM·sLM |
|---|---|---|---|---|---|
| 철강 대기업 | 시계열 + 이미지 + 텍스트 결합 | LSTM + CNN + LLM+RAG 멀티모달 | XGBoost 보강 | 시계열 scratch + 비전 fine-tune + sLM LoRA | EXAONE 또는 포스코 PB |
| 중견 냉연 | 시계열 + 이미지 | LSTM + CNN | XGBoost 앙상블 | scratch + ImageNet fine-tune | (선택) HyperCLOVA |
| 특수강관 | 텍스트 (Mill Sheet OCR) + 이미지 (UT) + 시계열 | LLM+RAG + CNN | + LSTM 앙상블 | sLM LoRA fine-tune + 비전 fine-tune | EXAONE LoRA |
| 고무 양산 | 시계열 + 비전 | LSTM + CNN (YOLOv8) | XGBoost 보강 | scratch + ImageNet fine-tune | — |
| 정밀가공 중소 | 정형 표 + 측정값 | XGBoost | + LSTM (선택) | scratch | — |
| 유틸·ESG | 시계열 + 환경 변수 + 안전 분류 | LSTM + XGBoost + 이상탐지 (Isolation Forest) | + LLM+RAG (안전 SOP) | scratch + sLM LoRA | EXAONE (안전 SOP RAG) |
[출처:
사업계획서_패키지[1-6]_*_파일럿.md§5 +track/track1-engine-cards.md+scenario/catalog.md+guide/korean-slm.md§3]
5. 사업계획서 §7 인용·작성 강도 3 단계¤
5.1 강 (다년 R&D / 67 페이지 양식)¤
§7.1~§7.7 7 절 모두 풀 본문 + 표 5 종 + ASCII 학습 전략 흐름도 + 모델 아키텍처 도식 (멀티모달 결합). 패키지 1·6 답습.
5.2 중 (단년 R&D / 9-12 개월)¤
§7.1·7.2·7.3·7.5·7.7 5 절 (7.4 HPO·7.6 baseline 은 §7.3·§7.5 에 흡수) + 표 3-4 종. 패키지 2·3·4·5 답습.
5.3 약 (PoC / 6 개월 이하)¤
§7.1·7.2·7.5 3 절 (7.3·7.4·7.6·7.7 은 §7.2 선정 근거·§4 phase 본문에 흡수) + 표 2 종. 패키지 5 답습.
6. 다른 자산과의 결합 패턴¤
| 자산 | 결합 방향 | 인용 위치 |
|---|---|---|
guide/data-spec.md (BLK-DATA-01) |
DATA → MODEL | §3.2 X 형식·차원 + §3.3 y 문제 유형 → §7.1 모델 후보 매트릭스 1 차 제약 |
track/track1-engine-cards.md |
본 가이드 인용 | §7.1 엔진 패턴 7 종 (5.2-a~g) |
guide/korean-slm.md §3 |
본 가이드 인용 | §7.1·7.3 LLM·sLM 7 비교 매트릭스·LoRA·QLoRA |
track/track2-index.md §6.3 |
본 가이드 인용 | §7.3·7.5 챔피언·챌린저 승급 |
track/track2-index.md §7.2 |
본 가이드 인용 | §7.5 KPI 5 그룹 (모델 성능·운영·드리프트) |
track/track3-index.md §5.2·5.5 |
본 가이드 인용 | §7.7 RAG 환각 방지·인용 강제 |
guide/kpi-measurement.md §1.3 |
본 가이드 인용 | §7.5 AI 모델 KPI 군 + 정합 KPI |
guide/risk-matrix.md |
본 가이드 인용 | §7.7 4 분기 매트릭스 형식 답습 |
module/saas-security.md |
본 가이드 인용 | §7.7 M6 민감도 누출 완화 |
guide/execution-roadmap.md (BLK-EXEC-01·02) §3.5 R3·R4 |
결합 검증 | 본 가이드 §3.7 M1·M2 와 정합 — 두 가이드의 모델 리스크 항목 중복 차단 (§4.5 위험 등록 = 사업 차원 / §7.7 리스크 등록 = 모델 차원) |
guide/deployment-plan.md (BLK-TRAIN-01·02) |
MODEL → 적용·배포 | §3.2 운영 환경·§3.3 LLM 모델 → §8 배포 아키텍처 |
guide/mlops-ritual.md (BLK-MLOPS-01·02) |
MODEL → MLOps | §3.5 챔피언·챌린저·§3.7 드리프트·환각 → §9 모니터링·재학습 트리거 |
7. (확인 필요) 항목¤
- 모델 후보 우선순위 — 시나리오·X·y·운영 환경에 따라 동적 변동. 사업 착수 후 phase 1 의 PoC 결과로 확정
- 하이퍼파라미터 탐색 범위 — 본 가이드 §3.4 의 탐색 공간은 일반 권장값. 모델·데이터 규모에 따라 사업 착수 후 조정
- Baseline 정확도 — 사업 착수 시점 baseline 실측. 본 가이드 §3.6 예시 수치는 산업 평균 추정
- LLM·sLM 모델 deprecation — Gemini 2.5 Flash 는 2026-10-16 shutdown 예정이며 권장 대체 모델은
gemini-3-flash-preview이다. 사업 [기간] 내 모델 전환 대비 필수 ([guide/korean-slm.md]§5 답습) - GPU·자원 한도 — 사업 예산·인프라·외부 위탁에 따른 자원 변동. §3.4 trial 수·학습 [기간] 조정
- 챔피언·챌린저 승급 임계 —
track2 §6.3답습이나 도메인·KPI 에 따라 변동 - 외부 학습 자원 — 클라우드 GPU·외부 위탁 활용 시 민감도 등급 (
[guide/data-spec.md]§3.7) 정합 재확인
8. 모델 한계·재사용 포인트¤
8.1 한계¤
- 7 범주 MECE 한계 — "앙상블" 은 §7.1 후보 + §7.3 학습 전략 양쪽 인용. Agent 는 §7.1 = 모델 종류 / §7.3 = 결합 방식 분리
- 6 도메인 외 문제 유형 부족 — 음성·자연어 생성·강화학습 등은 본 가이드 §4 예시 행 없음. (확인 필요) 마커로 노출
- LLM·sLM 의 외부 모델 의존성 — 한국 sLM (EXAONE·HyperCLOVA 등) 는 외부 공급자 일정·라이센스에 의존. 본 가이드는 7 비교 매트릭스 시점 기준 —
guide/korean-slm.md갱신 동기화 필수 - HPO 자원 예산 단순화 — Optuna TPE 100 trial 등 일반 권장값. 대규모 LLM fine-tune 의 경우 1 trial = 수 시간·수십만원 GPU 비용. §3.4 표는 일반화 한계
- 챔피언·챌린저 운영의 단년 R&D 부적용 — track2 §6.3 답습이나 단년 R&D 에서는 챔피언 단일 운영. §3.5 표의 챔피언·챌린저 행은 다년 R&D 또는 운영 단계에서만 활성
8.2 다른 프로젝트 재사용 포인트¤
- 7 범주 MECE 분류 (Candidate·Selection·Training·HPO·Evaluation·Baseline·Risk) — 모든 ML·DL 프로젝트 모델 선정 단계 표준 프레임. 의료·금융·법무·자율주행에 답습 가능
- 3 Tier 입력 스키마 + DATA → MODEL 의존성 흐름 — 데이터 명세 출력 → 모델 선정 입력의 단방향 결합 패턴. 다른 ML 프로젝트에 답습 가능
- 5 차원 선정 매트릭스 (데이터 규모·도메인·해석성·인프라·운영 환경) — 모델 선정 표준 의사결정 프레임
- 모델 리스크 7 항 + §9 모니터링 직결 매핑 — 모델 리스크 = MLOps 모니터링 트리거의 직접 입력 패턴. 다른 운영 자동화 시스템에 답습 가능
- 단년·다년 차등 강도 (5.2·5.3) 패턴 — 사업 규모·기간에 따라 §7 본문 깊이 자동 조절. 다른 generator 시스템에 답습 가능
[출처: 본 가이드 =
track/track1-engine-cards.md+guide/korean-slm.md+track2·3_공통본문_목차.md+guide/kpi-measurement.md+guide/data-spec.md+guide/risk-matrix.md+ 6 패키지 §5 5.2 카드 매핑 + 시나리오 카탈로그의 종합. Agent 의 Section §7 Writer 가 본 가이드를 system prompt 컨텍스트로 받아 §7.1~§7.7 본문 + 표 5 종 + ASCII 학습 전략 흐름도 자동 생성에 사용한다.]
📌 이 페이지 정보 (개발자용)
- 원본 파일:
가이드_모델_선정_학습_기법.md - 자산 군: 📋 운영 가이드
- slug 경로:
guide/model-training.md - 워크스페이스 정책: 원본 .md 수정 0 — hooks 로만 시각 변환
- 자산 자족성 정상화: Phase E7 완료 (잔여 외부 갭 4)