콘텐츠로 이동

가이드 — 모델 선정 + 학습 기법 (BLK-MODEL-01)¤

📖 약 18 분 읽기

ℹ️ 페이지 정보 (워크스페이스 메타)

Phase E19 Phase 0 콘텐츠 갭 9 종 중 4 번째 신설. 사용자 신설 핵심 §7 (9 섹션 구조의 추가 영역) — 모델 후보 매트릭스·선정 근거·학습 전략·하이퍼파라미터·검증·baseline·리스크 7 항 통합 generator. Agent 의 Section §7 Writer 가 본 가이드를 컨텍스트로 받아 §7 본문·표·ASCII 아키텍처 자동 생성. 운영 가이드 군 15 번째 멤버. 4.26 자산 군 포맷 통일 (8 장 구조) 답습.

플레이스홀더 범례 — [고객사] 기업명, [공정] 공정명, [모델] 모델명, [수치] 수량·규모, [기간] 학습·운영 [기간], [%] 비율, [임계] KPI 임계값, [변수] X·y 변수명. (확인 필요) — 모델 후보 우선순위·하이퍼파라미터 탐색 범위·baseline 비교 정확도·LLM 모델 deprecation 일정은 사용자 입력·실측·외부 공지 기준 확정 영역이므로 §7 에 목록화.

본 가이드의 직접 근거 — track/track1-engine-cards.md (엔진 패턴 7 종 5.2-a~g — LSTM·Transformer·XGBoost·CNN·앙상블·이상탐지·LLM+RAG — §3.1 모델 후보 매트릭스 직접 입력); guide/korean-slm.md (EXAONE·HyperCLOVA·삼성·포스코·Mi:dm — 한국 sLM 7 비교 매트릭스 + LoRA·QLoRA fine-tune — §3.3 학습 전략 직접 입력); track/track2-index.md §6.3 (챔피언·챌린저 승급) · §7.2 (KPI 5 그룹 정의·대시보드) — §3.5 검증·성능 지표; track/track3-index.md §5.2·5.5 (RAG 청킹·환각 방지·인용 강제) — §3.7 모델 리스크; guide/kpi-measurement.md §1.3 (AI 모델 KPI 군 — Accuracy·F1·MAPE·RAGAS·환각률 등) — §3.5 검증 지표; guide/data-spec.md (BLK-DATA-01) §3.2·3.3 (X 형식·차원·y 문제 유형) — 본 가이드 §3.1 모델 선정의 1 차 제약; guide/risk-matrix.md (4 분기·7 카테고리 위험 매트릭스) — §3.7 모델 리스크 형식 답습; 6 패키지 §5 (5.2 카드 매핑) + 시나리오 카탈로그 (40 SCN → 엔진 패턴 매칭) — 6 도메인 적용 예시 §4 직접 추출.


1. 분류 — 모델 선정·학습 기법 7 범주¤

본 가이드는 사업계획서 §7 (모델 선정 + 학습 기법) 에 필요한 정보를 발생 원천에 따라 7 범주로 분류한다. 7 범주는 mutually exclusive 하게 설계되어 §7.1~§7.7 본문에서 범주별 단독 인용 가능하며, collectively exhaustive 하게 한국 R&D 평가자의 기술성 평가 (40 % 점수) 중 모델 선택의 적합성·학습 방법의 과학적 엄밀성·운영 환경 정합성 3 차원을 모두 포괄한다. §6 (데이터 명세) 의 X·y 정의를 받아 "어떤 모델·기법으로 학습할지" 결정.

1.1 모델 후보 매트릭스 (Candidate Models)¤

시나리오 → 권장 모델 매핑. track/track1-engine-cards.md 의 7 엔진 패턴 (5.2-a 시계열·5.2-b 분류·5.2-c 회귀·5.2-d 비전·5.2-e 이상탐지·5.2-f LLM+RAG·5.2-g 앙상블) 답습. 본 범주는 §7.1 모델 후보 표가 1 차 산출물이며, §6.2 X 형식 (시계열·이미지·텍스트·정형 표·혼합) · §6.3 y 문제 유형 (분류·회귀·이상탐지·생성·검색) 의 직접 제약 하에 후보를 좁힌다.

1.2 선정 근거 (Selection Rationale)¤

후보 매트릭스에서 최종 1-3 모델을 선택한 근거. 데이터 규모·도메인 적합성·해석성·인프라 제약·운영 환경 5 차원 평가. 본 범주는 §7.2 선정 근거 표 + 의사결정 매트릭스가 1 차 산출물.

1.3 학습 전략 (Training Strategy)¤

pre-train·fine-tune·LoRA·QLoRA·few-shot·zero-shot·전이학습·앙상블·다단계 학습. guide/korean-slm.md 의 EXAONE·HyperCLOVA·삼성·포스코·Mi:dm LoRA·QLoRA fine-tune 전략 답습. 본 범주는 §7.3 학습 전략 표 + 학습 phase 별 ASCII 흐름도.

1.4 하이퍼파라미터 탐색 (HPO)¤

grid·random·bayesian (Optuna 등) 전략 + 탐색 공간 + 자원 한도. 본 범주는 §7.4 탐색 공간 표 + 자원 예산.

1.5 검증·성능 지표 (Evaluation Metrics)¤

accuracy·F1·MAPE·MAE·AUROC·RAGAS·환각률·응답 지연 + 도메인 KPI 매핑. guide/kpi-measurement.md §1.3 (AI 모델 KPI 군) + track/track2-index.md §7.2 (KPI 5 그룹) 답습. 본 범주는 §7.5 지표 표가 1 차 산출물이며, §3 (개선방향) 의 도메인 KPI 와 정합 검증.

1.6 비교 Baselines (Baselines)¤

통계 모델·rule-based·기존 산업 표준·사내 기존 시스템 대비 우월성 입증. 본 범주는 §7.6 baseline 비교 표.

1.7 모델 리스크 (Model Risks)¤

환각·드리프트·과적합·도메인 시프트·인용 실패·민감도 누출·LLM 응답 지연 대비. guide/risk-matrix.md 4 분기 매트릭스 형식 + track/track3-index.md §5.5 RAG 환각 방지 답습. 본 범주는 §7.7 리스크 등록 표.


2. 입력 스키마 매트릭스 (3 Tier · 24 필드)¤

guide/data-spec.md (BLK-DATA-01) 의 §3.2·3.3 출력 ([X형식]·[X차원수]·[y문제유형]·[클래스수]·[샘플수]) 을 1 차 수신.

Tier 범주 필드 형식 사용 §·자산
1 후보 1 차 모델 후보 (1-3 종 선택) multi-select (LSTM·Transformer·XGBoost·CNN·앙상블·이상탐지·LLM+RAG) §7.1 표
1 선정 운영 환경 dropdown (온프레미스·edge·cloud·hybrid) §7.2 + 추론 자원 제약
1 선정 해석성 요구 수준 dropdown (높음·중간·낮음) §7.2 + 모델 종류 1 차 제약
1 학습 학습 데이터 규모 ([수치] 행·이미지) number (BLK-DATA-01 §3.2·3.3 수신) §7.3 + 학습 전략 결정
1 학습 학습 전략 dropdown (scratch·pre-train + fine-tune·LoRA·QLoRA·few-shot·zero-shot·앙상블) §7.3
1 검증 1 차 평가 지표 multi-select (Accuracy·F1·MAPE·MAE·AUROC·RAGAS·기타) §7.5
1 검증 1 차 KPI 임계 ([임계]) text §7.5 + §3 도메인 KPI 정합
1 Baseline 비교 baseline multi-select (SPC·rule-based·검사관·사내 기존·산업 표준) §7.6
1 리스크 우선순위 리스크 (상위 3) multi-select (환각·드리프트·과적합·도메인 시프트·인용 실패·민감도 누출·지연) §7.7
2 후보 2 차 모델 후보 (앙상블·후보 변형) multi-text §7.1 표
2 선정 추론 지연 한도 (P95 ms) number §7.2 + edge 모델 적합성
2 선정 인프라 자원 (GPU·CPU·RAM) text §7.2 + 학습·추론 비용
2 학습 LLM·sLM 선택 (LLM+RAG 시) dropdown (EXAONE·HyperCLOVA·Mi:dm·삼성 가우스·포스코 PB) §7.3 + 한국 sLM 가이드
2 학습 LoRA·QLoRA·전체 fine-tune dropdown §7.3
2 학습 학습 [기간] 예상 text §7.3 + phase 정합
2 HPO 탐색 전략 dropdown (grid·random·bayesian·Optuna TPE) §7.4
2 HPO 탐색 trial 수 number §7.4
2 검증 평가 데이터셋 (BLK-DATA-01 §3.6) text §7.5 + 분할 정합
2 검증 챔피언·챌린저 운영 여부 bool §7.5 + track2 §6.3
2 Baseline baseline 정확도 ([%]) number §7.6
2 리스크 리스크별 완화 조치 text §7.7
3 학습 외부 학습 자원 활용 (위탁·클라우드) text §7.3 + 외부 위탁 정합
3 HPO 자동 HPO 도구 dropdown (Optuna·Ray Tune·없음) §7.4
3 검증 A/B 테스트 운영 bool §7.5 + 운영 검증

3. §7 본문 7 절 템플릿¤

Agent 의 Section §7 Writer 는 본 절의 7 템플릿을 컨텍스트로 받아 §7.1~§7.7 본문 + 표 5 종 + ASCII 모델 아키텍처 도식 1-2 종 자동 생성. 한국어 압축 4.34 — 각 절 150-300 자 + 표·도식.

3.1 §7.1 모델 후보 매트릭스 (~ 300 자 + 표)¤

본 사업의 AI 모델은 [track/track1-engine-cards.md] 의 엔진 패턴 7 종 (5.2-a 시계열·5.2-b 분류·5.2-c 회귀·5.2-d 비전·5.2-e 이상탐지·5.2-f LLM+RAG·5.2-g 앙상블) 중 본 사업의 X·y 정합 후보를 매트릭스로 선별한다. [guide/data-spec.md] §3.2·3.3 의 X 형식 ([X형식]) · y 문제 유형 ([문제유형]) 이 1 차 제약이며, 운영 환경 ([운영환경]) · 해석성 요구 ([해석성]) 가 2 차 필터로 작용한다.

시나리오·문제 1 차 후보 2 차 후보 (앙상블) 5.2 카드 운영 환경
시계열 예측 ([변수] 예측) LSTM Transformer + XGBoost 앙상블 5.2-a edge·on-prem
분류 (불량 분류) XGBoost LightGBM + Random Forest 앙상블 5.2-b on-prem
회귀 (치수·물성 예측) XGBoost LSTM·MLP 결합 5.2-c edge·on-prem
비전 결함 검출 CNN (YOLOv8·EfficientNet) ViT 보강 5.2-d edge GPU
이상 탐지 Isolation Forest AutoEncoder + LSTM 5.2-e on-prem
공정 설계 LLM·RAG sLM (EXAONE·HyperCLOVA) + RAG + few-shot·CoT prompting 5.2-f 온프레미스 sLM
멀티모달 결합 시계열 + 이미지 결합 앙상블 5.2-a + 5.2-d Stacking 5.2-g on-prem GPU

3.2 §7.2 선정 근거 (~ 300 자 + 표)¤

본 사업의 최종 모델은 [1차모델] 을 1 차 운영 모델로, [2차모델] 을 챌린저·앙상블 후보로 선정한다. 선정 근거는 다음 5 차원 평가 매트릭스를 기반한다.

차원 평가 1 차 모델 챌린저
데이터 규모 적합성 [샘플수] 규모 ↔ 모델 복잡도 [1차근거] [2차근거]
도메인 적합성 [공정] 도메인 사례·논문·실적 [고] [중]
해석성 feature importance·SHAP·attention [해석성요구] 정합 보강 필요
인프라 제약 [운영환경] 추론 자원·지연 정합 edge 한계
운영 환경 챔피언·챌린저 (track2 §6.3) 챔피언 후보 챌린저

3.3 §7.3 학습 전략 (~ 300 자 + ASCII 흐름도)¤

본 모델의 학습 전략은 [학습전략] 으로 설정한다. [X형식] 별 차등 전략 — 시계열·정형 표는 scratch, 비전은 ImageNet pre-train + fine-tune, LLM·RAG 부분은 [LLM모델] (EXAONE·HyperCLOVA·삼성·포스코·Mi:dm 중 [guide/korean-slm.md] §3 의 7 비교 매트릭스 기반 선정) + [LoRA여부] (LoRA·QLoRA·전체 fine-tune) — 을 적용한다.

[Raw 데이터 (BLK-DATA-01 §3.1)]
    ├──→ ① 전처리·X·y 분할 (BLK-DATA-01 §3.4·3.6)
    ├──→ ② 학습 전략 분기
    │     ├─ 시계열·표: scratch (LSTM·XGBoost)
    │     ├─ 비전: ImageNet pre-train + fine-tune (CNN)
    │     └─ 텍스트·LLM: sLM + LoRA fine-tune (`[LLM모델]`)
    ├──→ ③ 하이퍼파라미터 탐색 (§7.4)
    │     · Optuna TPE `[trial수]` trial
    ├──→ ④ 챔피언·챌린저 비교 (track2 §6.3)
    │     · 검증셋 + holdout 평가
[챔피언 모델 + 챌린저 모델 등록 (MLflow)]

3.4 §7.4 하이퍼파라미터 탐색 (~ 250 자 + 표)¤

본 사업의 하이퍼파라미터 탐색은 [탐색전략] (grid·random·Optuna TPE 등) 으로 [trial수] trial 수행한다. 탐색 공간은 모델별로 다음과 같이 정의하며, 자원 예산 (GPU 시간) 은 phase 1·2 합산 [자원] 으로 한정한다.

모델 탐색 공간 trial 수 평가 지표
LSTM hidden [64, 512] · layers [1, 4] · dropout [0.1, 0.5] · lr [1e-5, 1e-2] 100 [1차지표]
XGBoost n_estimators [100, 1000] · max_depth [3, 10] · lr [0.01, 0.3] 50 [1차지표]
CNN backbone (ResNet·EfficientNet) · lr · batch · augmentation 60 [1차지표]
LLM+RAG chunk size [256, 1024] · top-k [3, 10] · temperature [0.0, 0.7] 30 RAGAS Faithfulness

3.5 §7.5 검증·성능 지표 (~ 300 자 + 표)¤

본 모델의 성능 지표는 [guide/kpi-measurement.md] §1.3 AI 모델 KPI 군 + [track/track2-index.md] §7.2 KPI 5 그룹을 답습하여 모델 성능·도메인 KPI 정합 양 축을 함께 평가한다. 1 차 KPI 임계 [임계] 이상 달성 시 챔피언 승급 후보로 등록하며, 챌린저는 분기별 비교 후 승급 (track2 §6.3).

지표 군 1 차 지표 임계 도메인 KPI 정합
분류 F1 (Macro) · Precision · Recall F1 ≥ [임계1] 불량률 ↓ [%]
회귀 MAE · MAPE · R² MAE ≤ [임계2] 치수 σ ↓ [%]
이상탐지 AUROC · AUPRC · F1 (이상) AUROC ≥ [임계3] 이상 검출 → 사전 조치 비율 ↑
LLM+RAG RAGAS Faithfulness · Answer Relevancy · 인용 정확도 Faithfulness ≥ [임계4] 작업 지시서 응답 정확도 ↑
운영 추론 지연 P95 · 처리량 P95 ≤ [지연] ms 실시간성 만족

3.6 §7.6 비교 Baselines (~ 250 자 + 표)¤

본 모델의 우월성은 다음 baseline 비교로 입증한다. 한국 R&D 평가자가 "AI 도입의 차별화" 를 점검하는 직접 항목.

Baseline 비교 방식 1 차 모델 목표
통계 모델 (SPC 3σ rule·MA) 동일 검증셋 평가 정확도 ≥ baseline + 15 % p
Rule-based (현장 규칙) 동일 검증셋 평가 정확도 ≥ rule-based + 10 % p
검사관 평균 정확도 검사관 ground-truth 정확도 ≥ 검사관 평균
사내 기존 시스템 A/B 테스트 (운영) 운영 KPI ↑ [%]
산업 표준·논문 외부 검증 정합 또는 우월

3.7 §7.7 모델 리스크 등록 (~ 300 자 + 표)¤

본 모델의 운영·기술 리스크는 [guide/risk-matrix.md] 4 분기 매트릭스 형식 + [track/track3-index.md] §5.5 RAG 환각 방지를 답습한다. 우선순위 리스크 3 종 ([우선순위리스크]) 은 phase 1·2 의 완화 활동에 자원을 우선 배정.

# 리스크 발생가능성 영향도 완화 조치 모니터링 (§9 입력)
M1 LLM 환각 (인용 누락·왜곡) 높음 RAG 5 계층 + 인용 강제 + Validator 그렙 감사 RAGAS Faithfulness 일 단위
M2 드리프트 (운영 후 성능 저하) track2 §5.5 모니터링 PSI 0.1·0.25 임계 + 재학습 트리거 PSI · 도메인 KPI 주 단위
M3 과적합 (val·test 격차) 낮음 early stopping + L2 + 교차검증 + 외부 holdout val·test gap 모니터
M4 도메인 시프트 ([고객사] 외 일반화) 낮음 도메인 다양화·앙상블·전이학습 + 운영 시 fine-tune 외부 데이터 평가
M5 인용 실패 (RAG citation drop) 높음 인용 표기 강제 + Validator 그렙 100 % 보존 검사 인용 보존율
M6 민감도 누출 (등급 ④·⑤) 낮음 치명 [module/saas-security.md] 도면 마스킹 + 온프레미스 sLM 강제 외부 호출 로그 0
M7 추론 지연 (P95 > SLA) 낮음 edge 양자화·distillation + 모델 경량화 + 자원 증설 P50·P95·P99 실시간

4. 6 도메인 적용 예시¤

본 워크스페이스 6 패키지 §5 의 5.2 카드 매핑 + 시나리오 카탈로그 모델 매핑 추출.

도메인 X·y 형식 1 차 모델 2 차 (앙상블) 학습 전략 LLM·sLM
철강 대기업 시계열 + 이미지 + 텍스트 결합 LSTM + CNN + LLM+RAG 멀티모달 XGBoost 보강 시계열 scratch + 비전 fine-tune + sLM LoRA EXAONE 또는 포스코 PB
중견 냉연 시계열 + 이미지 LSTM + CNN XGBoost 앙상블 scratch + ImageNet fine-tune (선택) HyperCLOVA
특수강관 텍스트 (Mill Sheet OCR) + 이미지 (UT) + 시계열 LLM+RAG + CNN + LSTM 앙상블 sLM LoRA fine-tune + 비전 fine-tune EXAONE LoRA
고무 양산 시계열 + 비전 LSTM + CNN (YOLOv8) XGBoost 보강 scratch + ImageNet fine-tune
정밀가공 중소 정형 표 + 측정값 XGBoost + LSTM (선택) scratch
유틸·ESG 시계열 + 환경 변수 + 안전 분류 LSTM + XGBoost + 이상탐지 (Isolation Forest) + LLM+RAG (안전 SOP) scratch + sLM LoRA EXAONE (안전 SOP RAG)

[출처: 사업계획서_패키지[1-6]_*_파일럿.md §5 + track/track1-engine-cards.md + scenario/catalog.md + guide/korean-slm.md §3]


5. 사업계획서 §7 인용·작성 강도 3 단계¤

5.1 강 (다년 R&D / 67 페이지 양식)¤

§7.1~§7.7 7 절 모두 풀 본문 + 표 5 종 + ASCII 학습 전략 흐름도 + 모델 아키텍처 도식 (멀티모달 결합). 패키지 1·6 답습.

5.2 중 (단년 R&D / 9-12 개월)¤

§7.1·7.2·7.3·7.5·7.7 5 절 (7.4 HPO·7.6 baseline 은 §7.3·§7.5 에 흡수) + 표 3-4 종. 패키지 2·3·4·5 답습.

5.3 약 (PoC / 6 개월 이하)¤

§7.1·7.2·7.5 3 절 (7.3·7.4·7.6·7.7 은 §7.2 선정 근거·§4 phase 본문에 흡수) + 표 2 종. 패키지 5 답습.


6. 다른 자산과의 결합 패턴¤

자산 결합 방향 인용 위치
guide/data-spec.md (BLK-DATA-01) DATA → MODEL §3.2 X 형식·차원 + §3.3 y 문제 유형 → §7.1 모델 후보 매트릭스 1 차 제약
track/track1-engine-cards.md 본 가이드 인용 §7.1 엔진 패턴 7 종 (5.2-a~g)
guide/korean-slm.md §3 본 가이드 인용 §7.1·7.3 LLM·sLM 7 비교 매트릭스·LoRA·QLoRA
track/track2-index.md §6.3 본 가이드 인용 §7.3·7.5 챔피언·챌린저 승급
track/track2-index.md §7.2 본 가이드 인용 §7.5 KPI 5 그룹 (모델 성능·운영·드리프트)
track/track3-index.md §5.2·5.5 본 가이드 인용 §7.7 RAG 환각 방지·인용 강제
guide/kpi-measurement.md §1.3 본 가이드 인용 §7.5 AI 모델 KPI 군 + 정합 KPI
guide/risk-matrix.md 본 가이드 인용 §7.7 4 분기 매트릭스 형식 답습
module/saas-security.md 본 가이드 인용 §7.7 M6 민감도 누출 완화
guide/execution-roadmap.md (BLK-EXEC-01·02) §3.5 R3·R4 결합 검증 본 가이드 §3.7 M1·M2 와 정합 — 두 가이드의 모델 리스크 항목 중복 차단 (§4.5 위험 등록 = 사업 차원 / §7.7 리스크 등록 = 모델 차원)
guide/deployment-plan.md (BLK-TRAIN-01·02) MODEL → 적용·배포 §3.2 운영 환경·§3.3 LLM 모델 → §8 배포 아키텍처
guide/mlops-ritual.md (BLK-MLOPS-01·02) MODEL → MLOps §3.5 챔피언·챌린저·§3.7 드리프트·환각 → §9 모니터링·재학습 트리거

7. (확인 필요) 항목¤

  • 모델 후보 우선순위 — 시나리오·X·y·운영 환경에 따라 동적 변동. 사업 착수 후 phase 1 의 PoC 결과로 확정
  • 하이퍼파라미터 탐색 범위 — 본 가이드 §3.4 의 탐색 공간은 일반 권장값. 모델·데이터 규모에 따라 사업 착수 후 조정
  • Baseline 정확도 — 사업 착수 시점 baseline 실측. 본 가이드 §3.6 예시 수치는 산업 평균 추정
  • LLM·sLM 모델 deprecation — Gemini 2.5 Flash 는 2026-10-16 shutdown 예정이며 권장 대체 모델은 gemini-3-flash-preview 이다. 사업 [기간] 내 모델 전환 대비 필수 ([guide/korean-slm.md] §5 답습)
  • GPU·자원 한도 — 사업 예산·인프라·외부 위탁에 따른 자원 변동. §3.4 trial 수·학습 [기간] 조정
  • 챔피언·챌린저 승급 임계track2 §6.3 답습이나 도메인·KPI 에 따라 변동
  • 외부 학습 자원 — 클라우드 GPU·외부 위탁 활용 시 민감도 등급 ([guide/data-spec.md] §3.7) 정합 재확인

8. 모델 한계·재사용 포인트¤

8.1 한계¤

  • 7 범주 MECE 한계 — "앙상블" 은 §7.1 후보 + §7.3 학습 전략 양쪽 인용. Agent 는 §7.1 = 모델 종류 / §7.3 = 결합 방식 분리
  • 6 도메인 외 문제 유형 부족 — 음성·자연어 생성·강화학습 등은 본 가이드 §4 예시 행 없음. (확인 필요) 마커로 노출
  • LLM·sLM 의 외부 모델 의존성 — 한국 sLM (EXAONE·HyperCLOVA 등) 는 외부 공급자 일정·라이센스에 의존. 본 가이드는 7 비교 매트릭스 시점 기준 — guide/korean-slm.md 갱신 동기화 필수
  • HPO 자원 예산 단순화 — Optuna TPE 100 trial 등 일반 권장값. 대규모 LLM fine-tune 의 경우 1 trial = 수 시간·수십만원 GPU 비용. §3.4 표는 일반화 한계
  • 챔피언·챌린저 운영의 단년 R&D 부적용 — track2 §6.3 답습이나 단년 R&D 에서는 챔피언 단일 운영. §3.5 표의 챔피언·챌린저 행은 다년 R&D 또는 운영 단계에서만 활성

8.2 다른 프로젝트 재사용 포인트¤

  • 7 범주 MECE 분류 (Candidate·Selection·Training·HPO·Evaluation·Baseline·Risk) — 모든 ML·DL 프로젝트 모델 선정 단계 표준 프레임. 의료·금융·법무·자율주행에 답습 가능
  • 3 Tier 입력 스키마 + DATA → MODEL 의존성 흐름 — 데이터 명세 출력 → 모델 선정 입력의 단방향 결합 패턴. 다른 ML 프로젝트에 답습 가능
  • 5 차원 선정 매트릭스 (데이터 규모·도메인·해석성·인프라·운영 환경) — 모델 선정 표준 의사결정 프레임
  • 모델 리스크 7 항 + §9 모니터링 직결 매핑 — 모델 리스크 = MLOps 모니터링 트리거의 직접 입력 패턴. 다른 운영 자동화 시스템에 답습 가능
  • 단년·다년 차등 강도 (5.2·5.3) 패턴 — 사업 규모·기간에 따라 §7 본문 깊이 자동 조절. 다른 generator 시스템에 답습 가능

[출처: 본 가이드 = track/track1-engine-cards.md + guide/korean-slm.md + track2·3_공통본문_목차.md + guide/kpi-measurement.md + guide/data-spec.md + guide/risk-matrix.md + 6 패키지 §5 5.2 카드 매핑 + 시나리오 카탈로그의 종합. Agent 의 Section §7 Writer 가 본 가이드를 system prompt 컨텍스트로 받아 §7.1~§7.7 본문 + 표 5 종 + ASCII 학습 전략 흐름도 자동 생성에 사용한다.]

📌 이 페이지 정보 (개발자용)
  • 원본 파일: 가이드_모델_선정_학습_기법.md
  • 자산 군: 📋 운영 가이드
  • slug 경로: guide/model-training.md
  • 워크스페이스 정책: 원본 .md 수정 0 — hooks 로만 시각 변환
  • 자산 자족성 정상화: Phase E7 완료 (잔여 외부 갭 4)