sas(e-miner)를 이용한 의사결정 나무 분석 레포트
*도*
다운로드
장바구니
소개글
sas프로그램 내에 있는 E-Miner를 이용하여 의사결정나무를 직접 실행해보고 결과를 해석한 리포트이다.<< 의사 결정 나무 >>
■ 의사결정나무(Decision Tree)의 개념
▷ 의사결정나무 : 의사결정규칙(decision rule)을 나무구조로 도표화하여 분류와 예측(prediction)을 수행하는 분석방법이다.
▷ 의사결정나무의 구성요소
뿌리마디(root node) : 나무가 시작되는 마디로써 전체자료로 이루어져 있다.
자식마디(child node) : 하나의 마디로부터 분리되어 나간 2개 이상의 마디들을 의미한
부모마디(parent node) : 자식마디의 상위마디를 의미한다.
끝마디(terminal node) 또는 잎(leaf) : 각 나무줄기의 끝에 위치하고 있는 마디를 의미
중간마디(internal node) : 나무구조의 중간에 있는 끝마디가 아닌 마디들을 의미한다.
가지(branch) : 하나의 마디로부터 끝마디까지 연결된 일련의 마디들을 의미한다.
가지의 깊이(depth) : 가지를 이루고 있는 마디의 개수
▷ 의사결정나무의 형성과정
의사결정나무의 형성 : 분석의 목적과 자료구조에 따라서 적절한 분리기준(split criterion)
과 정지규칙(stopping rule)을 지정하여 의사결정나무를 얻는다.
가지치기 : 분류오류(classification error)를 크게 할 위험(risk)이 높거나 부적절한
추론규칙(induction rule)을 가지고 있는 가지(branch)를 제거한다.
타당성 평가 : 이익도표(gains chart)나 위험도표(risk chart) 또는 검증용 자료(test data)
에 의한 교차 타당성(cross validation) 등을 이용하여 의사결정나무를 평가한다.
해석 및 예측 : 의사결정나무를 해석하고 예측모형을 설정한다.
■ 순수도 와 분리기준
▷ 분리기준 : 하나의 부모마디로부터 자식마디들이 형성될때, 입력변수(input)의 선택과
범주(category)의 병합이 이루어 질 기준을 의미한다.
▷ 순수도(purity) 또는 불순도(impurity) : 부모마디로부터 자식마디가 형성되었을때
목표변수의 분포를 구별하는 정도
▷ 이산형 목표변수에 사용되는 분리기준 : 빈도(frequency)에 기초
카이제곱통계량(Chi-Square statistic)의 p-값 : p-값이 가장 작은 예측변수와 그 때의 최적분리에 의해서 자식마디를 형성
지니 지수(Gini index) : 불순도를 측정하는 하나의 지수로서 지니지수를 가장 감소시켜 주는 예측변수와 그 때의 최적분리에 의해서 자식마디를 선택
엔트로피 지수(Entropy index) : 다항분포에서의 우도비 검정통계량을 사용하는 것과 같은 것으로 알려져 있음. 이 지수가 가장 작은 예측변수와 그 때의 최적분리에 의해서 자식마디를 형성
▷ 연속형 목표변수에 사용되는 분리기준 : 목표변수의 평균(mean)에 기초
분산분석에서의 F 통계량 : p-값이 가장 작은 예측변수와 그 때의 최적분리에 의해서 자식마디가 형성
분산의 감소량(Variance reduction) : 예측오차를 최소화하는 것과 동일한 기준으로 분산의 감소량을
최대화하는 기준의 최적분리에 의해서 자식마디가 형성
▷ 정지규칙(Stopting rule) : 더 이상 분리가 일어나지 않고 현재의 마디가 끝마디가 되도록하는 여러가지 규칙
▷ 가지치기(Pruning) : 지나치게 많은 마디를 가지는 의사결정나무는 새로운 자료에 적용할 때 예측오차
(prediction error)가 매우 클 가능성이 있다. 따라서 형성된 의사결정나무에서 적절하지 않은 마디를 제거
하여, 적당한 크기의 부나무(subtree)구조를 가지는 의사결정나무를 최종적인 예측모형으로 선택하는 것이
바람직하다.
■ 의사결정나무의 장점
▷ 해석의 용이성 : 중요한 입력변수를 찾기가 쉽고 모형이 간단하여 이해가 쉽다.
▷ 교호효과의 해석 : 교호효과(interaction)과 비선형성(nonlinearity)을 자동적으로 찾아내는 알고리즘이다.
▷ 비모수적 모형 : 선형성(linearity)이나 정규성(normality) 또는 등분산성(equal variance)가정이 필요없다.
목차
<< 의사 결정 나무 >>1. 예제 자료와 분석의 목적
2. 분석흐름도의 작성과 각 노드의 설정
3. 모형의 평가와 결과보기
4. 의사결정나무의 수정
5. 의사결정나분석의 대화식 수행
6. 의사결정나무에 의한 차원축소 (변수 선택)
본문내용
<< 의사 결정 나무 >>1. 예제 자료와 분석의 목적
▶ 분석의 목적
- 한 은행의 신용평가 부서에서는 대출 승인에 대한 의사결정과정을 자동화 하기 위해서 각 고 객에 대한 신용평가점수 모형을 만들고자 한다.
▶ 분석 자료 : HMEQ 데이터세트 : <표 8-1을 참조>
- 5960명에 대해서 대출과 관련된 고객정보를 포함.
- 목표변수 BAD=1, 미상환(1189명 = 20%정도), BAD=0, 상환.
- 각 고객에 대해서 12개의 입력 변수
■ Chi-Square Test : 부모마디로부터 자식마디로 분리하기 위해 Pearson의 카이제곱 통계량을 분 리기준으로 설정.
■ Entropy Reduction: 각 마디에서의 불순도(impurity)를 재는 측도인 엔트로피 지수(entropy index)를 분리기준으로 설정.
■ Gini Reduction: 각 마디에서의 불순도를 재는 측도인 지니 지수(gini index)를 분리기준으로 설 정.
■ Minimum number of observation in a leaf : 끝마디에 포함될 관측개체의 최소 개수를 의미
■ Observation required for a split search
;임의의 분리기준에 의해 부모마디가 자식마디로 분리 되기 위해 요구되는 관측 개체의 수
■ Maximum number of branches from a node: 자식마디가 형성될 때 고려될 최대의 분리 개수.
■ Maximum depth of tree: 끝마디 깊이의 최대값.
■ Splitting rules saved in each node: 각 마디에서 분리기준이 큰 순서대로 몇 개까지의 분리규칙을 저장할 것인지를 지정
■ Surrogate rules saved in each node: 일치도(agreement)가 큰 변수에 의해서 결측값을 대체하