본문 바로가기
HOME> 논문 > 논문 검색상세

논문 상세정보

적응형 재귀 분할 평균법을 이용한 메모리기반 추론 알고리즘
A Memory-based Reasoning Algorithm using Adaptive Recursive Partition Averaging Method

이형일   (김포대학 컴퓨터계열UU0000317  ); 최학윤   (김포대학 전자정보계열UU0000317  );
  • 초록

    메모리 기반 추론에서 기억공간의 효율적인 사용과 분류성능의 향상을 위하여 제안되었던 RPA(Recursive Partition Averaging)알고리즘은 대상 패턴 공간을 분할 한 후 대표 패턴을 추출하여 분류 기준 패턴으로 사용한다. 이 기법은 메모리 사용 효율과 분류 성능 면에서 우수한 결과를 보였지만, 분할 종료 조건과 대표패턴의 추출 방법이 분류 성능 저하의 원인이 되는 단점을 가지고 있었다. 여기에서는 기존 RPA의 단점을 보안한 ARPA(Adaptive RPA) 알고리즘을 제안한다. 제안된 알고리즘은 패턴 공간의 분할 종료 조건으로 특징별 최빈 패턴 구간(FPD: Feature-based population densimeter)추출 알고리즘을 사용하며, 학습 결과 패턴의 생성을 대표패턴 추출기법 대신 최빈 패턴 구간을 이용하여 생성한 최적초월평면(OH: Optimized Hyperrectangle)을 사용한다. 제안된 알고리즘은 k-NN 분류기에서 필요로 하는 메모리 공간의 40%정도를 사용하며, 분류에 있어서도 RPA보다 우수한 인식 성능을 보이고 있다. 또한 저장된 패턴의 감소로 인하여, 실제 분류에 소요되는 시간 비교에 있어서도 k-NN보다 월등히 우수한 성능을 보이고 있다.


    We had proposed the RPA(Recursive Partition Averaging) method in order to improve the storage requirement and classification rate of the Memory Based Reasoning. That algorithm worked not bad in many area, however, the major drawbacks of RPA are it's partitioning condition and the way of extracting major patterns. We propose an adaptive RPA algorithm which uses the FPD(feature-based population densimeter) to stop the ARPA partitioning process and produce, instead of RPA's averaged major pattern, optimizing resulting hyperrectangles. The proposed algorithm required only approximately 40% of memory space that is needed in k-NN classifier, and showed a superior classification performance to the RPA. Also, by reducing the number of stored patterns, it showed an excellent results in terms of classification when we compare it to the k-NN.


  • 주제어

    거리기반학습 .   기계학습 .   인공지능.  

  • 참고문헌 (17)

    1. 이형일, 정태선, 윤충화, 강경식, 재귀 분할 평균기법을 이용한 새로운 메모리 기반 추론 알고리즘, 한국정보처리학회 논문지 제6권 제7호, pp. 1849-1857, 1999 
    2. 최영희, 장수민, 유재수, 오재철, 수량적 연관규칙탐사를 위한 효율적인 고빈도 항목열 생성기법, 한국정보처리학회 논문지 제6권 제10호, pp. 2597-2607, 1999 
    3. 김상귀, 이형일, 윤충화, A study on the optimization of binary decision tree, 명지대학교 산업기술연구소 논문지, vol. 16, pp. 104-112, 1997 
    4. G. Bradshaw, Learning about speech sounds: The NEXUS project. In Proceedings of the Fourth International Workshop on Machine Leaning, pp. 1-11, Irvine, CA: Morgan Kaufmann, 1987 
    5. T. Kohonen, Learning vector quantization for pattern recognition(Technical Report TKK-F-A601). Espoo, Finland: Helsinki University of Technology, Department of Technical Physics, 1986 
    6. S. Salzberg, On Comparing Classifiers: Pitfalls to Avoid and a Recommended Approach, Data Mining and Knowledge Discovery, Vol. 1, pp. 1-11, 1997 
    7. D. Wettschereck and T. Dietterich, An Experimental Comparison of the Nearest- Neighbor and Nearest-Hyperrectangle Algorithms, Machine Learning, Vol. 19, No.1, pp. 1-25, 1995 
    8. S. Salzberg, A Nearest Hyperrectangle Learning Method, Machine Learning, no. 1, pp. 251-276, 1991 
    9. 정태선, 이형일, 윤충화, 고정 분할 평균알고리즘을 사용하는 새로운 메모리 기반 추론, 한국정보처리학회 논문지 제6권 제6호, pp1563-1570, 1999     
    10. D. Wettschereck, A Review and Empirical Evaluation of Feature Weighting Methods for a Class of Lazy Learning Algorithms, Artificial Intelligence Review Journal, 1996 
    11. J.R. Quinlan, Induction of Decision Trees, Machine Learning Vol. 1, pp. 81-106, 1986 
    12. D. Wettschereck, Weighted k-NN versus Majority k-NN A Recommendation : German National Research Center for Information Technology, 1995     
    13. S. Cost and S. Salzberg, A Weighted Nearest Neighbor Algorithm for Learning with Symbolic Features, Machine Learning, Vol. 10, No.1, pp. 57-78, 1993 
    14. D. Aha, A Study of Instance-Based Algorithms for Supervised Learning Tasks: Mathematical, Empirical, and Psychological Evaluations, Ph. D. Thesis, Information and Computer Science Dept., University of California, Irvine, 1990 
    15. D. Aha, Instance-Based Learning Algorithms, Machine Learning, Vol. 6, No. 1, pp. 37-66, 1991 
    16. T. Dietterich, A Study of Distance-Based Machine Learning Algorithms, Ph. D. Thesis, computer Science Dept., Oregon State University, 1995 
    17. D. Wettschereck and T. Dietterich, Locally Adaptive Nearest Neighbor Algorithms, Advances in Neural Information Processing Systems 6, pp. 184-191, Morgan Kaufmann, San Mateo, CA. 1994 
  • 이 논문을 인용한 문헌 (1)

    1. Han Jin-Chul ; Kim Sang-Kwi ; Yoon Chung-Hwa 2006. "A New Incremental Instance-Based Learning Using Recursive Partitioning" 정보처리학회논문지. The KIPS transactions. Part B. Part B, b13(2): 127~132     

 저자의 다른 논문

  • 이형일 (13)

    1. 1998 "K_NN 분류기의 메모리 사용과 점진적 학습에 대한 연구" 情報學硏究 = The studies of information technology 1 (1): 65~84    
    2. 1999 "재귀 분할 평균 법을 이용한 새로운 메모리기반 추론 알고리즘" 정보처리논문지 = The transactions of the Korea Information Processing Society 6 (7): 1849~1857    
    3. 2003 "강화학습을 이용한 다중 에이전트 제어 전략" 정보처리학회논문지. The KIPS transactions. Part B. Part B b10 (3): 249~256    
    4. 2003 "RPA분류기의 성능 향상을 위한 OHC알고리즘" 멀티미디어학회논문지 = Journal of Korea Multimedia Society 6 (5): 824~830    
    5. 2003 "강화학습을 이용한 다중 에이전트 제어 전략" 멀티미디어학회논문지 = Journal of Korea Multimedia Society 6 (5): 937~944    
    6. 2003 "초월평면 최적화를 이용한 최근접 초월평면 학습법의 성능 향상 방법" 퍼지 및 지능시스템학회 논문지 = Journal of fuzzy logic and intelligent systems 13 (3): 328~333    
    7. 2007 "반복적 고정분할 평균기법을 이용한 메모리기반 학습기법" 멀티미디어학회논문지 = Journal of Korea Multimedia Society 10 (11): 1516~1522    
    8. 2008 "메모리 기반 추론 기법에 기반한 점진적 다분할평균 알고리즘" 전기전자학회논문지 = Journal of IKEEE 12 (1): 65~74    
    9. 2008 "동적 분할 평균을 이용한 새로운 메모리 기반 학습기법" 한국지능시스템학회 논문지 = Journal of Korean institute of intelligent systems 18 (4): 456~462    
    10. 2009 "평가와 선택기법에 기반한 대표패턴 생성 알고리즘" 韓國컴퓨터情報學會論文誌 = Journal of the Korea Society of Computer and Information 14 (3): 139~147    
  • 최학윤 (9)

 활용도 분석

  • 상세보기

    amChart 영역
  • 원문보기

    amChart 영역

원문보기

무료다운로드
  • NDSL :
유료다운로드

유료 다운로드의 경우 해당 사이트의 정책에 따라 신규 회원가입, 로그인, 유료 구매 등이 필요할 수 있습니다. 해당 사이트에서 발생하는 귀하의 모든 정보활동은 NDSL의 서비스 정책과 무관합니다.

원문복사신청을 하시면, 일부 해외 인쇄학술지의 경우 외국학술지지원센터(FRIC)에서
무료 원문복사 서비스를 제공합니다.

NDSL에서는 해당 원문을 복사서비스하고 있습니다. 위의 원문복사신청 또는 장바구니 담기를 통하여 원문복사서비스 이용이 가능합니다.

이 논문과 함께 출판된 논문 + 더보기