본문 바로가기
HOME> 논문 > 논문 검색상세

논문 상세정보

정보과학회논문지. Journal of KIISE. 소프트웨어 및 응용 v.33 no.12, 2006년, pp.1052 - 1061   피인용횟수: 1
본 등재정보는 저널의 등재정보를 참고하여 보여주는 베타서비스로 정확한 논문의 등재여부는 등재기관에 확인하시기 바랍니다.

분류기 성능 향상을 위한 범주 속성 가상예제의 생성과 선별
Generation and Selection of Nominal Virtual Examples for Improving the Classifier Performance

이유정   (부산대학교 컴퓨터공학과UU0000613  ); 강병호   (부산대학교 컴퓨터공학과UU0000613  ); 강재호   (야후코리아 Search R&D센터CC0084759  ); 류광렬   (부산대학교 컴퓨터공학과UU0000613  );
  • 초록

    본 논문에서는 베이지안 네트워크를 기반으로 생성하고 평가한 가상예제를 활용하여 범주 속성 데이타에 대한 분류 성능을 향상시키는 방안을 제안한다. 가상예제를 활용하는 종래의 연구들은 주로 수치 속성 데이타를 대상으로 하였고, 대상 도메인에 특화된 지식을 활용하여 특정 학습 알고리즘의 성능을 향상시키는 것을 목표로 하였다. 본 연구에서는 도메인에 특화된 지식을 활용하는 대신 주어진 훈련 집합을 기반으로 만든 베이지안 네트워크로부터 범주 속성 가상예제를 생성하고, 그 예제가 네트워크의 조건부 우도를 증가시키는데 기여할 경우 유용한 것으로 선별한다. 이러한 생성 및 선별과정을 반복하여 적절한 크기의 가상예제 집합을 수집하여 사용한다. 범주 속성 데이타를 대상으로 한 실험 결과, 여러 가지 학습 모델의 성능이 향상됨을 확인하였다.


    This paper presents a method of using virtual examples to improve the classification accuracy for data with nominal attributes. Most of the previous researches on virtual examples focused on data with numeric attributes, and they used domain-specific knowledge to generate useful virtual examples for a particularly targeted learning algorithm. Instead of using domain-specific knowledge, our method samples virtual examples from a naive Bayesian network constructed from the given training set. A sampled example is considered useful if it contributes to the increment of the network's conditional likelihood when added to the training set. A set of useful virtual examples can be collected by repeating this process of sampling followed by evaluation. Experiments have shown that the virtual examples collected this way.can help various learning algorithms to derive classifiers of improved accuracy.


  • 주제어

    기계학습 .   분류 .   베이지안 네트워크 .   나이브 베이즈 .   조건부 우도 .   가상예제.  

  • 참고문헌 (25)

    1. Quinlan, J. R., C4.5 : Programs for Machine Learning, Morgan Kaufmann Publishers, 1993 
    2. Aha, D. and Kibler, D., 'Instance-based Learning ?Algorithms,' Machine Learning, Vol.6, pp. 37-66, 1991 
    3. Breiman, L., 'Stacked Regression,' Machine Learning, Vol.24, No.2, pp. 123-140, 1996 
    4. Freund, Y. and Schapire, R. E., 'Experiments with a New Boosting Algorithm,' Proc. of the 13th International Conference on Machine Learning, pp, 148-156, 1996 
    5. Wolpert, D. H., 'Stacked Generalization,' Neural Networks, Vol.5, pp. 241-259, 1992 
    6. Aha, D. W., 'Tolerating Noisy, Irrelevant, and Novel Attributes in Instance-based Learning Algorithms,' International Journal of Man-Machine Studies, Vol.36, No.2, pp. 267-287, 1992 
    7. Kohavi, R. and Sahami, M., 'Error-based and Entropy-based Discretization of Continuous Features,' Proc. of the 2nd International Conference on Knowledge Discovery and Data Mining, pp. 114-119, 1996 
    8. Pazzani, M., 'Constructive induction of Cartesian product attributes,' Information, Statistics and Induction in Science, pp. 66-77, 1996 
    9. Alrnuallim, H. and Dietterich, T. G., 'Learning With Many Irrelevant Features,' Proc. of the 9th National Conference on Artificial Intelligence, pp. 547-552, 1991 
    10. Greiner, R. and Zhou, W., 'Structural Extension to Logistic Regression: Discriminative parameter learning of belief net classifiers,' Proc. of the 18th National Conference on Artificial Intelligence, pp. 167 -173, 2002 
    11. Grossman, D. and Domingos, P., 'Learning Bayesian Network Classifiers by Maximizing Conditional Likelihood,' Proc. of the 21th International Conference on Machine Learning, pp. 361-368, 2004 
    12. John, G. and Langley, P., 'Estimating Continuous Distributions in Bayesian Classifiers,' Proc. of the 11th Conference on Uncertainty in Artificial Intelligence, pp. 338-345, 1995 
    13. Scholkopf, B., Burges, C. J. C. and Smola, A. J., Advance in Kernel Methods - Support Vector Learning, MIT Press, 1998 
    14. Sietsma, J. and Dow, R. J. F., 'Creating Artificial Neural Networks that Generalize. Neural Networks,' IEEE transactions on Neural Networks, Vol.4, pp. 67-79, 1991 
    15. Cho, S. and Cha, K., 'Evolution of Neural Network Training Set through Addition of Virtual samples,' Proc. of the 1996 IEEE International Conference on Evolutionary Computation, pp, 685-688, 1996 
    16. Cho, S., Jang, M. and Chang, S., 'Virtual Sample Generation using a Population of Networks,' Neural Processing Letters, Vol.5, No.2, pp. 83-89, 1997 
    17. 김종성, '분류 성능 향상을 위한 가상예제 생성 방안' ?부산대학교 석사학위논문, 2004 
    18. 이유정, 강병호, 강재호, 류광렬, '가상예제를 이용한 naive Bayes 분류기 성능 향상' 한국정보과학회 제32회 추계학술발표회 논문집, Vol.:32, No.2, pp. 655-657, 2005 
    19. Burges, C. and Scholkopf, B., 'Improving the Accuracy and Speed of Support Vector Machines,' Advances in Neural Information Processing System, Vol.9, No.7, 1997 
    20. Ryu, Y. S. and Oh, S. Y., 'SIMPLE Hybrid Classifier for Face Recognition with Adaptively Generated Virtual Data,' Pattern Recognition Letters, 2002 
    21. 김종성, 박태진, 강재호, 백납철, 강원회, 이상협, 류광렬, '병합된 예제를 이용한 자동 차 번호판 문자 인식' 한국정보과학회 2004 가을 학술발표논문집(I), 제31권, 제2호, pp. 238-240, 2004 
    22. 이경순, 안동언 '문서분류에서 가상문서기법을 이용한 성능 향상' 정보처리학회논문지, 저11-B권, 제4호, pp. 501-508, 2004     
    23. Newman, D. J., Hettich, S., Blake, C. L. and Merz, C. J., UCI Repository of machine learning databases [http://www.ics.uci.edu/-mlearn/MLRepository .html], CA: University of California, Department of Information and Computer Science, Irvine, 1998 
    24. Weka3 - Data Mining with Open Source Machine Learning Software in Java http://www.cs.waikato.ac.nz/-ml/weka 
    25. Witten, I. H. and Frank, E., Data Mining-Practical Machine Learning Tools and Techniques with Java Implementations, Morgan Kaufman Publishers, 1999 
  • 이 논문을 인용한 문헌 (1)

    1. Kang, In-Seong ; Kim, Tae-Ho ; Lee, Hong-Chul 2011. "Data processing techniques applying data mining based on enterprise cloud computing" 韓國컴퓨터情報學會論文誌 = Journal of the Korea Society of Computer and Information, 16(8): 1~10     

 저자의 다른 논문

 활용도 분석

  • 상세보기

    amChart 영역
  • 원문보기

    amChart 영역

원문보기

무료다운로드
  • NDSL :
유료다운로드

유료 다운로드의 경우 해당 사이트의 정책에 따라 신규 회원가입, 로그인, 유료 구매 등이 필요할 수 있습니다. 해당 사이트에서 발생하는 귀하의 모든 정보활동은 NDSL의 서비스 정책과 무관합니다.

원문복사신청을 하시면, 일부 해외 인쇄학술지의 경우 외국학술지지원센터(FRIC)에서
무료 원문복사 서비스를 제공합니다.

NDSL에서는 해당 원문을 복사서비스하고 있습니다. 위의 원문복사신청 또는 장바구니 담기를 통하여 원문복사서비스 이용이 가능합니다.

이 논문과 함께 이용한 콘텐츠
이 논문과 함께 출판된 논문 + 더보기