본문 바로가기
HOME> 논문 > 논문 검색상세

논문 상세정보

자가 조직화 지도의 커널 공간 해석에 관한 연구
A New Self-Organizing Map based on Kernel Concepts

정성문   (국가보안기술연구소  ); 김기범   (국가보안기술연구소  ); 홍순좌   (국가보안기술연구소  );
  • 초록

    Kohonen SOM(Self-Organizing Map)이나 MLP(Multi-Layer Perceptron), SVM(Support Vector Machine)과 같은 기존의 인식 및 클러스터링 알고리즘들은 새로운 입력 패턴에 대한 적응성이 떨어지고 학습 패턴 자체의 복잡도에 대한 학습률의 의존도가 크게 나타나는 등 여러 가지 단점이 있다. 이러한 학습 알고리즘의 단점은 문제의 학습 패턴자체의 특성을 잃지 않고 문제의 복잡도를 낮출 수 있다면 보완할 수 있다. 패턴 자체의 특성을 유지하며 복잡도를 낮추는 방법론은 여러 가지가 있으며, 본 논문에서는 커널 공간 해석 기법을 접근 방법으로 한다. 본 논문에서 제안하는 kSOM(kernel based SOM)은 원 공간의 데이터가 갖는 복잡도를 무한대에 가까운 초 고차원의 공간으로 대응시킴으로써 데이터의 분포가 원 공간의 분포에 비해 상대적으로 성긴(spase) 구조적 특정을 지니게 하여 클러스터링 및 인식률의 상승을 보장하는 메커니즘 을 제안한다. 클러스터링 및 인식률의 산출은 본 논문에서 제안한 새로운 유사성 탐색 및 갱신 기법에 근거하여 수행한다. CEDAR DB를 이용한 필기체 문자 클러스터링 및 인식 실험을 통해 기존의 SOM과 본 논문에서 제안한 kSOM과 성능을 비교한다.


    Previous recognition/clustering algorithms such as Kohonen SOM(Self-Organizing Map), MLP(Multi-Layer Percecptron) and SVM(Support Vector Machine) might not adapt to unexpected input pattern. And it's recognition rate depends highly on the complexity of own training patterns. We could make up for and improve the weak points with lowering complexity of original problem without losing original characteristics. There are so many ways to lower complexity of the problem, and we chose a kernel concepts as an approach to do it. In this paper, using a kernel concepts, original data are mapped to hyper-dimension space which is near infinite dimension. Therefore, transferred data into the hyper-dimension are distributed spasely rather than originally distributed so as to guarantee the rate to be risen. Estimating ratio of recognition is based on a new similarity-probing and learning method that are proposed in this paper. Using CEDAR DB which data is written in cursive letters, 0 to 9, we compare a recognition/clustering performance of kSOM that is proposed in this paper with previous SOM.


  • 주제어

    자가조직화 지도 .   커널 공간 해석 .   학습.  

  • 참고문헌 (11)

    1. V.N. Vapnik, 'The nature of statistical learning theory', Springer Verlag, New York, 1995 
    2. V.N. Vapnik, 'Statistical Learning Theory', Wiley, New York, 1998 
    3. K-R. Muller, et al., 'An Intoduction to Kernel-Based Learning Algorithms', IEEE Transactions on Neural Netwoks, Vol.12, No.2, March, 2001 
    4. C.J.C. Burges, 'A Tutorial on Support Vector Machines for Pattern Recognition', Data Mining and Knowledge Discovery, Vol.2, pp.121-167, 1998 
    5. Bernhard Scholkopf, et. al., 'Input Space vs. Feature Space in Kernel Based Methods', IEEE Transactions on Neural Netwoks, Vol.10, No.5, pp.1000-1017, 1999 
    6. B. Scholkopf, 'Support vector learning', Oldenbourg Verlag, Munich, 1997 
    7. G. Baudat and F. Anouar, 'Generalized discriminant analysis using a kernel approach', Neural Computation, Vol.12, No.10, pp.2385-2404, 2000 
    8. B. Scholkopf, A.J, Smola, and K-R. Muller, 'Nonlinear component analysis as a kernel eigenvalue problem', Neural Computation, Vol.10, pp.1299-1319, 1998 
    9. Y.A. LeCun, et. al., 'Learning algorithms for classification: A comparison on handwritten digit recognition', Neural Networks, 1995 
    10. Sungmoon Cheong, Sang Hoon Oh and Soo- Young Lee, 'Support Vector Machines with Binary Tree Achitecture for Multi-Class Classification', Neural Information Processing Letters and Reviews, Vol.2, No.3, March, 2004 
    11. Simon Haykin, 'Neural Networks', Prentice Hall, 2nd Ed., 1999 

 활용도 분석

  • 상세보기

    amChart 영역
  • 원문보기

    amChart 영역

원문보기

무료다운로드
  • NDSL :
유료다운로드

유료 다운로드의 경우 해당 사이트의 정책에 따라 신규 회원가입, 로그인, 유료 구매 등이 필요할 수 있습니다. 해당 사이트에서 발생하는 귀하의 모든 정보활동은 NDSL의 서비스 정책과 무관합니다.

원문복사신청을 하시면, 일부 해외 인쇄학술지의 경우 외국학술지지원센터(FRIC)에서
무료 원문복사 서비스를 제공합니다.

NDSL에서는 해당 원문을 복사서비스하고 있습니다. 위의 원문복사신청 또는 장바구니 담기를 통하여 원문복사서비스 이용이 가능합니다.

이 논문과 함께 출판된 논문 + 더보기