Shapiro-wilk 정규성 검정 - shapiro-wilk jeong-gyuseong geomjeong

다운로드

(기관인증 필요)

키워드 보기

초록보기

함수 데이터는 다양한 분야에서 수집되고 있으며, 집단 간의 함수 데이터를 비교해야하는 경우가 종종 발생한다. 이럴 경우 점별 분산분석 방법을 이용하여 설명하기에는 무리가 있으며, 통합된 결과를 제시할 필요가 있다. 이에 대한 다양한 연구가 제안되었으며, 최근에 R 패키지 fdANOVA로 구현되었다. 이 논문에서 우선 분산분석 및 다변량 분산분석을 설명하고, 최근에 제안된 다양한 단변량 및 다변량 함수 데이터 분산분석을 설명하고자 한다. 또한 R 패키지 fdANOVA의 사용 방법을 설명하고, 이 패키지를 이용하여 서울과 부산 지역의 주별 기온을 단변량 함수 데이터 분산분석을 통해 비교하고, 손글씨 이미지를 다변량 함수 데이터로 변환하여 다변량 함수 데이터 분산분석을 이용하여 비교하고자 한다.

Functional data is collected in various fields. It is often necessary to test whether there are differences among groups of functional data. In this case, it is not appropriate to explain using the point-wise ANOVA method, and we should present not the point-wise result but the integrated result. Various studies on functional data analysis of variance have been proposed, and recently implemented those methods in the package fdANOVA of R. In this paper, I first explain ANOVA and multivariate ANOVA, then I will introduce various methods of analysis of variance for univariate and multivariate functional data recently proposed. I also describe how to use the R package fdANOVA. This package is used to test equality of weekly temperatures in Seoul and Busan through univariate functional data ANOVA, and to test equality of multivariate functional data corresponding to handwritten images using multivariate function data ANOVA.

다운로드

(기관인증 필요)

키워드 보기

초록보기

빈번하지는 않지만 한번 발생하면 상대적으로 큰 손실을 가져오는 사례를 통칭하여 부정 사례(Fraud)라고 부르며, 부정 탐지의 문제는 많은 분야에서 활용된다. 부정 사례는 정상 사례에 비해 상대적으로 관측치가 매우 적고 오분류의 비용이 월등히 크기 때문에 일반적인 이항분류 기법을 바로 적용할 수 없다. 이러한 경우에 활용할 수 있는 방법이 부정 탐지 지지 벡터기계(FDSVM)이다. 본 논문에서는 공변량이 함수형일 때 활용 가능한 함수형 부정 탐지 지지 벡터기계(F2DSVM)를 제안하였다. 제안된 방법을 사용하면 함수형 공변량을 가진 데이터에서 사용자가 목표하는 부정 탐지의 성능을 만족시키는 제약하에서 최적의 예측력을 가지는 분류기를 학습시킬 수 있다. 뿐만아니라, 통상적인 SVM과 마찬가지로, F2DSVM도 자취해의 조각별 선형성을 보일 수 있으며 이를 바탕으로 효율적인 자취해 알고리즘을 활용할 수 있고 분류기의 학습 시간을 크게 단축시킬 수 있다. 마지막으로, 반도체 웨이퍼 불량 탐지 문제에 제안된 F2DSVM을 적용해 보았고, 그 활용 가능성을 확인하였다.

We call “fruad” the cases that are not frequently occurring but cause significant losses. Fraud detection is commonly encountered in various applications, including wafer production in the semiconductor industry. It is not trivial to directly extend the standard binary classification methods to the fraud detection context because the misclassification cost is much higher than the normal class. In this article, we propose the functional fraud detection support vector machine (F2DSVM) that extends the fraud detection support vector machine (FDSVM) to handle functional covariates. The proposed method seeks a classifier for a function predictor that achieves optimal performance while achieving the desired sensitivity level. F2DSVM, like the conventional SVM, has piece-wise linear solution paths, allowing us to develop an efficient algorithm to recover entire solution paths, resulting in significantly improved computational efficiency. Finally, we apply the proposed F2DSVM to the defective wafer detection problem and assess its potential applicability.

다운로드

(기관인증 필요)

키워드 보기

초록보기

2001년 9.11 테러 이후 미국은 테러와의 전쟁을 선포하면서 아프가니스탄과 이라크침공하여 단기간에 정규전 승리를 이끌었다. 하지만 이후 발생한 다수의 테러를 통제하지 못해 전후 국가 재건을 돕는 안정화 작전에 상당시간이 소요되면서, 전후 테러활동의 분석에 대한 관심이 높아지게 되었다. 본 연구에서는 시공간 종속성을 반영하는 베이지안 계층 모형을 이용해 2003년부터 2010년까지 이라크에서 발생한 테러 자료를 기반으로시·공간 요인, 자치구별 인구·종교와 같은 예측 변수들과 자치구별 테러 빈도수와의 관계를 분석하고, 2011년의 테러 위협을 예측하였다. 이렇게 구한 예측치를 바탕으로 해당지역 담당 군 지휘관이 효율적인 부대 배치를 통해 테러방지에 활용할 수 있을 것으로 기대된다.

Following the September 11, 2001 terrorist attacks, the United States declared war on terror and invaded Afghanistan and Iraq, winning quickly. However, interest in analyzing terrorist activities has developed as a result of a significant amount of time being spent on the post-war stabilization effort, which failed to minimize the number of terrorist activities that occurred later. Based on terrorist data from 2003 to 2010, this study utilized a Bayesian hierarchical model to forecast the terrorist threat in 2011. The model depicts spatiotemporal dependence with predictors such as population and religion by autonomous district. The military commander in charge of the region can utilize the forecast value based on the our model to prevent terrorism by deploying forces efficiently.

다운로드

(기관인증 필요)

키워드 보기

초록보기

5대 강력범죄(살인, 강도, 강간·강제추행, 절도, 폭력)는 사회 구성원들의 안전을 위협하는 대표 범죄들로 일상생활에서 자주 발생한다. 이러한 범죄들은 사회 구성원들의 삶의 질을 떨어뜨리는 등 부정적인 영향을 미친다. 대한민국의 수도인 서울의 경우, 지방에 있는 많은 인구가 서울로 이동하면서 서울의 인구 밀도는 증가하고, 이로 인해 5대 강력범죄 발생 위험성도 증가하고 있다. 본 연구에서는 이러한 위험성을 줄이기 위해 세 가지의 시공간 모형을 이용하여 서울의 5대 강력범죄 발생에 대한 상대위험도를 모델링하였다. 게다가, 상대위험도에 유의한 영향을 미치는 위험요인을 살펴보기 위해 다양한 위험요인을 포함하였다. 최적의 모형을 선택하기 위해 편차정보기준을 이용하였으며, 최적의 모형을 중심으로 다양한 시각화를 포함한 분석 결과를 제공하였다. 본 연구는 각 자치구의 상대위험도와 5대 강력범죄에 대한 위험에 유의한 영향을 미치는 위험요인을 분석함으로써, 사람들의 안전한 일상생활을 유지하기 위한 효율적인 전략을 수립하는 데 도움을 준다.

The five major violent crimes including murder, robbery, rape·forced indecent act, theft, and violence are representative crimes that threaten the safety of members of society and occur frequently in real life. These crimes have negative effects such as lowering the quality of citizens' life. In the case of Seoul, the capital of Korea, the risk for the five major violent crimes is increasing because the population density of Seoul is increasing as a large number of people in the provinces move to Seoul. In this study, to reduce this risk, the relative risk for the occurrence of the five major violent crimes in Seoul is modeled using three spatio-temporal models. In addition, various risk factors are included to identify factors that significantly affect the relative risk of the five major violent crimes. The best model is selected in terms of the deviance information criterion, and the analysis results including various visualizations for the best model are provided. This study will help to establish efficient strategies to sustain people's safe everyday living by analyzing important risk factors affecting the risk of the five major violent crimes and the relative risk of each region.

다운로드

(기관인증 필요)

키워드 보기

초록보기

본 논문은 고차원 시계열 자료에 이상점이 존재하는 경우 희박벡터자기회귀모형(sparse VAR; sVAR)의 모수를 강건하게 추정하는 방법에 대해서 연구하였다. 먼저 Xu 등 (2008)이 독립인 자료에서 밝혔듯이 adaptive lasso 방법이 sVAR 모형에서도 어느 정도의 강건함을 가짐을 모의 실험을 통해 알 수 있었다. 하지만, 이상점의 개수가 증가하거나 이상점의 영향력이 커지는 경우 효율성이 현저히 저하되는 현상도 관찰할 수 있었다. 따라서 이를 개선하기 위해서 최소절대편차(least absolute deviation; LAD)와 Huber 함수를 기반으로 벌점화 시키는 adaptive lasso를 이용하여 sVAR 모형을 추정하는 방법을 본 논문에서는 제안하고 그 성능을 검토하였다. 모의 실험을 통해 제안한 로버스트 추정 방법이 이상점이 존재하는 경우에 모수 추정을 더 정확하게 하고 예측 성능도 뛰어남을 확인했다. 또한 해당 방법론들을 전력사용량 데이터에 적용한 결과 이상점으로 의심되는 시점들이 존재하였고, 이를 고려하여 강건하게 추정하는 제안한 방법론이 더 좋은 예측 성능을 보임을 확인할 수 있었다.

This paper considers robust estimation of the sparse vector autoregressive model (sVAR) useful in high-dimensional time series analysis. First, we generalize the result of Xu it et al. (2008) that the adaptive lasso indeed has robustness in sVAR as well. However, adaptive lasso method in sVAR performs poorly as the number and sizes of outliers increases. Therefore, we propose new robust estimation methods for sVAR based on least absolute deviation (LAD) and Huber estimation. Our simulation results show that our proposed methods provide more accurate estimation in turn showed better forecasting performance when outliers exist. In addition, we applied our proposed methods to power usage data and confirmed that there are unignorable outliers and robust estimation taking such outliers into account improves forecasting.

다운로드

(기관인증 필요)

키워드 보기

초록보기

본 논문에서는 R에서 시계열 자료 예측을 위한 자동화 함수에 대하여 고찰하고 그 예측 성능을 비교합니다. 대표적인 시계열 예측 방법인 지수 평활 모형과 ARIMA (autoregressive integrated moving average) 모형을 대상으로 하였으며, 이들의 모형화 및 예측 자동화를 가능하게 하는 R의 4가지 자동화 함수인 forecast::ets(), forecast::auto.arima(), smooth::es()와 smooth::auto.ssarima()를 대상으로 하였습니다. 이들의 예측 성능을 비교하기 위하여 3,003가지의 시계열로 구성되어 있는 M3-Competition자료와 3가지의 정확성 척도를 사용하였습니다. 4가지 자동화 함수는 모형화의 다양성 및 편리성, 예측 정확도 및 실행 시간 등에서 각자 장단점이 있음을 확인하였습니다.

In this paper, we investigate automatic functions for time series forecasting in R system and compare their performances. For the exponential smoothing models and ARIMA (autoregressive integrated moving average) models, we focus on the representative time series forecasting functions in R: forecast::ets(), forecast::auto.arima()\newline, smooth::es() and smooth::auto.ssarima(). In order to compare their forecast performances, we use M3-Competition data consisting of 3,003 time series and adopt 3 accuracy measures. It is confirmed that each of the four automatic forecasting functions has strengths and weaknesses in the flexibility and convenience for time series modeling, forecasting accuracy, and execution time.

다운로드

(기관인증 필요)

키워드 보기

초록보기

정보적 설명 변수 공간은 일반적인 충분차원축소 방법들이 요구하는 가정들이 만족하지 않을 때 중심부분공간을 추정하기 위해 유용하다. 최근 Ko와 Yoo (2022)는 다변량 회귀에서 Li 등 (2008)이 제시한 투영-재표본 방법론을 사용하여 정보적 설명 변수 공간이 아닌 투영-재표본 정보적 설명 변수 공간을 새로이 정의하였다. 이 공간은 기존의 정보적 설명 변수 공간에 포함되지만 중심 부분 공간을 포함한다. 본 논문에서는 다변량 회귀에서 정보적 설명 변수 공간을 직접적으로 추정할 수 있는 방법을 제안하고, 이를 Ko와 Yoo (2022)가 제시한 방법과 이론적으로 그리고 모의실험을 통해 비교하고자 한다. 모의실험에 따르면 Ko-Yoo 방법론이 본 논문에서 제시한 추정 방법보다 더 정확하게 중심 부분 공간을 추정하고, 추정값들의 변동이 적다는 측면에서 보다 더 효율적임을 알 수 있다.

An informative predictor subspace is useful to estimate the central subspace, when conditions required in usual sufficient dimension reduction methods fail. Recently, for multivariate regression, Ko and Yoo (2022) newly defined a projective-resampling informative predictor subspace, instead of the informative predictor subspace, by the adopting projective-resampling method (Li it et al. 2008). The new space is contained in the informative predictor subspace but contains the central subspace. In this paper, a method directly to estimate the informative predictor subspace is proposed, and it is compared with the method by Ko and Yoo (2022) through theoretical aspects and numerical studies. The numerical studies confirm that the Ko-Yoo method is better in the estimation of the central subspace than the proposed method and is more efficient in sense that the former has less variation in the estimation.

다운로드

(기관인증 필요)

키워드 보기

초록보기

유전자 발현 데이터는 각 유전자에 대해 mRNA 양의 정도를 나타내고, 그러한 유전자 발현량에 대한 분석은 질병 발생에 대한 메커니즘을 이해하고 새로운 치료제와 치료 방법을 개발하는데 중요한 아이디어를 제공해오고 있다. 오늘날 DNA 마이크로어레이와 RNA-시퀀싱과 같은 고출력 기술은 수천 개의 유전자 발현량을 동시에 측정하는 것을 가능하게 하여 고차원성이라는 유전자 발현 데이터의 특징을 발생시켰다. 이러한 고차원성으로 인해 유전자 발현 데이터를 분석하기 위한 학습 모형들은 과적합 문제에 부딪히기 쉽고, 이를 해결하기 위해 차원 축소 또는 변수 선택 기술들이 사전 분석 단계로써 보통 사용된다. 특히, 사전 분석 단계에서 우리는 유전자 선택법을 이용하여 부적절하거나 중복된 유전자를 제거할 수 있고 중요한 유전자를 찾아낼 수도 있다. 현재까지 다양한 유전자 선택 방법들이 기계학습의 맥락에서 개발되어왔다. 본 논문에서는 기계학습 접근법을 사용하는 최근의 유전자 선택 방법들을 집중적으로 살펴보고자 한다. 또한, 현재까지 개발된 유전자 선택 방법들의 근본적인 문제점과 앞으로의 연구 방향에 대해 논의하고자 한다.

Gene expression data present the level of mRNA abundance of each gene, and analyses of gene expressions have provided key ideas for understanding the mechanism of diseases and developing new drugs and therapies. Nowadays high-throughput technologies such as DNA microarray and RNA-sequencing enabled the simultaneous measurement of thousands of gene expressions, giving rise to a characteristic of gene expression data known as high dimensionality. Due to the high-dimensionality, learning models to analyze gene expression data are prone to overfitting problems, and to solve this issue, dimension reduction or feature selection techniques are commonly used as a preprocessing step. In particular, we can remove irrelevant and redundant genes and identify important genes using gene selection methods in the preprocessing step. Various gene selection methods have been developed in the context of machine learning so far. In this paper, we intensively review recent works on gene selection methods using machine learning approaches. In addition, the underlying difficulties with current gene selection methods as well as future research directions are discussed.