Simcenter Testing Solutions What is the appropriate number of average when data processing?

2024-09-21T01:57:50.000-0400
Simcenter Testlab

요약

This document is about what is the appropriate number of averages when processing time data. We generally know that as the number of averages increases, the fluctuation of the processed data decreases, but we need to consider how many times we should average. There is no right answer, and you must make your own judgment based on the type of data. Let me explain why user judgment is necessary.


세부 정보

 

일반적으로 Time Data를 취득 후 Fourier Transform 을 이용하여 Frequency Domain으로 변환을 합니다. 이 때 여러가지 조건 중 데이터의 분석 구간(또는 시간)과 적정한 평균의 횟수를 고민하게 됩니다.

결론부터 말하자면, 권고하는 평균의 횟수는 없으며, 데이터의 특성에 따라 달라질 수 있습니다. 그러나, 대부분의 경우는 프로세싱 된 데이터의 레벨이 더이상 차이가 발생하지 않기를 바랄것입니다.

우리는 이러한 프로세싱 조건(분석 시간 및 평균 횟수 등)을 찾아야 합니다.

 

본 문서에서 활용된 데이터는 실제 고객이 문의한 데이터를 활용했으며, 어떠한 부분이 잘못되었는지 확인해 보겠습니다.

 

[Case 1]

Fig. 1은 전체 길이가 약 1800초인 데이터에 대해 특정 구간의 데이터만을 선택하여 PSD(Power Spectral Density)를 계산 후 비교한 것입니다.

이는 본격적인 프로세싱에 앞서 측정된 전체 데이터에 대한 데이터의 변동성을 판단하기 위함입니다.

시간대 별로 변동성 확인을 한 이유는, 전체 측정된 시간은 길지만 시간에 따른 데이터 변동성이 크지 않다면 굳이 모든 데이터를 프로세싱 할 필요가 없기 때문입니다. 

Fig. 1은 전체 1800초 구간 중 임의의 구간에 대해 약 100초의 데이터를 4개 선택하여 PSD를 비교한 것이며, 프로세싱 조건은 다음과 같습니다.

 

              [프로세싱 조건]

              -. Measurement Mode : Stationary

              -. Method : Free Run

              -. Number of averages : 500

              -. Overlap : 80% 

              -. Resolution : 1.0 Hz (Frame Size : 1.0 s)

 

             

Fig. 1   전체 데이터 중 특정 구간(segment) 별 PSD 비교

 

Fig. 1에서 하단부의 PSD 그래프를 보면, 시간에 따라(또는 구간에 따라) 레벨 변동성이 매우 큼을 확인 할 수 있습니다. 따라서 이 데이터는 분석할 데이터의 선택 구간을 늘림과 동시에 평균의 수도 증가시켜야 합니다.

여기서 한 가지 주의해야 할 점은 사용자의 필요에 따라 데이터 변동성과 무관하게(또는 변동성이 크더라도) 특정 구간만을 선택하여 프로세싱 할 수도 있다는 것입니다. 만약 특정 구간에서 특별한 이벤트가 발생할 수 있기 때문입니다.

 

Fig. 2는 동일한 데이터에 대해 분석 시간과 Average 수를 달리하여 프로세싱한 결과입니다. 붉은색 선은 100초의 시간에 대해 500번의 평균을 한 것이며, 초록색은 500초에 2500번, 파란색은 1000초에 5000번, 핑크색은 2000초에 10000번의 평균을 수행한 것입니다.

Average 수가 증가함에 따라 데이터의 변동 폭도 점차 줄어든다는 것을 쉽게 알 수 있습니다.

                 

Fig. 2   Average 횟수에 따른 데이터 변동성 비교                 

 

[Case 2]

이번에는 다른 종류의 데이터를 보겠습니다. Fig. 3의 데이터는 약 20초 정도 되는 데이터에 대해 평균을 50번(분석 구간 : 10초) 한 것과 100번(분석 구간 : 20초) 한 것을 비교한 것입니다.

Fig. 2의 경우 시간에 따른 데이터의 편차가 크기 때문에 1000초 이상의 데이터와 평균을 5000번 이상해야 하지만, Fig. 3은 20초의 시간과 약 100번의 평균을 하면 데이터가 거의 변하지 않는다는 것을 알 수 있습니다.

               

              [프로세싱 조건]

              -. Measurement Mode : Stationary

              -. Method : Free Run

              -. Number of averages : 50 and 100

              -. Overlap : 80% 

              -. Resolution : 1.0 Hz (Frame Size : 1.0 s)

                   

Fig. 3   특정 구간 별 PSD 비교

 

결론적으로 데이터를 분석할 때는 프로세싱에 필요한 시간과 평균 횟수에 따라 계산된 데이터의 변동성이 달라지기 때문에 이를 고려하여 프로세싱을 수행해야 합니다.

또한, 사용자의 판단에 따라 데이터의 시간 때 별 변동성이 크더라도 특정 구간만을 선택하여 사용할 수 있다는 점을 명심해야합니다.

 

KB 자료 ID# KB000153422_KO

내용

요약세부 정보

관련 구성 요소

Simcenter Testlab Digital Image Correlation Testlab Environmental Testlab Acoustics Testlab Data Management Testlab Desktop Testlab Durability Testlab General Acquisition Testlab General Processing & Reporting Testlab Rotating Machinery & Engine Testlab Sound Designer Testlab Structural Dynamics Testlab Turbine