CnUnix

[알림판목록 I] [알림판목록 II] [글목록][이 전][다 음]
[ CnUnix ] in KIDS
글 쓴 이(By): sang (Grid)
날 짜 (Date): 2006년 8월 12일 토요일 오후 03시 21분 33초
제 목(Title): 수치해석? 



Parallel application이 하나 있습니다. 2대의 기계에서 각 1개의 process를
launch시켜서 총 2개의 process로 수행시킬 경우 n번 반복하더라도 수행시간의
평균값이 거의 유사합니다. 즉, standard deviation이 수행시간의 0.x% 정도입니다. 

그런데, 위와 동일한 환경에서 동일한 application을 2개 동시에 수행시킬 경우
n번 반복하면 수행시간의 평균값이 매우 큰 차이를 보입니다. 물론 context switch, 
late message delivery 등의 이유로 수행시간도 늘어나고 standard deviation도 
커지는 것은 당연하겠지만 이 차이가 너무 심하게 나타나서 문제입니다. 가령, 
수행시간이 10초에서 100초까지 매우 큰 variation을 보여줍니다.

co-scheduling 등을 적용하면 차이가 좀 줄어들지 않을까 싶기도합니다만 현재
뽑아진 데이타에서 의미있는 값들을 추출하는 방법론이 있을까 싶어 질문 올립니다.
즉, target system에 제안된 방법을 적용하지 않았을 경우와 적용했을 경우에 
대해 각각 benchmark을 수행시켜 수행시간을 뽑았을 경우, 매회 수행시간의 
variation이 매우 큰 경우에도 이들을 해석해내는 방법이 있을까요?
(참고: 제안된 방법은 multiprogramming 환경에서 network throughput을 향상시키기
위한 것이고, 제안된 방법에 대한 metric은 개선됨이 뚜렷이 나타나는데, 이로 인한
application 수행시간의 이득이 얼마나 되는지를 보여주고 싶습니다.)

application | A   B   C
exe time (1)| a1  b1  c1
exe time (2)| a2  b2  c2
 ...
exe time (n)| an  bn  cn


[알림판목록 I] [알림판목록 II] [글 목록][이 전][다 음]
키 즈 는 열 린 사 람 들 의 모 임 입 니 다.