Teach

[알림판목록 I] [알림판목록 II] [글목록][이 전][다 음]
[ Teach ] in KIDS
글 쓴 이(By): poopoo (신호대잡음�)
날 짜 (Date): 1996년09월09일(월) 21시03분01초 KDT
제 목(Title): [Re] HNN에 관하여...



  홉필드신경망으로 순회판매원문제를 푸신다고요?
  조합문제 최적화에 적절한 방향인 것 같습니다만...
  잘 못 이해하시는게 있는거 같은데요...

  먼저 weight라는 용어를 정확히 무슨 뜻으로 쓰셨나요?
  미리 말씀 드리면, 홉필드 신경망에선 
  pre-stored interconnection weights를 갖기 때문에
  따로 weight를 조절해 주지 않습니다.
  다만, 현재 주어진 가중치에서 최적의 해를 구해주는 것이죠.

  만약, weight를 각각의 constraint에 대한 importance를 정해주기
  위한 값으로 보신다면. 그 값은 적절히 각각의 조건이 얼마나
  비중을 갖느냐에따라 달라집니다만. 신경망 모델에선 어느정도의 
  fault-tolerance를 원래 갖고 있기때문에 그렇게 민감하지는 않을
  것으로 보는데요...
  조정하는 법으론,
  도시수가 consistent하게 안나오면 도시수에 곱해진
  가중치를 늘리고... 방문 횟수가 안맞으면 그 조건에 
  곱해진 가중치를 조절하고... 등등.(아주 원시적이지만 잘될 것으로 봅니다.)
  

  다음으로 다이나믹스에 대해 질문하신걸루 보면...

  새로구한 출력이 영향을 주는 것은
  업데이트를 순차적으로 할 때 발생합니다.
  다음 단계의 뉴런값을 계산할때 현재 구해진
  모든 정보를 이용하죠...
  대체적으로 좋은 결과를 주지만...
  때론 업데이트 방법을 바꿀 필요가 있죠...
  안그럼, 진동(oscillation)하기때문ㅏ�...

  그리고 병렬(parallel)적으로 업데이트할 수도 있는데.
  이경우엔 더욱더 진동할 확률이 높죠...
  그래서 어느정도의 지연이 필요합니다.
  페퍼에선 뉴런시간상수라고 나올겁니다.
  이때에는 바로 전단계의 출력만 사용하기때문에...
  오히려 나쁜 결과를 줄 수도 있다는 얘깁니다.

  그럼...
  저두 TSP는 많이 안해서...
  조금이라두 도움이 되셨길...

Ideas won't be keep; something must be done about them. - Alfres N. Whitehead 
Think much, speak little, and write less. 
A cynic is not merely one who reads bitter lessons from the past; he is one 
who is prematurely disapponited in the future. - Sydney J. Harris 
[알림판목록 I] [알림판목록 II] [글 목록][이 전][다 음]
키 즈 는 열 린 사 람 들 의 모 임 입 니 다.