[ Teach ] in KIDS 글 쓴 이(By): poopoo (신호대잡음�) 날 짜 (Date): 1996년09월09일(월) 21시03분01초 KDT 제 목(Title): [Re] HNN에 관하여... 홉필드신경망으로 순회판매원문제를 푸신다고요? 조합문제 최적화에 적절한 방향인 것 같습니다만... 잘 못 이해하시는게 있는거 같은데요... 먼저 weight라는 용어를 정확히 무슨 뜻으로 쓰셨나요? 미리 말씀 드리면, 홉필드 신경망에선 pre-stored interconnection weights를 갖기 때문에 따로 weight를 조절해 주지 않습니다. 다만, 현재 주어진 가중치에서 최적의 해를 구해주는 것이죠. 만약, weight를 각각의 constraint에 대한 importance를 정해주기 위한 값으로 보신다면. 그 값은 적절히 각각의 조건이 얼마나 비중을 갖느냐에따라 달라집니다만. 신경망 모델에선 어느정도의 fault-tolerance를 원래 갖고 있기때문에 그렇게 민감하지는 않을 것으로 보는데요... 조정하는 법으론, 도시수가 consistent하게 안나오면 도시수에 곱해진 가중치를 늘리고... 방문 횟수가 안맞으면 그 조건에 곱해진 가중치를 조절하고... 등등.(아주 원시적이지만 잘될 것으로 봅니다.) 다음으로 다이나믹스에 대해 질문하신걸루 보면... 새로구한 출력이 영향을 주는 것은 업데이트를 순차적으로 할 때 발생합니다. 다음 단계의 뉴런값을 계산할때 현재 구해진 모든 정보를 이용하죠... 대체적으로 좋은 결과를 주지만... 때론 업데이트 방법을 바꿀 필요가 있죠... 안그럼, 진동(oscillation)하기때문ㅏ�... 그리고 병렬(parallel)적으로 업데이트할 수도 있는데. 이경우엔 더욱더 진동할 확률이 높죠... 그래서 어느정도의 지연이 필요합니다. 페퍼에선 뉴런시간상수라고 나올겁니다. 이때에는 바로 전단계의 출력만 사용하기때문에... 오히려 나쁜 결과를 줄 수도 있다는 얘깁니다. 그럼... 저두 TSP는 많이 안해서... 조금이라두 도움이 되셨길... Ideas won't be keep; something must be done about them. - Alfres N. Whitehead Think much, speak little, and write less. A cynic is not merely one who reads bitter lessons from the past; he is one who is prematurely disapponited in the future. - Sydney J. Harris |