You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
안녕하세요.
Deep learning 과 cheminformatics 에 대해 공부하고 있는 학생입니다.
좋은 논문 내주셔서 감사합니다. 잘 읽었습니다.
한편, 궁금한 점이 생겨 질문드립니다.
코드와 논문을 통해 보았을 때, 모델에서는 Fully Connected layer에 들어가기 전에,
filter-wise(feature-wise)로 summation하여 그 값을 기반으로 FC layer를 거쳐 classification하는 것으로 보입니다.
(제가 틀렸다면 죄송합니다. 알려주시면 감사하겠습니다.)
한편, node-wise(atom-wise)하게 summation하여 FC층을 거치는 부분도 고려하셨을 수 있었을 것 같은데,
hidden feature를 기준으로 flatten한 이유가 있으신지 궁금합니다.
(물론 node-wise하게 summation하였을 경우에, pocket과 ligand의 atom의 수가 pair마다 달라
flatten size가 계속 달라지는 issue가 있을 것 같기는 합니다만,, )
혹은 두 부분 모두 실험적인 부분을 통해 이와 같은 모델을 사용하신 것인가요?
저자님의 견해가 궁금해 질문 남겼습니다..!
감사합니다!
The text was updated successfully, but these errors were encountered:
안녕하세요.
Deep learning 과 cheminformatics 에 대해 공부하고 있는 학생입니다.
좋은 논문 내주셔서 감사합니다. 잘 읽었습니다.
한편, 궁금한 점이 생겨 질문드립니다.
코드와 논문을 통해 보았을 때, 모델에서는 Fully Connected layer에 들어가기 전에,
filter-wise(feature-wise)로 summation하여 그 값을 기반으로 FC layer를 거쳐 classification하는 것으로 보입니다.
(제가 틀렸다면 죄송합니다. 알려주시면 감사하겠습니다.)
한편, node-wise(atom-wise)하게 summation하여 FC층을 거치는 부분도 고려하셨을 수 있었을 것 같은데,
hidden feature를 기준으로 flatten한 이유가 있으신지 궁금합니다.
(물론 node-wise하게 summation하였을 경우에, pocket과 ligand의 atom의 수가 pair마다 달라
flatten size가 계속 달라지는 issue가 있을 것 같기는 합니다만,, )
혹은 두 부분 모두 실험적인 부분을 통해 이와 같은 모델을 사용하신 것인가요?
저자님의 견해가 궁금해 질문 남겼습니다..!
감사합니다!
The text was updated successfully, but these errors were encountered: