목록전체 글 (165)
No Limitation
본 포스팅은 카이스트 산업 및 시스템 공학과 박찬영 교수님의 지식서비스를 위한 기계학습 강의를 중심으로 정리하였고 부가적으로 데이비드 포스터의 Generative Deep Learning 교재를 참고하였습니다. 그 외에도 다음 글들을 참고하였습니다. https://m.blog.naver.com/chrhdhkd/222013835684 https://wikidocs.net/149481 GAN에 대한 개념적인 설명은 앞선 포스팅(https://yscho.tistory.com/106)에 정리해놓았으니 참고 부탁드립니다. 본 포스팅에서는 GAN 성능을 평가할 수 있는 지표와, GAN을 더 개선한 다양한 모형들에 대해 추가로 간단하게 정리하고자 합니다. GAN에서 만들어진 어떠한 샘플들이 잘 만들어진 샘플들인지, ..
두 문제를 푸는 과제 중 한 문제가 풀리지 않아 결국 다 풀지 못한 채 제출하였다. 처음으로, 미처 완성하지 못한 과제물을 제출하였다. 평소 같았으면 강박증 환자마냥 밥 먹으면서도, 샤워를 하면서도 그 문제를 생각했겠지만, 오히려 마음은 홀가분한 기분이었다. 풀리지 않는 문제를 풀기 위해, 내 주변의 소중한 것들을 놓치고, 결국 내 몸뚱아리 하나 건사하지 못하는 상황에서, 그 굴레에서 해방된 느낌이었다. 고등학교와 재수시절, 대학 4년에 걸쳐 나를 압박해오던 모든 말들, '너는 이 문제 하나도 풀지 못하면 너는 인생에서 어떠한 문제도 풀지 못하는 사람이 된다', '이것도 못 풀면서 어떻게 인생의 어려운 문제들을 풀 수 있겠니', 이 모든 말로부터 잠시나마 해방이 되었던 그 기쁨은, 무언가 새로운 마음의 ..
본 포스팅은 카이스트 산업 및 시스템 공학과 박찬영 교수님의 지식서비스를 위한 기계학습 강의를 중심으로 정리하였고 부가적으로 데이비드 포스터의 Generative Deep Learning 교재를 참고하였습니다. 그 외로 다음 포스팅들을 참고하였습니다. Arjovsky, M., Chintala, S., & Bottou, L. (2017, July). Wasserstein generative adversarial networks. In International conference on machine learning (pp. 214-223). PMLR. { Original WGAN paper } https://aigong.tistory.com/66 https://github.com/MagmaTart/Paper..
오늘도 귀한 하루를 허락해주셔서 감사합니다. 하나님께서 기뻐하시는 삶을 살아가길 원하고, 주님께서 제게 원하시는 것이 ‘회개’라는 것을 알고 있습니다 주님. 제가 진실로, 진실로 회개할 수 있는 믿음을 제게 주십시오. 아버지, 제 삶의 당장의 유익이 아닌, 제 삶의 만족이 아닌 아버지께서 제게 뜻하신 바를 알아, 속히 죄에서 떠나게 하소서. 아버지께서 제게 맡기신, 제게 분부하신 일들 가운데, 형통함으로 저와 제 가족, 친구들과 이웃들에게 선한 영향으로 이들에게도 복을 미치는 형통한 자가 되게 하소서. 아멘, 주님 두려운 마음보다 감사한 마음으로 공부를 이어갑니다. 오늘 하루, 펼쳐지는 이 하루 하루의 공부와 연구 가운데에 아버지께서 가장 기뻐하시는 바를 위해 오늘도 살아갑니다. 주님, 오늘 하루도 지켜..
본 포스팅은 Ian Goodfellow et.al 의 Deep learning 교재와 카이스트 산업 및 시스템 공학과 박찬영 교수님의 지식서비스를 위한 기계학습 강의, NAVER 이활석님의 오토인코더의 모든 것 강의를 참고하여 정리하였습니다. 오토인코더의 모든 것 강의 2 https://www.youtube.com/watch?v=rNh2CrTFpm4 Variational Autoencoder는 기본적으로 "생성 모델"로 간주하게 됩니다. 본 포스팅은 autoencoder에 대한 기본 내용을 이해하는 전제하에 개념을 정리하고자 합니다. 우리가 어떠한 이미지 정보를 가지고 있다고 하면, 그 이미지에는 다양한 feature들, 특성들이 존재하게 됩니다. 예를 들면 머리 색깔, 눈의 크기 등과 같은 정보들이 들..
본 리뷰는 제 개인 유튜브 채널에도 리뷰 영상을 올려놓았습니다. 참고 바랍니다. https://www.youtube.com/watch?v=XQNRgZ2-RKg 본 포스팅은 다음 자료들을 참고하였습니다 Reference : [1] https://greeksharifa.github.io/generative%20model/2019/03/17/DCGAN/ [2] Metz, L., Poole, B., Pfau, D., & Sohl-Dickstein, J. (2016). Unrolled generative adversarial networks. arXiv preprint arXiv:1611.02163 [3] https://memesoo99.tistory.com/32 [4] https://ysbsb.github.io..
3주째 매달리고 있는 모델이 잘 동작하지 않았다. 참 내가 부족하다는 것을 느끼면서 정말 많이 연약한 내 모습을 발견할 수 있었다. 사실 별거 아닌데, 왜 이렇게 스스로 화가 났나 싶기도 하고, 쏟은 시간에 비해 나온 결과물이 형편 없었을 때의 박탈감은 말로 표현하기 어려웠다. 하지만 모든 연구의 과정은 이러한 루트를 밟는 거라고 한다. 99번 실패하고 1번 성공할 때 얻는 쾌감으로 버티는 거라고.. 참, 나란 놈은 아직 성장하려면 먼 거 같다. 오히려 즐거움이 사라지는 거 같아 두렵다. 평안하게, 즐겁게 첫 마음을 잃지 말자. 안 되도 차분히 원인을 뜯어보고 더 즐겁게 연구하자. 할 수 있다.
가장 좋아하는 두 연예인이 유퀴즈에 나와 동시에 하는 말은 '감사'였다. 생각해보면, 자신이 처한 상황, 배경이 어떻든 그 자리에서 행복하고 주변에 선한 영향을 끼치는 사람들은 자기 스스로 감사해하며 사는 사람이었다. 정말 꾸준히 노력하고 스스로 관리를 할 수 있는 배경에는 주어진 상황에 대한 감사함으로 더 motivate가 된 것이라는 생각이 들었다. 요근래 많이 생각에 잠기는 시간이 많은 것 같다. 20대 후반에 접어들면서, 결혼하는 친구들이 생기고 치열하게 살았던 20대의 대부분의 시간 속에서 한번도 돌아보지 않은 내 내면을 들여다보면서, 과연 나는 정말 내 하루를 감사하게 보내고 있는 지를 성찰해보면, 부끄럽게도 그러지 못했던 것 같다. 늘 남보다 부족한 면을 메꾸려고 애를 썼고, 나 자체에 대한..
참고했던 블로그들 도움 주셔서 감사합니다..! https://sanghyu.tistory.com/87 https://eehoeskrap.tistory.com/582 https://programs.wiki/wiki/loss-is-always-nan-and-accuracy-is-always-a-fixed-number.html https://www.dlology.com/blog/how-to-deal-with-vanishingexploding-gradients-in-keras/ https://whiteglass.tistory.com/1 https://randomwalk.tistory.com/14 https://stackoverflow.com/questions/57582503/vgg19-weights-became..
본 포스팅은 Ian Goodfellow et.al 의 Deep learning 교재와 카이스트 산업 및 시스템 공학과 박찬영 교수님의 강의를 참고하여 제작되었음을 밝힙니다. 그 외 다양한 블로그 글들을 참고하였습니다. Reference, [1] Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. MIT press. Chapter 8, Optimization for Training Deep Model https://www.deeplearningbook.org/ [2] 카이스트 산업 및 시스템 공학부 박찬영, "지식 서비스를 위한 기계학습" 강의 자료 [3] Onds 님의 블로그, https://ardino.tistory.com [4] Be..