목록분류 전체보기 (166)
No Limitation
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bnetHV/btrGf2xQjn5/4xtyB5iWV8BkCenETT5nKk/img.png)
본 포스팅은 개인 학습용으로 작성되었고 권철민 님의 '딥러닝 컴퓨터 비전 완벽 가이드' 강의 내용을 참고하였습니다. 이번 포스팅에서는 Object Detection task에서 One-stage Detector의 대명사인 YOLO - v1,v2,v3와 SSD에 대해 공부해보겠습니다. 앞서 배운 RCNN 계열의 모형들은 모두 ‘Two-stage Detector’로서 Region proposal을 별도의 stage로 나누어 동작하는 방법입니다. 하지만 실시간 요구 사항을 만족시킨 어렵다는 한계점이 존재합니다. 속도가 그렇게 빠르지 않기 때문이죠. 자율 주행같은 real world문제를 풀기 위해서는 정확도 만큼이나 inference의 속도가 중요한데 가장 SOTA에 위치하는 Faster RCNN의 경우도 사..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/cbfWyE/btrFz2KSdvC/pIOc9m42H1saLUymmqaBK1/img.png)
본 포스팅은 개인 학습용으로 작성되었고 권철민 님의 '딥러닝 컴퓨터 비전 완벽 가이드' 강의 내용을 참고하였습니다. 금일 포스팅에서는 Object Detection task의 기본이 되는 RCNN 계열의 알고리즘들을 간단하게 정리하고자 합니다. 우선 가장 기본이 되는 RCNN ( Region CNN ) 부터 살펴보겠습니다. RCNN RCNN은 크게 2가지 stage로 나누어 동작하게 됩니다. 1. Region Proposal 2. CNN Detection Region proposal은 말 그대로 '영역 추정'인데요. object가 있을 만한 곳을 'Selective Search' 알고리즘을 통해 2000개의 영역을 추리는 단계로 구성됩니다. 그 다음 뽑힌 영역에 대해서 CNN ( Alexnet 등 ) 네..
아끼던 후배들의 합격 소식들을 연이어 듣는 날이었다. 거의 대부분 다 합격 소식을 들고 나에게 연락이 왔고, 참 뭐 해준 것도 없는 내게 너무나도 무척이나 고마워했다. 시험도 끝나가고 학기를 마무리하는 시점에 좋은 소식까지 들으니 대학원을 입학하고 난 뒤, 처음으로 마음이 제대로 평온해지는 기분이었다. 감사했다. 하루도 기분이 천국과도 같다가 어쩔 때는 정말 나락으로 떨어지는 기분이 들 때가 많았다. 하지만 인생을 넓게 보면, 이 모든 순간 순간들은 결국 내 인생이라는 큰 직선에서 고작 작은 점들일 텐데, 참 하루 하루에 미치도록 연연하며 살았을까 싶기도 하고, 당연하게 여기는 감사한 일들을 왜 그렇게 외면하고만 살았을까 싶다. 참 오랜만에 느끼는 평안함이다. 지금 이 마음처럼, 이 순간의 마음을 언젠가..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/D0YLp/btrESEjVvyD/zX4vJDpHPNlihwEtENB77k/img.png)
참고한 글 https://stackoverflow.com/questions/57748687/downloading-files-in-jupyter-wget-on-windows Downloading files in Jupyter: wget on Windows? I am trying to download files from a url. I found wget command to be able to do that. Since I use Jupyter, I did not want to use pip, however conda install conda wget didn't work as there is no Wi... stackoverflow.com 사소한 거지만 google colab 과 jupyter notebo..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bDDoNy/btrExY4eiVq/GTfQWFCi7KDCiJxzMiPll1/img.png)
본 포스팅은 노승은 님의 바닥부터 배우는 강화학습 교재를 중심으로 작성되었고 카이스트 산업 및 시스템 공학과 신하용 교수님의 동적계획법과 강화학습 강의 자료를 참고해 작성되었습니다. 이번 포스팅에서는 '강화 학습' 일반 대중에도 주목을 받게 되었던 핵심적인 event인 '알파고 vs 이세돌'에서 사용된 Alphago (original algorithm) 알고리즘에 대해 공부해보겠습니다. 구글 딥마인드에서 개발이 되었던 알고리즘이었고 바둑 대국을 수행하기 위해 고안된 알고리즘이고 큰 파장을 불렀었던 강화학습 기법입니다. 구체적으로 어떻게 동작하였는지 살펴보겠습니다. 알파고를 이해할 때는 크게 "학습(Learning)"과 "실시간 플래닝(Decision-time planning)" 이 2단계를 걸쳐 구성이 ..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/wta2o/btrEnQS811S/YljgvRlT1AjFV4Y6zpKFkK/img.png)
본 포스팅은 카이스트 산업 및 시스템 공학과 신하용 교수님의 동적계획법과 강화학습 강의 자료를 중심으로 작성되었고 노승은 님의 바닥부터 배우는 강화학습 교재를 참고해 작성되었습니다. 이번 포스팅에서는 MAB, 가치 기반 RL에 이어 정책 기반 RL을 다루게 되었습니다. 사실 이들을 이해하려면 더 앞서서 정리해야할 포스팅들이 많지만, 프로젝트를 수행하는 차원에서 미리 정책 기반 RL을 공부할 필요가 있어서 미리 정리하게 되었습니다. 추후에 RL의 기본 method들부터 하나씩 정리해서 포스팅해 올리도록 하겠습니다. 따라서 본 포스팅은 어느 정도 RL에 대한 개념을 아시는 분들이 참고해주시면 감사하겠습니다. (물론 저도 제대로 개념이 잡힌 지는 모릅니다 허허.. 이상한 부분은 크리틱 부탁드립니다..! ) 지..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/bN1ylO/btrDXbDc4p0/BFJHqIJaPCwXLXEHDkC1Ik/img.png)
본 포스팅은 카이스트 산업 및 시스템 공학과 신하용 교수님의 동적계획법과 강화학습 강의 자료와 노승은 님의 바닥부터 배우는 강화학습 교재를 참고해 작성되었습니다. 본 포스팅은 어느 정도 RL에 대한 어느 정도의 개념을 아시는 분들이 참고해주시면 감사하겠습니다. ( 물론 저도 제대로 잡혀있다고 볼 순 없지만...ㅠ 이상한 부분은 크리틱 부탁드립니다..! 신하용 교수님께서 만드신 슬라이드 중에서 굉장히 RL 모델들의 분류가 잘 되어있다고 생각이 드는 슬라이드를 가지고 와 보았습니다. 이 중에서 본 포스팅에서 다루는 파트가 어딘 지도 살펴보겠습니다. 우선, 보상 함수와 상태 전이 확률을 알고 있는 경우, model을 알고 있다고 표현합니다. 이런 경우는 일반적인 DP로 문제를 풀 수 있습니다. 하지만, 대부분..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/ynGdc/btrDPCuAlg6/l8K7n2IaQrJI1dqkL3hy1K/img.png)
본 포스팅은 카이스트 산업 및 시스템 공학과 신하용 교수님의 동적계획법과 강화학습 강의 자료를 바탕으로 작성되었음을 밝힙니다. MAB에 대한 기초 설명이 필요하신 분들은 앞서 작성된 포스팅을 참고하시면 감사하겠습니다! https://yscho.tistory.com/111 [Reinforcement Learning] Multi-Arm Bandit (1) - Intro 본 포스팅은 카이스트 산업 및 시스템 공학과 신하용 교수님의 동적계획법과 강화학습 강의 자료를 바탕으로 작성되었음을 밝힙니다. Exploration vs Exploitation 이 둘 간의 어떤 것을 선택하는 지가 yscho.tistory.com MAB에서 sub-linear regret을 달성할 수 있는 방법 중 하나인 UCB를 지난 포스팅..
![](http://i1.daumcdn.net/thumb/C150x150/?fname=https://blog.kakaocdn.net/dn/cMYG05/btrDPtDEvXV/gNEVL5cazEwKKs3LI0iF51/img.png)
본 포스팅은 카이스트 산업 및 시스템 공학과 신하용 교수님의 동적계획법과 강화학습 강의 자료를 바탕으로 작성되었음을 밝힙니다. Exploration vs Exploitation 이 둘 간의 어떤 것을 선택하는 지가 많은 RL 기반의 문제에서 딜레마가 됩니다. Exploitation은 말 그대로 지금 가장 좋은 것을 선택하는 행동을 의미합니다. 하지만 exploitation이 좋아보이지만, 만약 지금 내가 가지고 있는 정보가 충분하지 않다면 더 optimal한 선택을 할 수 있는 가능성을 애초에 놓치게 됩니다. 그래서 정보를 더 얻기 위한 방법을 수행해야 하는데, 그럴 때 Exploration을 통해 다른 길을 가봄으로써 더 선택에 도움을 주는 정보들을 얻게 됩니다. 에이전트는 매번 이 딜레마에 빠지게 되..
능력도 없는 내게 주어진 이 자리는 늘 감사함이었고 빚진 마음이었다. 그래서 더 열심히 해야겠다고 생각했고 게을리 하고 싶지 않았다. 하지만 한 편으로는 능력이 없다보니 내게 주어진 일을 잘 해내지 못할까 하는 두려움이 컸고 결국 우매함의 봉우리에 있던 나는 내 무능함을 더 느끼면서 두려움을 가득 안은 채로 석사 1학기를 마무리해간다. 나름 한 학기를 보내면서 많이 배우게 된 것은 사실이다. 하지만 나는 여전히 아는 것이 없었고, 기초가 엄청나게 부족한 상황에서 연구를 하기 위해 덤볐던 순간들이 엄청나게 후회가 되었다. 아무 것도 모르면서 연구를 하려고 했던 그 오만함이 이번 학기를 지치게 만들지 않았을까 싶었다. 다 포기하고 싶은 순간이 정말 많았고, 스스로 자책하는 시간들이 하루의 절반이 넘었던 것 ..