목록분류 전체보기 (165)
No Limitation
원 논문 Dosovitskiy, A., Beyer, L., Kolesnikov, A., Weissenborn, D., Zhai, X., Unterthiner, T., ... & Houlsby, N. (2020). An image is worth 16x16 words: Transformers for image recognition at scale. arXiv preprint arXiv:2010.11929. https://arxiv.org/abs/2010.11929 본 리뷰는 제 개인 유튜브 채널에도 올려놓았습니다. 참고 부탁드립니다. https://www.youtube.com/watch?v=5E8nURp3Cec 참고 자료로 고려대학교 산업경영학과 최희정 님의 강의를 참고하였습니다. https://www.y..
갈라디아서 2:20 내가 그리스도와 함께 십자가에 못 박혔나니 그런즉 이제는 내가 사는 것이 아니요 오직 내 안에 그리스도께서 사시는 것이라 이제 내가 육체 가운데 사는 것은 나를 사랑하사 나를 위하여 자기 자신을 살리신 하나님의 아들을 믿는 믿음 안에서 사는 것이라 빌립보서 4:11-13 11. 내가 궁핍하므로 말하는 것이 아니니라 어떠한 형편에든지 나는 자족하기를 배웠노니 12. 나는 비천에 처할 줄도 알고 풍부에 처할 줄도 알아 모든 일 곧 배부름과 배고픔과 풍부와 궁핍에도 처할 줄 아는 일체의 비결을 배웠노라 13. 내게 능력 주시는 자 안에서 내가 모든 것을 할 수 있느니라
원 논문 링크 : https://ieeexplore.ieee.org/abstract/document/5567108 He, K., Sun, J., & Tang, X. (2010). Single image haze removal using dark channel prior. IEEE transactions on pattern analysis and machine intelligence, 33(12), 2341-2353. 본 리뷰는 제 개인 유튜브 채널에도 올려놓았습니다. 참고 부탁드립니다. https://www.youtube.com/watch?v=ORy50gWA-58 Background 이번 리뷰할 페이퍼는 'Dark Channel Prior'로 유명한 논문으로, Image Dehazing을 공부하는 데에 ..
시편 34, 다윗이 아비멜렉 앞에서 미친 체하다가 쫓겨나서 지은 시 Psalm 34, Of David. When e pretended to be insane before Abimelech, who drove him away, and he left 1. 내가 여호와를 항상 송축함이여 내 입술로 항상 주를 찬양하리이다 I will extol the LORD at all times; his praise will always be on my lips 2. 내 영혼이 여호와를 자랑하리니 곤고한 자들이 이를 듣고 기뻐하리로다 My soul will boast in the LORD; let the afflicted hear and rejoice 3. 나와 함께 여호와를 광대하시다 하며 함께 그의 이름을 높이세 Glo..
원 논문 링크 : https://openaccess.thecvf.com/content/CVPR2021/html/Chen_PSD_Principled_Synthetic-to-Real_Dehazing_Guided_by_Physical_Priors_CVPR_2021_paper.html Chen, Z., Wang, Y., Yang, Y., & Liu, D. (2021). PSD: Principled synthetic-to-real dehazing guided by physical priors. In Proceedings of the IEEE/CVF conference on computer vision and pattern recognition (pp. 7180-7189). 본 리뷰는 제 개인 유튜브 채널에도 올려..
본 포스팅은 개인 공부용으로 작성되었습니다. U-Net 아키텍처를 사용하다 위와 같은 에러가 발생한 경우가 있었다. U-Net은 convolution을 해줄 때의 feature map과 후에 deconvolution을 해주는 부분 간의 concat이 이루어지는 부분이 있다. 예를 들면 아래 그림과 같은 부분에서다. 위 그림은 U-Net 원 논문에 있는 그림인데 빨간색 그림처럼 표시된 부분에서 concat이 이루어지는데 상위 level의 feature map과의 concat을 해주어야 하기 때문에 dimension이 맞아야 하는 조건이 있다. 하지만 git에서 긁어온 U-Net을 사용한 코드에서 이러한 부분에 에러가 발생하는 경우가 존재하였다. 예를 들어 x (input) -> y1 -> y2, ... -..
생각보다 사는 데에 있어서 "불안함"이라는 감정을 너무 크게 가지고 가는 건 아닌 지 싶다. 사실, 어쩌면 불확실한 것은 당연히 삶에서 넘쳐나고 배운다는 것은, 무언가를 공부하고 익힌다는 것은 그 불확실성을 마주할 때 자연스럽게 발생하는 불안함을 마주하는 것인데, 이 불안함에 낯설게 되면, 불안함에 압도되기 십상이다. 그래서 새로운 것을 try하는 것을 두려워하게 되고, 막상 용기내어 시도하게 되도 넘어지는 경우가 일반이다. 나도 그 수많은 이들 중 한명이었고, 매일 하루를 아침에 눈을 뜰 때 막막함과 불안함으로 가득한 to do list를 꺼내 들며 시작한다. 하지만, 적어도 사회에서 한 발짝 스텝을 나아온 지금의 시점에서, 우린 당연히 불안함과 마주한다. 하지만, 그 불안함을 대하는 자세에서 그 사람..
참고 포스팅 https://koowater.tistory.com/4?category=903773 4까지 줄일 때, 메모리 문제를 극복했지만 다음과 같은 문제가 발생하였습니다. 배치를 조절하다보면 종종 있는 이슈인데, 이 경우 다음과 같은 해결책으로 접근을 시도할 수 있습니다. 1) 주로 batch size를 설정하고 남는 batch에 대해서 연산이 오류가 나는 경우이므로, DataLoader 파라미터로 drop_last=True 설정 1번은 직관적이니 따로 예시는 넣지 않겠습니다. train_data_loader = DataLoader(..., drop_last=True) val_data_loader = DataLoader(..., drop_last=True) 대충 끝단에 저런 파라미터를 넣어주면 됩니다..
본 포스팅은 개인 학습용으로 작성되었고 권철민 님의 '딥러닝 컴퓨터 비전 완벽 가이드' 강의 내용을 참고하였습니다. 이번 포스팅은 One-stage Detector의 강력한 성능을 자랑하는 RetinaNet과 다양한 속도와 성능을 개선한 아키텍처들을 제안하는 EfficientDet에 대해 정리해보고자 합니다. 먼저 RetinaNet부터 살펴보겠습니다. RetinaNet 원 논문 링크 : https://openaccess.thecvf.com/content_iccv_2017/html/Lin_Focal_Loss_for_ICCV_2017_paper.html Lin, T. Y., Goyal, P., Girshick, R., He, K., & Dollár, P. (2017). Focal loss for dense ..
본 포스팅은 개인 학습용으로 작성되었고 권철민 님의 '딥러닝 컴퓨터 비전 완벽 가이드' 강의 내용을 참고하였습니다. 이번 포스팅에서는 Object Detection task에서 One-stage Detector의 대명사인 YOLO - v1,v2,v3와 SSD에 대해 공부해보겠습니다. 앞서 배운 RCNN 계열의 모형들은 모두 ‘Two-stage Detector’로서 Region proposal을 별도의 stage로 나누어 동작하는 방법입니다. 하지만 실시간 요구 사항을 만족시킨 어렵다는 한계점이 존재합니다. 속도가 그렇게 빠르지 않기 때문이죠. 자율 주행같은 real world문제를 풀기 위해서는 정확도 만큼이나 inference의 속도가 중요한데 가장 SOTA에 위치하는 Faster RCNN의 경우도 사..