본문 바로가기

논문 리뷰13

논문리뷰 SSD: Single Shot MultiBox Detector 1. SSD 주요 특징SSD(Single Shot MultiBox Detector)는 Object Detection을 위한 One-stage 딥러닝 네트워크입니다. SSD의 주요 특징은 다음과 같습니다:One-stage Network: SSD는 단일 딥러닝 네트워크로 구성되어 있으며, 이를 통해 모든 객체 감지 작업을 한 번의 실행으로 처리합니다. 이 방식은 Two-stage 시스템보다 속도가 빠릅니다.Region Proposal 불필요: SSD는 Region Proposal을 생성하지 않습니다. 이는 기존의 Two-stage Detector 시스템이 Region Proposal Network(RPN)를 사용하여 객체 후보 영역을 먼저 생성하는 방식과 다릅니다. SSD는 직접 객체를 감지하고 분류하는데,.. 2024. 8. 5.
[논문 리뷰] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding 이 논문은 "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding"이라는 제목의 논문입니다.작성자는 Jacob Devlin, Kenton Lee, Kristina Toutanova, 그리고 Ming-Wei Chang 이며, 2018년에 발표된 해당 논문은 왼쪽과 오른쪽 문맥을 모두 고려하는 양방향의 인코더를 가진 사전학습 모형, BERT를 제시합니다.Abstract이 논문의 주요 내용을 요약하면 다음과 같습니다:BERT(Bidirectional Encoder Representations from Transformers)라는 새로운 언어 표현 모델을 소개합니다.BERT는 모든 계층에서 좌우 문맥을 동시에 고려하여 레.. 2024. 7. 8.
[논문 리뷰] Attention Is All You Need 이 논문은 "Attention Is All You Need"이라는 제목의 논문입니다.작성자는 Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin, 그리고 Ashishi Vaswani 이, 트랜스포머 구조를 처음 발표한 구글브레인의 논문이다. Abstract기존의 주요 시퀀스 변환 모델들은 복잡한 순환 신경망(RNN)이나 합성곱 신경망(CNN)을 기반으로 하며, 인코더와 디코더를 포함합니다. 최고 성능의 모델들은 인코더와 디코더를 attention mechanism을 통해 연결합니다. 논문은 이러한 복잡성을 제거하고, 오직 attention 메커니즘만을 사용한 새로운 간단.. 2024. 7. 8.
[논문 리뷰] Deep contextualized word representations 이 논문은 "Deep contextualized word representations"이라는 제목의 논문입니다.작성자는 Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, Luke Zettlemoyer, 그리고 Matthew E. Peters이며, 2018년에 발표된 해당 논문은 새로운 단어 임베딩 방법을 제안합니다.Abstract이 논문의 주요 내용을 요약하면 다음과 같습니다:새로운 유형의 심층 문맥화된 단어 표현(deep contextualized word representation)을 소개합니다.이 표현은 두 가지 주요 특성을 모델링합니다:단어 사용의 복잡한 특성(예: 구문론과 의미론)이러한 사용이 언어적 맥락에 따라 어떻.. 2024. 7. 8.