본문 바로가기

논문 리뷰/NLP 논문 리뷰

(-ing) [NLP] (2021) BERT Argues: How Attention Informs Argument Mining

BERT를 활용한 Argument mining에 대한 연구 입니다. 

읽은 날짜  2023.04.04
카테고리   #자연어처리논문리뷰, #ArgumentMining, #NLP, #Transformer

 

 


BERT Argues: How Attention Informs Argument Mining

 


ABSTRACT

배경: 이전의 Argument mining 작업들은 tree 특화 기법을 사용하기 위해, argument구조를 tree 구조 형태로 제한했다. 

         하지만, 실제 데이터는 이런 제한된 구조를 보일 가능성이 낮다. 

목표: deep-contextualized word embeddings를 사용하여 non-tree argument mining에 활용한다. 

방법: pre-trained BERT기반 모델과 Proposition Bi-affine Attention 및 Weighted Cross Entropy Loss를 활용하여 DAG(directed acyclic graph, 방향 비순환 그래프) 구조의 argument를 예측하는 새로운 파이프라인을 소개

의의:  - BERT기반 모델에서 deep-contextualized word embedding의 효율성을 입증

         - Hierarchical relationship(계층적 관계)를 모델링 하기 위하여 recurrence를 포함하는 향후 연구 방향 제시

 

 

등장 배경, 이론적 기반, 기존 연구와의 차별점, 사용한 데이터, 모델/방법론, 실험 세팅, 실험 결과, 결과 분석, 이 논문에 대한 내 생각


1. 등장 배경 

Argument mining

토론과 논쟁(debate and argument)은 인간 커뮤니케이션의 기본 요소이다. 

Argument mining이란, 자연어에서 argument structure를 자동으로 식별하고 추출하기 위한 자연어 처리 기술(Lawrence and Reed, 2019)

 

 

■ Argument mining의 구조

(1) Tree structure

- 초기에 주로 사용됨.

- 하나 이상의 tree를 형성하는 것으로 구조를 제한 (Peldszus and Stede, 2015; Stab andGurevych, 2017)

- 장점: Tree구조를 활용하여 계산 쉬움 (예: Maximum spanning tree-style parsers 사용가능)

- 단점: 실제 데이터는 트리 구조가 아닐 가능성이 높음. 

(2) Structured support vector machines & RNN

- non-tree structure

- (Niculae et al., 2017)

(3) DAG (Directed Acyclic Graph) 구조

(4) PLBA로 보강된(agmented) LSTM 활용

- PLBA: Proposition Level Bia Attention 

- (Dozat and Manning, 2018)

 

 

■ 이 논문에서는

non-tree structure를 형성하는 데이터에 BERT-based 모델을 적용하여,

Argument components를 식별하는 태스크와 components 사이의 링크를 예측하는 태스크 수행

 

■ 사용한 데이터셋

Cornell eRulemaking Corpus (CDCP) (Park and Cardie, 2018)

 


2. 이론적 기반 

2.1 Argument mining 

 아이템

설명

설명

 

2.2 Transformers 

 아이템

설명

설명


3. 기존 연구와의 차별점 

 

Figure 3.1: Example graph along with corresponding spans in its user comment fromthe CDCP corpus, from Morio et al. (2020)

 

3.1 subtitle

 아이템

설명

설명

 

3.1.1 sub-subtitle

 아이템

설명

설명

 

3.1.2 sub-subtitle

 아이템

설명

설명

 

 

Figure 3.2: Figure from Devlin et al. (2019) detailing the predominant pre-training + fine-tuning paradigm, in this case towards the downstream task of question answering.

 

3.2 subtitle

 아이템

설명

설명

 

3.2.1 sub-subtitle

 아이템

설명

설명

 

3.2.2 sub-subtitle

 아이템

설명

설명

 

 

 

Figure 3.3: High Level Argument Mining Pipeline

 

 

3.2 subtitle

 아이템

설명

설명

 

3.2.1 sub-subtitle

 아이템

설명

설명

 

3.2.2 sub-subtitle

 아이템

설명

설명


4. 사용한 데이터 

 아이템

설명

설명

 

4.1 subtitle

 아이템

설명

설명

 

4.1.1 sub-subtitle

 아이템

설명

설명

 


5. 모델/방법론 

5.1 subtitle

 아이템

설명

설명

 

5.2 subtitle

 아이템

설명

설명

 

5.3 subtitle

 아이템

설명

설명

 


6. 실험 세팅, 실험 결과 

 

6.1 subtitle

 아이템

설명

설명

 

6.1.1 sub-subtitle

 아이템

설명

설명

 

6.1.2 sub-subtitle

 아이템

설명

설명

 

3.2 subtitle

 아이템

설명

설명

 


7. 실험 결과 분석 

 아이템

설명

설명


8. CONCLUSION

 

  • 중요한 결론 
  • 이론적 함의 
  • 실재적 함의 (practical implications) 
  • Future work
    • (1) 
    • (2) 

 

 


 

나의 의견

논문을 선택한 이유

(1) 이유1
(2) 이유2

 

읽고 난 후 의견

  • 의견1
  • 의견2