본문 바로가기

논문 리뷰

(-ing) [HCI] (ICWSM 2013) Encouraging Reading of Diverse Political Viewpoints with a Browser Widget (a.k.a. Balancer) 브라우저 위젯을 활용하여, 사용자들이 정치 기사를 읽을 때, 다양한 관점의 내용을 읽도록 장려하고자 한 연구 입니다. 대상이 되는 환경/데이터 : 온라인 정치 뉴스 (Online political news) 읽은 날짜 2023.04.23 카테고리 #Viewpoint, #News, #HCI논문리뷰, #BrowerWidget Encouraging Reading of Diverse Political Viewpoints with a Browser Widget Authors: Sean A. Munson, Stephanie Y. Lee, Paul Resnick DOI: https://ojs.aaai.org/index.php/ICWSM/article/view/14429 Keywords: selective exposu.. 더보기
[NLP] (EMNLP 2021) Cross-Linguistic Syntactic Difference in Multilingual BERT: How Good is It and How Does It Affect Transfer? 영어로만 학습된 BERT 모델이, 여러 언어(multilingual)로 학습될 때, 언어 간(cross-linguistic) 문법적인 차이점을 어떻게 인지하는지에, 그리고 BERT를 여러 언어로 학습 시킬 때 transfer가 어떻게 일어나는지에 대한 연구 입니다. 읽은 날짜 2023.04.20 카테고리 #자연어처리논문리뷰, #Cross-linguistic, #Multilingual 급하게 정리한 탓에 내용이 조금 부족한데, 나중에 여유될 때 좀 더 자세히 다시 읽고, 보완할 예정입니다. (2023/04/21) Cross-Linguistic Syntactic Difference in Multilingual BERT: How Good is It and How Does It Affect Transfer? A.. 더보기
[HCI] (CSCW'21) Improving Readers’ Awareness of Divergent Viewpoints by Displaying Agendas of Comments in Online News Discussions (a.k.a. Hagendas) 온라인 뉴스 기사에 대해 댓글로 의견을 나누는 과정에서, 기존의 인기 기반 추천 댓글은 특정 의견만 부각시킨다는 단점이 있어, 다양한 관점의 의견을 살펴볼 수 있도록 댓글 내용의 주요 관점들(agendas)를 제시하고 필터링하여 볼 수 있게 한 인터페이스(Hagendas)에 대한 연구 입니다. 대상이 되는 환경/데이터 : 온라인 뉴스 토론 (Online news discussion) 읽은 날짜 2023.04.21 카테고리 #Viewpoints, #News, #HCI논문리뷰 Improving Readers’ Awareness of Divergent Viewpoints by Displaying Agendas of Comments in Online News Discussions Authors: Taewook .. 더보기
[NLP] (ACL 2021) Dual Reader-Parser on Hybrid Textual and Tabular Evidence for Open Domain Question Answering Generative ODQA(Open-domain QA) model에 Text2SQL을 강화하여, 자연어 질문이 주어졌을 때, 텍스트/테이블 데이터 둘 다 멀티모달로 활용하여 질문에 대한 답을 추론하고 답의 컨텍스트에 따라 직접 정답 텍스트 또는 SQL을 생성하는 프레임워크에 대한 연구로, 기존 QA task 선행연구인 FiD (Fusion-in-Decoder)를 활용하였다. 읽은 날짜 2023.04.10 카테고리 #자연어처리논문리뷰, #NLP, #QuestionAnswering 연구 관련 코드: https://github.com/awslabs/durepa-hybrid-qa Dual Reader-Parser on Hybrid Textual and Tabular Evidence for Open Domain.. 더보기
[NLP] (ACL 2019) Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context Language Models의 오래된 챌린지인 'long-term dependency(장기 의존성 문제)'와 context fragmentation 문제를 해결하기 위한 방법으로 제안된 Transformer-XL 모델에 대한 논문입니다. (XL => Extra Long) Transformer-XL 모델은, (1) Segment-level recurrence mechanism (세그먼트 수준의 재귀 메커니즘) (2) Positional encoding scheme (포지션 인코딩 체계)를 활용하여 위의 문제를 해결합니다. 읽은 날짜 2023.04.04 카테고리 #자연어처리논문리뷰, #NLP, #LongerTexts Transformer-XL: Attentive Language Models Beyond a .. 더보기
(-ing) [NLP] (2021) BERT Argues: How Attention Informs Argument Mining BERT를 활용한 Argument mining에 대한 연구 입니다. 읽은 날짜 2023.04.04 카테고리 #자연어처리논문리뷰, #ArgumentMining, #NLP, #Transformer BERT Argues: How Attention Informs Argument Mining Authors: Ting Chen DOI: https://scholarship.richmond.edu/honors-theses/1589/ Keywords: - Issue Date: 2021 Publisher: University of Richmond (Thesis) ABSTRACT 배경: 이전의 Argument mining 작업들은 tree 특화 기법을 사용하기 위해, argument구조를 tree 구조 형태로 제한했다. 하.. 더보기
[NLP] (2022) Argument Mining using BERT and Self-Attention based Embeddings 기존의 Argument mining은 주로 tree구조였지만, 이 구조에서는 실생활의 복잡한 argument structure를 담을 수 없다는 한계가 있었으므로, self-attention 기반의 임베딩을 통해 link-prediction을 개선하는 방법론을 제안하는 논문입니다. 연구의 대상은 독백이 아닌 토론과 같은 담론 상황에서의 argument mining입니다. 읽은 날짜 2023.03.28 카테고리 #자연어처리논문리뷰, #ArgumentMining, #NLP, #Transformer Argument Mining using BERT and Self-Attention based Embeddings Authors: Pranjal Srivastava, Pranav Bhatnagar, Anurag Go.. 더보기
[시각화] (CHI'21) Understanding Data Accessibility for People with Intellectual and Developmental Disabilities 데이터 접근성(Data Accessibility)을 높이기 위한 데이터 차트 표현 방법(차트 타입, 차트 장식, 데이터연결성)을 고민하고, 실험을 통하여 효과적인 시각화 디자인에 대한 규칙을 정리한 연구입니다. 읽은 날짜 2022.02.28 카테고리 #시각화논문리뷰, #DataVisualization, #InclusiveDesign, #DesignGuideline Understanding Data Accessibility for People with Intellectual and Developmental Disabilities Authors: Keke Wu, Emma Petersen, Tahmina Ahmad, David Burlinson, Shea Tanis, Danielle Albers Szafir .. 더보기