본문 바로가기

전체 글

[데이터 시각화] Visual Complexity 내용 정리 (In Progress) 책 내용 정리- 비쥬얼 컴플렉시티: 복잡한 정보를 효과적으로 표현하는 놀라운 시각화 기법 책 정보 (한국어): https://www.yes24.com/Product/Goods/25411256책 정보 (영어 원서): http://www.visualcomplexity.com/vc/book/목차 1 생명의 나무2 나무에서 네트워크로3 네트워크 해석4 무한한 상호연결성5 새로운 언어의 문법6 복잡계의 아름다움7 시각화의 미래  1.  생명의 나무■ 신성한 나무■ 지식의 나무: 계보 | 분류-- 초기: 포르피리오스의 나무: 아리스토텔레스의 범주론을 확장-- 백과사전주의 단점: 중앙집중적, 하향식 2.  나무에서 네트워크로■ 나무 메타포의 제한적인 개념에서 벗어나, 전체론적인 시스템 접근을 통한 네트워크적 사고■ .. 더보기
[시각화] (PacificVis'22) News Kaleidoscope: Visual Investigation of Coverage Diversity in News Event Reporting 뉴스 기사에서의 Coverage diversity를 시각적으로 분석하기 위한 시스템인 News Kaleidoscope 에 대한 연구입니다. 읽은 날짜 2023.07.20 카테고리 #시각화논문리뷰, #DataVisualization, #뉴스시각화 News Kaleidoscope: Visual Investigation of Coverage Diversity in News Event Reporting Authors: Aditi Mishra; Shashank Ginjpalli; Chris Bryan DOI: https://doi.org/10.1109/PacificVis53943.2022.00022 Keywords: Issue Date: June 2022 Publisher: 2022 IEEE 15th Pacifi.. 더보기
[NLP] (NeurlPS'23) Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 사람의 사고 과정을 그대로 모방하여 복잡한 문제를 자연어처리를 통해 풀게끔 하는 방법론인 Chain-of-Thought이라는 연구입니다. 읽은 날짜 2023.06.04 카테고리 #자연어처리논문리뷰, #프롬프트, #Chain-of-Thought Chain-of-Thought Prompting Elicits Reasoning in Large Language Models Authors: Jason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, Denny Zhou DOI: https://arxiv.org/abs/2201.11903 Keywords: Issue Date: Publisher: 2023 .. 더보기
[데이터 시각화] 시각화 라이브러리 종류 시각화 라이브러리 종류가 많은데,웹(자바스크립트), 파이썬 환경 등 조건을 비교하기 위해 정리합니다.  D3- 공식 사이트: https://d3js.org/- 그래프 갤러리: https://d3-graph-gallery.com/ - 데이터 시각화를 위한 오픈소스 자바 스크립트 라이브러리- 논문 D3: Data-Driven Documents에서 소개되었다.> Michael Bostock, Vadim Ogievetsky, and Jeffrey Heer. 2011. > D3 Data-Driven Documents. > IEEE Transactions on Visualization and Computer Graphics 17, 12 (December 2011), 2301–2309. > https://doi.or.. 더보기
[NLP] (ACL 2022) MDERank: A Masked Document Embedding Rank Approach for Unsupervised Keyphrase Extraction Keyphrase Extraction을 위한 방법 중 unsupervised한 방식에서 주로 사용되었던 Phrase-Document-based 임베딩 비교하는 방식은, Phrase와 Document의 길이 차이로 인한 불안정성이 있었습니다. 이를 해결하기 위해 Document와 core-phrase를 마스킹한 Document의 임베딩을 비교한 MDERank 방법론을 소개하는 연구입니다. 읽은 날짜 2023.06.19 카테고리 #자연어처리논문리뷰, #Ranking, #InformationRetrieval MDERank: A Masked Document Embedding Rank Approach for Unsupervised Keyphrase Extraction Authors: Linhan Zhang, Qi.. 더보기
[NLP] (EMNLP 2022) RLPrompt: Optimizing Discrete Text Prompts with Reinforcement Learning optimal 한 prompt를 찾는 태스크에 강화학습을 적용한 연구 입니다. 읽은 날짜 2023.05.30 카테고리 #자연어처리논문리뷰, #프롬프트, #강화학습 RLPrompt: Optimizing Discrete Text Prompts with Reinforcement Learning Authors: Mingkai Deng, Jianyu Wang, Cheng-Ping Hsieh, Yihan Wang, Han Guo, Tianmin Shu, Meng Song, Eric Xing, Zhiting Hu DOI: https://aclanthology.org/2022.emnlp-main.222/ Keywords: Issue Date: December 2022 Publisher: EMNLP 2022 1. 등장 .. 더보기
[NLP] (ACL 2022) PPT: Pre-trained Prompt Tuning for Few-shot Learning 소프트 프롬프트를 pre training 단계에 적용하여, 사전학습과 함께 프롬프트를 튜닝하는 방법론에 대한 연구 입니다. 읽은 날짜 2023.05.22 카테고리 #자연어처리논문리뷰, #프롬프트 PPT: Pre-trained Prompt Tuning for Few-shot Learning Authors: Yuxian Gu, Xu Han, Zhiyuan Liu, Minlie Huang DOI: https://aclanthology.org/2022.acl-long.576/ Keywords: Issue Date: May 2022 Publisher: ACL 2022 ABSTRACT (배경) PLM(Pre-trained language model)의 프롬프트는 pre-training task와 다양한 다운스트림 .. 더보기
[NLP] (ACL 2021) LM-BFF, Making Pre-trained Language Models Better Few-shot Learners 적은 데이터에서 few-shot learning 을 할 때 활용할 수 있는 prompt 자동 생성 및 prompt 기반 fine tuning에 대한 연구입니다. 읽은 날짜 2023.05.15 카테고리 #자연어처리논문리뷰, #Tag2 Making Pre-trained Language Models Better Few-shot Learners Authors: Tianyu Gao, Adam Fisch, Danqi Chen DOI: https://aclanthology.org/2021.acl-long.295/ Keywords: Issue Date: August 2021 Publisher: 2021 ACL | IJCNLP ABSTRACT (배경) GPT-3와 같은 모델에서 natural-language prompt.. 더보기