NLP/Prompt & Problem Solving7 Prompt 관련 자료 모음 빅테크에서 제공하는 프롬프트 엔지니어링 페이지와 강의 링크를 정리해보았다. 구글 Google Prompt Engineering: 링크Prompting Essentials Youtube Playlist: 링크 OpenAI Prompting Guide: 링크Best practices for prompt engineering with the OpenAI API: 링크 앤트로픽 Anthrophic Prompt engineering: 링크Prompt Library: 링크 2025. 4. 28. ChartInstruct (2024) 논문 리뷰 ChartInstruct의 논문 제목은 ChartInstruct: Instruction Tuning for Chart Comprehension and Reasoning이다. (링크) 저자는 Ahmed Masry, Mehrad Shahmohammadi, Md Rizwan Parvez, Enamul Hoque, Shafiq Joty다. Github: 링크 논문 제목에서 알 수 있듯이 차트 데이터에 대한 instruction tuning을 다룬 논문이다. 본 논문에서는 Llama2와 Flan-T5를 사용했지만 Gemma를 사용한 ChartGemma라는 별도의 논문 (링크)도 존재한다. AbstractCharts 차트는 데이터에 대한 시각적 표현으로 매우 중요하다. 비전에 대해서 fine-tune을 해왔지만.. 2025. 4. 27. Tree-of-Thought ToT (2023) 논문 리뷰 Tree-of-Thought (ToT) 의 논문 제목은 Tree of Thoughts: Deliberate Problem Solving with Large Language Models이다. (링크) 저자는 Shunyu Yao, Dian Yu, Jeffrey Zhao, Izhak Shafran, Thomas L. Griffiths, Yuan Cao, Karthik Narasimhan다. Github: 링크 Chain of Thought를 대신할 problem solving 구조를 제시한 논문이다. Abstract언어 모델은 광범위한 범위에 대해서 general problem solving 일반적인 문제 해결에 쓰이고 있지만 여전히 추론 과정에서 token-level과 left-to-right 의사 결.. 2025. 4. 27. Lost in the Middle (2023) 논문 리뷰 Lost in the Middle의 논문 제목은 Lost in the Middle: How Language Models Use Long Contexts이다. (링크) 저자는 Nelson F. Liu, Kevin Lin, John Hewitt, Ashwin Paranjape, Michele Bevilacqua, Fabio Petroni, Percy Liang다. Github: 링크 논문 제목에서 알 수 있듯이 언어 모델이 긴 컨텍스트를 다룰 때의 문제에 대한 논문이다. AbstractLong context를 사용할 때 relevant information 관련있는 정보의 위치에 따라서 성능이 급격하게 감소하는 현상을 발견했다. 따라서 현재의 언어 모델은 긴 입력 컨텍스트의 정보 활용에 있어서 로버스트하.. 2025. 4. 27. Plan and Solve (2023) 논문 리뷰 Plan and Solve의 논문 이름은 Plan-and-Solve Prompting: Improving Zero-Shot Chain-of-Thought Reasoning by Large Language Models다. (링크) 저자는 Lei Wang, Wanyu Xu, Yihuai Lan, Zhiqiang Hu, Yunshi Lan, Roy Ka-Wei Lee, Ee-Peng Lim다. AbstractLLM은 최근 NLP 태스크에 대해서 놀라운 성과를 거두었지만 multi-step reasonong tasks에서 문제 상황을 맞주했고 이를 해결하귀 위해서 few-shot Chain-of-Thought (CoT) 프롬프팅은 몇 개의 수작업으로 생성된 step-by-step 점진적인 추론의 시범 설명을 .. 2025. 4. 19. CoT-SC (2022) 논문 리뷰 CoT-SC의 논문 이름은 Self-Consistency Improves Chain of Thought Reasoning in Language Models 다. (링크) 저자는 Xuezhi Wang, Jason Wei, Dale Schuurmans, Quoc Le, Ed Chi, Sharan Narang, Aakanksha Chowdhery, Denny Zhou다. AbstractChain-of-Thought과 사전학습 LLM의 조합은 복합한 추론에서 놀라운 성과를 거두었다.본 논문에서는 self-consistency라는 new decoding strategy 새 디코딩 전략을 소개함으로써 기존의 naive greedy decoding을 대체한다. 2. Self-Consistency Over Div.. 2025. 4. 18. 이전 1 2 다음