반응형 ML & DL/논문리뷰42 WebSailor: Navigating Super-human Reasoning for Web Agent 원문: https://arxiv.org/pdf/2507.02592github: https://github.com/Alibaba-NLP/WebAgent GitHub - Alibaba-NLP/WebAgent: 🌐 WebAgent for Information Seeking bulit by Tongyi Lab: WebWalker & WebDancer & WebSailor http🌐 WebAgent for Information Seeking bulit by Tongyi Lab: WebWalker & WebDancer & WebSailor https://arxiv.org/pdf/2507.02592 - Alibaba-NLP/WebAgentgithub.com Abstract웹에서 복잡한 정보를 찾는 일에서 인간보다.. 2025. 7. 6. ProtoReasoning: Prototypes as the Foundation forGeneralizable Reasoning in LLMs 원문: https://arxiv.org/pdf/2506.15211 AbstractAI가 추론을 더 잘하도록 만드는 새로운 방법을 제안하는 논문 핵심 아이디어: AI가 서로 다른 분야의 문제를 잘 푸는 이유는 모든 문제 뒤에 공통된 "추론 패턴"이 있기 때문ProtoReasoning 방법문제를 간단한 형태로 변환: 복잡한 자연어 문제를 Prolog나 PDDL 같은 컴퓨터가 이해하기 쉬운 형태로 바꿉니다자동 검증: 답이 맞는지 컴퓨터가 자동으로 확인해줍니다무한 확장: 이 방식으로 새로운 문제를 계속 만들어냅니다결과논리 추론: 4.7% 향상계획 수립: 6.3% 향상일반 추론: 4.0% 향상수학: 1.0% 향상기여점: AI가 단순히 암기가 아니라 진짜 "추론 패턴"을 학습하게 되어, 새로운 종류의 문제도 더 잘.. 2025. 6. 22. Fast Inference from Transformers via Speculative Decoding 원문: https://arxiv.org/pdf/2211.17192Abstract이 논문은 큰 언어모델(LLM)의 텍스트 생성 속도를 높이는 "추측 디코딩(speculative decoding)" 기법을 소개하고 있다.기존 문제점큰 언어모델은 한 번에 하나씩만 단어를 생성할 수 있어서 느림K개의 토큰을 만들려면 모델을 K번 연속으로 실행해야 함핵심 아이디어작은 모델로 먼저 추측하기: 빠르지만 작은 모델이 여러 개의 단어를 미리 예측큰 모델로 검증하기: 큰 모델이 이 예측들을 한 번에 병렬로 검토해서 맞는지 확인맞으면 채택, 틀리면 수정: 예측이 맞으면 그대로 사용하고, 틀리면 큰 모델이 올바른 답 제시비유로 설명하면 학생(작은 모델)이 시험 문제 여러 개를 먼저 풀어보고, 선생님(큰 모델)이 한 번에 여러.. 2025. 6. 15. From Natural Language to SQL: Review ofLLM-based Text-to-SQL Systems 원문: https://arxiv.org/pdf/2410.01066 ABSTRACT이 논문은 대형 언어 모델(LLM)을 사용해서 사용자가 일상적으로 쓰는 자연어 질문(예: "올해 가장 많이 팔린 상품은?")을 SQL이라는 데이터베이스 언어로 정확히 변환하는 기술에 대한 것입니다.특히, 이 논문에서는 RAG(Retrieval Augmented Generation) 기술을 함께 사용했을 때 변환 성능이 더 좋아진다는 점을 강조합니다. 이 RAG 기술은 외부에서 필요한 정보를 찾아서 모델이 더 정확한 SQL을 만들 수 있게 도와주는 방식입니다.또한 논문에서는이 분야가 어떻게 발전해왔는지 초기 규칙기반 모델에서 최근 LLM과 RAG를 결합한 최신 모델까지 정리합니다.각종 평가방법과 성능 측정을 위한 기준들(벤치마.. 2025. 6. 8. 이전 1 2 3 4 ··· 11 다음 반응형