본문 바로가기
반응형

-296

MLGym: A New Framework and Benchmarkfor Advancing AI Research Agents 원문: https://arxiv.org/pdf/2502.14499 이 논문에서는 MLGym와 MLGym-Bench라는 새로운 프레임워크를 소개하며 인공지능 에이전트의 성능을 평가하고 발전시키기 위한 기준을 제공합니다. MLGym-bench는 컴퓨터 비전, 자연어 처리, 강화 학습, 게임 이론 등 다양한 분야에서 13개의 다채롭고 개방형인 AI 연구 과제로 구성됩니다. 이러한 과제들을 해결하기 위해서는 새로운 아이디어와 가설의 생성, 데이터 생성 및 처리, ML 기법 구현, 모델 학습, 실험 수행, 결과 분석, 그리고 반복적인 개선과정 등 실제 AI 연구에서 요구되는 다양한 역량이 필요합니다.논문에서는 Claude-3.5-Sonnet, Llama-3.1 405B, GPT-4o, o1-preview, Gem.. 2025. 2. 23.
Text2SQL is Not Enough: Unifying AI and Databases with TAG 원문: https://arxiv.org/pdf/2408.14717 1. 자연어 질의 처리의 한계와 새로운 접근 필요성기존의 Text2SQL과 RAG 방법은 사용자의 복잡한 자연어 질문을 처리하는 데 한계가 있다. 실제 사용자들은 도메인 지식, 세계 지식, 정확한 계산, 의미적 추론이 결합된 복잡한 질문을 하는 경향이 있다. 언어 모델(LM)은 텍스트 데이터에 대한 의미적 추론 능력을 제공하여 감성 분석이나 트렌드 요약과 같은 복잡한 작업을 수행할 수 있다. LM은 모델 학습 중 획득한 암묵적 세계 지식을 활용하여 데이터베이스 스키마에 명시적으로 포함되지 않은 정보를 보완할 수 있다. 데이터베이스와 LM의 장점을 효과적으로 결합한 새로운 시스템이 필요하며, 이는 사용자가 데이터를 이해하는 방식을 혁신할 잠.. 2025. 2. 9.
Critique Fine-Tuning:Learning to Critique is More Effective than Learning to Imitate 원문: https://arxiv.org/pdf/2501.17703Abstract 기존의 Supervised Fine-Tuning(SFT)은 모델이 주어진 주석 응답을 그대로 모방하도록 훈련합니다.본 논문은 Critique Fine-Tuning(CFT)을 제안하여, 모델이 노이즈가 포함된 응답에 대해 비판을 수행하도록 학습시킵니다.CFT는 인간의 비판적 사고를 모방하여 보다 깊은 분석과 미묘한 이해를 유도합니다.WebInstruct 데이터셋 50K 샘플을 사용해 GPT-4o가 생성한 비판을 기반으로 학습하며, 수학 관련 벤치마크에서 SFT 대비 4–10% 향상된 성능을 보였습니다.또한, Qwen2.5-Math-CFT 모델은 단 1시간의 훈련으로 2M 샘플 기반의 경쟁 모델과 동등하거나 더 나은 성능을 달성.. 2025. 2. 2.
SRMT: SHARED MEMORY FOR MULTI-AGENT LIFE-LONG PATHFINDING 원문: https://arxiv.org/pdf/2501.13200 이 논문은 다중 에이전트 강화 학습 (MARL) 환경에서 에이전트 간의 효과적인 협력을 위한 공유 메모리 접근법을 제안한다. 이는 에이전트들이 서로의 정보를 교환하고 행동을 조정할 수 있는 메커니즘으로, Shared Recurrent Memory Transformer (SRMT) 를 통해 구현된다. 실험 결과, SRMT는 다양한 벤치마크 문제에서 기존 접근 방식보다 뛰어난 성능을 보여주었다. 특히, 희소한 보상 상황에서도 안정적인 성과를 기록하며, 그 성과는 훈련된 길이보다 긴 경로에서도 유효했다.  1.  다중 에이전트 환경에서의 협력적 강화 학습 접근법다중 에이전트 강화 학습(MARL)은 협력적 및 경쟁적 다중 에이전트 문제를 해결하는.. 2025. 1. 26.
반응형