본문 바로가기
AI 오픈소스

OpenHands LM 32B: 가볍고 강력한 오픈소스 코딩 에이전트 모델

by 앨런튜링1 2025. 4. 4.
반응형

안녕하세요.

오늘은 오픈소스 기반으로 누구나 사용할 수 있는 강력한 코딩 에이전트 모델 OpenHands LM 32B에 대해 소개드립니다. 이 모델은 소프트웨어 개발 자동화를 꿈꾸는 많은 분들께 로컬에서도 실행 가능한 고성능 AI 솔루션으로 각광받고 있습니다.


OpenHands LM 32B 개요

OpenHands LM 32B는 All Hands가 발표한 오픈소스 코딩 에이전트 모델로, Qwen 2.5 Coder 32B 모델을 기반으로 하여 소프트웨어 개발 문제를 해결할 수 있도록 설계되었습니다. 기존의 많은 코딩 에이전트들은 폐쇄형 API 또는 고사양 인프라에 의존해야 했던 반면, OpenHands LM은 로컬 GPU에서도 실행 가능한 32B 파라미터의 경량 모델로 큰 주목을 받고 있습니다.


OpenHands LM 32B의 핵심 특징

✅ 32B 파라미터로도 고성능 구현

대부분의 고성능 모델은 수백억에서 수천억 개의 파라미터를 갖고 있어 실행 환경이 제한적입니다. 하지만 OpenHands LM은 Qwen 2.5 Coder 32B 모델을 기반으로 개발되었으며 32B 파라미터만으로도 뛰어난 성능을 보이며, 로컬에서도 실행 가능해 소규모 개발자나 스타트업에게 최적입니다.

🖥️ 로컬 GPU 지원

일반적인 3090 GPU에서도 구동이 가능하며, 특별한 클라우드 인프라 없이 개인 컴퓨터에서 사용할 수 있다는 점에서 비용 효율적입니다.

🧠 128K 토큰 문맥 길이 지원

일반적인 LLM이 4K 또는 16K 정도의 문맥을 처리하는 것과 달리, OpenHands LM은 128K 토큰 길이를 지원하여 방대한 코드베이스도 문제 없이 처리할 수 있습니다.


반응형

OpenHands LM 32B의 학습 방식

🛠️ 자체 생성 데이터로 학습

OpenHands LM은 기존 모델과 달리, 자체 에이전트를 이용해 생성한 데이터로 학습했습니다. 다양한 오픈소스 코드 저장소에서 문제를 해결하고 그 데이터를 다시 학습에 활용하는 순환 구조로 성능을 극대화했습니다.

🎮 SWE-Gym 기반 RL 파인튜닝

All Hands의 SWE-Gym 강화학습 프레임워크를 기반으로, 성공적인 해결 사례만 선별하여 RL 방식으로 파인튜닝 했습니다.


성능 및 벤치마크 결과

📊 SWE-Bench Verified에서 37.2% 해결률

모델의 성능은 SWE-Bench Verified라는 소프트웨어 이슈 해결 벤치마크에서 확인되었습니다. 여기서 37.2%의 문제 해결률을 기록했으며, 이는 수백억 개 이상의 파라미터를 가진 다른 모델들과 비견될 성능입니다.

⚖️ Deepseek V3와의 비교

671B 파라미터를 가진 Deepseek V3 0324 모델이 38.8%의 해결률을 기록한 것과 비교하면, OpenHands LM은 훨씬 가벼운 모델이면서도 근접한 성능을 발휘하고 있습니다.

📉 SOTA 모델 대비 효율성

이러한 결과는 OpenHands LM이 기존의 SOTA(State-Of-The-Art) 모델들보다 훨씬 효율적인 구조를 가지고 있음을 보여줍니다. 가벼우면서도 강력한 성능, 바로 이 점이 OpenHands LM의 최대 강점입니다.


OpenHands LM 사용 방법

⬇️ 모델 다운로드 및 실행

Hugging Face 링크에서 모델을 다운로드하고, 로컬 환경에 적절한 프레임워크(SGLang 또는 vLLM 등)를 사용해 실행할 수 있습니다.

💡 도커로 빠르게 시작하기 (실행 코드)

docker pull docker.all-hands.dev/all-hands-ai/runtime:0.31-nikolaik

docker run -it --rm --pull=always \
    -e SANDBOX_RUNTIME_CONTAINER_IMAGE=docker.all-hands.dev/all-hands-ai/runtime:0.31-nikolaik \
    -e LOG_ALL_EVENTS=true \
    -v /var/run/docker.sock:/var/run/docker.sock \
    -v ~/.openhands-state:/.openhands-state \
    -p 3000:3000 \
    --add-host host.docker.internal:host-gateway \
    --name openhands-app \
    docker.all-hands.dev/all-hands-ai/openhands:0.31

OpenHands LM의 한계와 향후 계획

⚠️ 아직은 연구 미리보기

현재 버전은 정식 릴리즈가 아닌 연구 미리보기로, 일부 코드 상황에서는 반복적인 작업을 생성하거나, 다양한 소프트웨어 과제에서는 낮은 성능을 보일 수 있습니다.

🧪 양자화에 민감

양자화(Quantization)된 모델로 사용할 경우, 성능 저하가 발생할 수 있어 고성능 GPU에서 원형 모델을 사용하는 것이 권장됩니다.

🧬 향후 계획

향후에는 더 작고 경량화된 7B 모델도 출시될 예정이며, 커뮤니티 피드백을 반영해 반복 문제와 다양한 작업 범위에 대한 성능 향상이 목표입니다.


OpenHands LM이 주는 의미

🔍 새로운 개발 도구의 탄생

코딩 에이전트를 로컬에서 직접 사용할 수 있게 된 것은 개발자들에게 있어 매우 중요한 변화입니다. 이는 곧 AI 중심 개발 흐름의 전환점을 의미합니다.

🌍 오픈소스의 진화

OpenHands LM은 단순한 오픈소스가 아닌, 실제 상용 수준의 모델을 누구나 사용할 수 있게 만든 하나의 사례입니다.


출처

https://www.all-hands.dev/blog/introducing-openhands-lm-32b----a-strong-open-coding-agent-model

 

All Hands AI

 

www.all-hands.dev

 

반응형