개발자가 알아두면 유용한 MCP 서버 7가지
AI 에이전트 시대, 업무 생산성 향상의 핵심! 개발자의 입장에서 알아두면 유용한 MCP 서버를 소개합니다.
이 글은 2026년을 기점으로 AI가 ‘도구’에서 ‘업무 주체’로 진화하는 Agentic AI 시대의 도래를 짚고, 멀티 에이전트 구조와 글로벌 기술·시장 동향(Gartner, Deloitte 등)을 정리하며, 특히 문서 기반 워크플로우에서 Agentic AI가 어떤 방식으로 업무를 자동화·재구성하는지, 그리고 한컴의 문서 자산화/AX 전략이 여기에 어떤 의미를 갖는지와 함께 현실적 리스크와 단계적 발전 전망까지 종합적으로 분석합니다.
이 글은 한컴이 운영하는 전사 테크세미나의 기획 배경과 준비 과정, 그리고 실제 행사 운영 경험을 중심으로 소개합니다. 내부 설문조사를 통해 기술 공유와 커뮤니케이션에 대한 구성원들의 니즈를 확인하고, ‘AI Agent & 지식그래프’를 주제로 선정하게 된 과정을 다룹니다. 발표자 모집과 홍보 전략, 오프라인·온라인 병행 운영 방식 등 실무 중심의 준비 과정을 통해 사내 기술 세미나가 어떻게 발전·고도화되고 있는지 보여줍니다. 또한 한컴의 개발문화인 ‘성장사이’의 방향성과 함께, 향후 기술 커뮤니케이션 문화를 더욱 확장하려는 계획을 공유합니다.
한글 문서는 공개형 포맷으로, AI 학습 데이터로 활용 시 PDF보다 추출 효율이 더 좋을 수 있으며, 한컴과 외부 개발자들의 노력을 통해 오픈소스 생태계를 활성화하여 AX 시대에 한글 문서가 지닌 잠재력을 극대화하는 것이 중요합니다.
AI 규제와 윤리는 더 이상 ‘미래’의 과제가 아니라, 오늘날 소프트웨어 개발자가 반드시 이해하고 실무에 적용해야 할 핵심 경쟁력입니다. AI 기본법을 중심으로 개발자가 실무에서 마주할 수 있는 윤리적 쟁점과 실천 방안을 살펴봅니다.
이 글은 생성형 검색 시스템의 ‘어휘 불일치(Lexical Mismatch)’ 문제를 해결하기 위한 청크지식생성모델(Chunk Knowledge Generation Model) 의 구조와 성능을 소개합니다.
본 모델은 대형 언어 모델(LLM)을 사용하지 않고도 문서를 청크 단위로 나누어 키워드·제목·후보 질문을 동시에 생성함으로써, 검색 정확도와 효율성을 모두 향상시켰습니다.
T5 기반 멀티태스크 구조를 활용해 연산 비용을 줄이면서도, Qdrant 벡터 검색 환경에서 Top@1 정확도 84.26%, 평균 91.39%의 성능을 기록했습니다.
GPU 메모리 사용률은 10% 이하로 유지되어 RAG 환경에서도 실시간 응답이 가능한 경량형 생성형 검색 모델로 평가됩니다.
글에서는 모델의 설계 원리, 실험 구성, 성능 비교 결과, 그리고 향후 RAG 시스템 확장 방향을 함께 다룹니다.
이 글은 한컴 인공지능기술팀이 제안한 SLM(경량 언어모델) 기반 Agentic AI 구조, P–C–G(Planner–Caller–Generator)의 설계와 성능을 소개합니다. 대형 언어모델(LLM)의 비용·응답 지연·자원 소모 문제를 해결하기 위해, 한컴은 모델의 역할을 세분화한 효율적인 구조를 제안했습니다. P–C–G는 한 번의 초기 계획 후 필요한 경우에만 재계획을 수행해 토큰 사용량과 지연 시간을 줄이며, 한국어 환경에서 GPT-4o-mini 수준의 성능을 유지했습니다. 본 글은 이 구조의 핵심 원리와 실험 결과, 그리고 향후 적용 방향을 다룹니다.
컨테이너 환경에서 여러 유형의 장애가 발생할 때, Health Check를 구현하여 자동으로 장애에 대응할 수 있는 방법을 연구한 결과를 공유하고 인사이트를 전달합니다.