요즘 AI 에이전트 글을 보면 대부분 비슷한 장면으로 시작한다. 모델이 코드를 짜고, 툴을 호출하고, 브라우저를 조작하고, 그럴듯하게 일을 끝낸다. 데모만 보면 이제 사람 개발자가 거의 필요 없어 보인다.그런데 실제로 붙여보면 금방 부딪히는 문제가 있다. 모델이 똑똑한 것과, 시스템이 안정적으로 일하는 것은 전혀 다른 문제라는 점이다.최근 OpenAI가 공개한 Harness engineering: leveraging Codex in an agent-first world는 이 차이를 꽤 선명하게 보여준다. 핵심은 단순하다.이제 중요한 것은 프롬프트를 얼마나 멋지게 쓰느냐보다, 에이전트가 일을 잘할 수 있는 작업 환경을 어떻게 설계하느냐다.이 글에서는 왜 2026년의 AI 에이전트 개발에서 프롬프트 엔지니어..
Computer Engineering
요즘 AI 에이전트 쪽 문서를 보다 보면 체감되는 변화가 하나 있다. 예전에는 모델을 붙인다고 하면 Chat Completions API를 먼저 떠올렸는데, 이제는 점점 Responses API가 기본 출발점처럼 보이기 시작한다는 점이다.처음에는 이름만 바뀐 줄 알았다. 그런데 최근 OpenAI 공식 발표와 문서를 다시 따라가 보니, 이건 단순 리브랜딩이 아니라 에이전트형 애플리케이션에 맞게 API 중심축을 옮기는 흐름에 가깝다.특히 2026년 들어서는 이 차이가 더 분명해졌다. Remote MCP 서버 지원, 이미지 생성, Code Interpreter, 개선된 file search, background mode, reasoning summary까지 한쪽으로 모이기 시작했기 때문이다. 예전처럼 텍스트 ..
며칠 전에는 MCP가 왜 중요한지 개념 중심으로 정리했다. 그런데 실제로 붙여보려는 순간부터는 질문이 바뀐다.연결이 되느냐보다, 안전하게 연결되느냐가 더 중요해진다.MCP(Model Context Protocol)는 이제 단순한 실험용 표준이 아니다. Anthropic 발표 기준으로 생태계에는 1만 개가 넘는 공개 MCP 서버가 존재하고, 주요 AI 제품들도 MCP 흐름 위로 빠르게 올라오고 있다. 연결 대상이 늘어날수록 편의성보다 먼저 봐야 하는 것은 보안 경계다.특히 MCP는 모델이 외부 도구, 파일, API, 데이터베이스와 연결되는 통로다. 잘못 열면 그냥 챗봇 하나가 헛소리하는 수준에서 끝나지 않는다. 권한 오남용, 토큰 탈취, 민감 데이터 노출, 의도하지 않은 작업 실행으로 바로 이어질 수 있다..
LLM에 자체 데이터를 연결하려면 RAG는 사실상 필수다. "벡터 DB에 문서 넣고 검색하면 끝 아닌가?" 싶지만, 생각보다 훨씬 복잡하고 아키텍처 선택이 품질을 좌우한다.RAG에도 버전이 있다RAG(Retrieval-Augmented Generation)는 LLM이 모르는 정보를 외부 데이터에서 검색해 답변을 생성하는 기법이다. 파인튜닝보다 빠르고, 최신 정보 반영이 쉽고, 데이터 변경에 유연해서 2024~2025년 가장 많이 쓰이는 AI 아키텍처가 됐다.RAG는 크게 세 단계로 진화해왔고, 어떤 걸 선택하느냐에 따라 답변 품질이 완전히 달라진다.Naive RAG → Advanced RAG → Modular RAG(단순) (정교) (유연)1단계: Naive RAG — 가장..