- Authors

- Name
- Youngju Kim
- @fjvbn20031
2026-04-12 기준으로 보면, 엔터프라이즈 에이전트 스택의 핵심 질문은 단순합니다. "어디에서 트레이스를 보고, 어디에서 평가를 돌리고, 어디에서 운영 결정을 내릴 것인가"입니다. OpenAI, Azure, AWS는 모두 답을 갖고 있지만, 초점이 다릅니다.
한눈에 보는 비교
| 플랫폼 | 트레이스 | 평가 | 대시보드 | 텔레메트리 연동 | 가장 잘 맞는 팀 |
|---|---|---|---|---|---|
| OpenAI | 에이전트 워크플로 실행을 추적하고 검사하는 통합 관측성 | AgentKit 이후 데이터셋, trace grading, 자동 프롬프트 최적화, 타사 모델 지원 | 에이전트 개발과 최적화 흐름 안에서 바로 확인 | OpenAI 내부 에이전트 스택 중심 | 제품 팀과 AI 플랫폼 팀이 빠르게 실험하고 반복할 때 |
| Azure | Application Insights와 OpenTelemetry 기반 추적 | Foundry의 build-test-deploy-monitor 흐름 안에서 평가를 연결 | 에이전트 모니터링 대시보드와 Foundry 관측성 화면 | OTel, Application Insights, Azure Monitor | Microsoft 스택과 거버넌스를 함께 운영할 때 |
| AWS | CloudWatch 기반 트레이스와 AgentCore 관측성 | AgentCore 지표와 트레이스에서 운영 품질을 검증 | 세션, 지연 시간, duration, 토큰 사용량, 오류율 중심 대시보드 | OTEL 호환 통합과 CloudWatch | 인프라와 플랫폼 팀이 운영 표준을 맞출 때 |
무엇이 다른가
OpenAI는 에이전트 실행 흐름 자체를 개발 루프 안에 넣는 데 강합니다. 2025년 3월 11일 발표에서 통합 관측성을 제공했고, 2025년 10월 6일 AgentKit에서는 datasets, trace grading, automated prompt optimization, third-party model support를 더해 평가와 개선의 연결을 강화했습니다. 즉, 실험에서 개선까지의 거리가 짧습니다.
Azure Foundry는 관측성을 운영 프로세스의 일부로 만듭니다. 문서상 tracing은 Application Insights와 OpenTelemetry를 중심으로 설정하고, agent monitoring dashboard로 실행 상태를 확인하며, build-test-deploy-monitor 라이프사이클에 evaluation을 붙입니다. 엔터프라이즈에서 "개발과 운영을 같은 제어면에서 관리"해야 할 때 설득력이 큽니다.
AWS AgentCore Observability는 운영 팀이 좋아할 형태입니다. CloudWatch와 OTEL 호환 통합을 통해 traces, dashboards, session count, latency, duration, token usage, error rates를 한 번에 봅니다. 이미 CloudWatch를 표준으로 쓰는 조직이라면 추가 도구를 늘리지 않고도 가시성을 확보하기 쉽습니다.
팀별로 보면
플랫폼 팀은 표준화와 이식성을 봅니다. 이 관점에서는 Azure와 AWS가 OpenTelemetry를 전면에 두기 때문에, 기존 관측성 파이프라인과 연결하기가 수월합니다. OpenAI는 에이전트 자체의 실행 추적과 최적화 루프를 빠르게 만들고 싶을 때 강합니다.
제품 팀은 평가가 더 중요합니다. OpenAI는 AgentKit의 datasets와 trace grading이 가장 직접적으로 실험 속도를 올려 줍니다. Azure도 Foundry의 평가와 tracing이 잘 묶여 있어서, 제품 검증을 배포 전 단계에 끼워 넣기 좋습니다.
인프라 팀은 경보와 운영 신호를 봅니다. AWS는 세션, 지연 시간, duration, 토큰 사용량, 오류율을 CloudWatch 대시보드에서 바로 읽을 수 있어 운영 친화적입니다. Azure는 Application Insights와 Foundry 대시보드가 강하고, OpenAI는 자체 스택 안에서 더 빠른 에이전트 진단에 유리합니다.
롤아웃 결정을 내리는 방법
- OpenAI 에이전트가 중심이면 OpenAI의 통합 관측성과 AgentKit 평가 루프부터 붙입니다.
- Azure 표준이 이미 있으면 Foundry와 Application Insights를 기준으로 build-test-deploy-monitor 체계를 맞춥니다.
- CloudWatch가 운영 표준이면 AWS AgentCore Observability로 시작해 OTEL 호환 경로를 유지합니다.
- 공통 기준은 같게 잡습니다. 트레이스가 남는가, 평가가 재현되는가, 대시보드가 운영자가 보는 화면인가, 롤아웃 차단 조건이 있는가.
실무 체크리스트
- 트레이스가 에이전트의 tool call, model call, error path까지 이어지는지 확인합니다.
- 평가 데이터셋이 실제 운영 트래픽을 대표하는지 점검합니다.
- 대시보드가 제품, 플랫폼, 인프라 모두가 이해할 수 있는 지표를 보여 주는지 봅니다.
- OTEL 또는 기존 텔레메트리 경로를 유지해 관측성 분리 비용을 줄입니다.
- 배포 전후에 같은 기준으로 품질 회귀를 비교합니다.
공식 링크
- OpenAI agents announcement: New tools for building agents
- OpenAI AgentKit: Introducing AgentKit
- Azure Foundry observability: Observability in Foundry Control Plane
- Azure docs: Observability in Generative AI - Microsoft Foundry
- AWS AgentCore observability: Observe your agent applications on Amazon Bedrock AgentCore Observability
- AWS CloudWatch agent view: Agent view - Amazon CloudWatch
- AWS CloudWatch GenAI observability: Generative AI observability - Amazon CloudWatch