Agent
-
LangGraph 스트리밍 패턴 심화 가이드이코에코(Eco²)/Applied 2026. 1. 9. 23:05
Chat 서비스의 SSE 스트리밍 구현을 위한 LangGraph 스트리밍 패턴 정리작성일: 2026-01-09참고: LangGraph Streaming1. 스트리밍 모드 비교LangGraph는 세 가지 스트리밍 모드를 제공합니다.1.1 stream_mode 옵션모드설명사용 케이스values전체 State 스트리밍디버깅, 전체 상태 추적updatesState 변경분만 스트리밍노드별 결과 추적custom노드 내부 커스텀 이벤트토큰 스트리밍, 진행 상황1.2 Chat 서비스 요구사항필요한 이벤트 타입:├── progress: 단계 진행 상황 (vision, rag, answer 시작/완료)├── delta: LLM 토큰 스트리밍 (실시간 타이핑 효과)└── done: 파이프라인 완료결론: stream_mode..
-
이코에코(Eco²) Clean Architecture #14: Stateless Reducer Pattern + 체크포인팅이코에코(Eco²)/Clean Architecture Migration 2026. 1. 6. 01:12
작성일: 2026-01-06참조: Stateless Reducer Pattern 이론1. 도입 배경1.1 기존 파이프라인의 문제Scan Worker의 4단계 파이프라인(Vision → Rule → Answer → Reward)은 Celery Chain으로 구현되어 있었다. 각 Task가 직접 이벤트를 발행하고, 에러를 처리하고, 다음 Task로 데이터를 전달했다.# 기존 방식 (문제점)@celery_app.taskdef vision_task(task_id, image_url, ...): try: publish_event("vision", "started") # Side effect 1 result = openai.chat.completions.create(...) # 외..
-
이코에코(Eco²) LLM 파이프라인 의사결정 리포트이코에코(Eco²)/Reports 2026. 1. 5. 16:45
작성일: 2026-01-05작성자: AI Assistant (Claude Opus 4.5)상태: Draft관련 서비스: scan, scan-worker, chat, chat-worker📋 Executive Summary본 리포트는 Eco² 백엔드의 LLM 파이프라인 아키텍처에 대한 기술적 의사결정을 문서화합니다.Scan 파이프라인: LangGraph 미도입, Stateless Reducer 패턴 적용Chat 파이프라인: LangGraph 도입으로 분기 로직 구현공통: LangChain 기반 DI(Dependency Injection)로 LLM 클라이언트 추상화1. Scan 파이프라인: LangGraph 미도입 결정1.1 현재 구조 분석┌─────────────────────────────────────..
-
Dependency Injection for LLM이코에코(Eco²)/Applied 2026. 1. 5. 06:31
LLM 모델을 함수의 파라미터로 전달하여 에이전트 로직과 모델 선택을 분리하는 설계 패턴용어 정의⚠️ Note: 이 문서에서 설명하는 패턴은 공식적인 명칭이 없습니다.기존 소프트웨어 설계 패턴(Dependency Injection, Strategy Pattern)을 LLM 컨텍스트에 적용한 것입니다. 이 패턴을 설명하는 다양한 표현Dependency Injection for LLM - DI 패턴의 LLM 적용Strategy Pattern for Model Selection - 전략 패턴 관점Provider Abstraction - 프로바이더 추상화Pluggable LLM Backend - 교체 가능한 LLM 백엔드Model as Configuration - 모델을 설정으로 취급실제 구현 사례Cursor ..
-
LLM Gateway & Unified Interface Pattern이코에코(Eco²)/Applied 2026. 1. 5. 06:16
AI 에이전트 시스템에서 LLM 모델 선택을 에이전트 로직과 분리하는 아키텍처 패턴용어 정의⚠️ Note: 이 문서에서 다루는 개념들은 업계에서 다양한 명칭으로 불립니다.공식적으로 통일된 명칭은 없으며, 아래와 같은 용어들이 실제로 사용됩니다.실제 사용 용어사용처설명LLM Gateway / AI GatewayCloudflare, Kong, AWSLLM 요청을 중앙에서 관리하는 게이트웨이LLM Router당근, Martian모델별로 요청을 라우팅하는 컴포넌트Unified LLM InterfaceLiteLLM, OpenRouter여러 Provider를 하나의 API로 통합Multi-Provider SupportLangChain, LiteLLM다중 LLM Provider 지원Model Abstraction L..