분류 전체보기
-
김해아버지 간병 2026. 1. 12. 01:34
아버지 뇌의 혈종은 다 빠진 상태다. 일부 남아있지만 뇌에 꽂은 관은 빼고, 자연 상태로 줄일 예정이라 한다.진료 일정대로라면 금요일날 의식 여부를 확인했어야 하지만, 병원에 실려온 시기에 준코마였고, 혈종의 크기가 65mL로 큰 편이었던 걸 감안해 최대한 시간을 두고 뇌와 아버지의 상태가 양호해지면 뇌에 투입되는 수면제 양을 줄이고 의식을 체크해 본다는 소견을 들었다.이제 혈종으로 생사를 고민할만큼 절망적인 상황은 아니나, 뇌출혈 환자의 경우 환자 상태의 등락이 심해 안심할 단계는 아니니, 보다 안전한 방향을 택하셨다고 한다. 뇌부종 징후가 예상보다 훨씬 낮게 나와서 관련 약 투입을 한 단계 낮췄다고 한다.뇌 손실이 존재하는 만큼 인지, 운동 장애는 피할 순 없겠지만 명확한 징후는 의식을 회복하고, 재..
-
Recursive Language Models (RLM)이코에코(Eco²)/Foundations 2026. 1. 9. 23:17
논문: Recursive Language Models저자: Alex L. Zhang, Tim Kraska, Omar Khattab출처: arXiv:2512.24601 (2025)링크: https://arxiv.org/abs/2512.246011. 핵심 개념1.1 문제 정의: Context Window의 한계 현대의 대규모 언어 모델(LLM)은 고정된 컨텍스트 윈도우를 가지며, 이로 인해 두 가지 문제가 발생합니다:Context Length Limit: 입력이 컨텍스트 윈도우를 초과하면 처리 불가Context Rot: 컨텍스트가 길어질수록 성능이 급격히 저하되는 현상Context Rot 현상:┌───────────────────────────────────────────────────────────────..
-
LangGraph 스트리밍 패턴 심화 가이드이코에코(Eco²)/Applied 2026. 1. 9. 23:05
Chat 서비스의 SSE 스트리밍 구현을 위한 LangGraph 스트리밍 패턴 정리작성일: 2026-01-09참고: LangGraph Streaming1. 스트리밍 모드 비교LangGraph는 세 가지 스트리밍 모드를 제공합니다.1.1 stream_mode 옵션모드설명사용 케이스values전체 State 스트리밍디버깅, 전체 상태 추적updatesState 변경분만 스트리밍노드별 결과 추적custom노드 내부 커스텀 이벤트토큰 스트리밍, 진행 상황1.2 Chat 서비스 요구사항필요한 이벤트 타입:├── progress: 단계 진행 상황 (vision, rag, answer 시작/완료)├── delta: LLM 토큰 스트리밍 (실시간 타이핑 효과)└── done: 파이프라인 완료결론: stream_mode..
-
LangGraph 레퍼런스 가이드이코에코(Eco²)/Applied 2026. 1. 9. 23:02
작성일: 2026-01-09적용 서비스: apps/chat참고 문서: LangGraph 공식 문서LangGraph 핵심 개념, API, 그리고 Chat 서비스 마이그레이션에 적용할 패턴 정리1. LangGraph 개요LangGraph는 복잡한 생성형 AI 워크플로우를 구축하기 위한 그래프 기반 오케스트레이션 프레임워크입니다.1.1 핵심 특징특징설명명시적 상태 모델링노드별 입력/출력 정의로 흐름 추적 및 디버깅 용이조건부 분기/루프상태 간 조건 분기와 재귀적 루프 설정 가능LLM 통합 추상화OpenAI, Anthropic, Gemini 등 다양한 LLM 지원내장 Persistence체크포인트 기반 상태 저장/복원스트리밍 지원노드별 이벤트 및 토큰 스트리밍1.2 Workflow vs AgentWorkflow..
-
이코에코(Eco²) Clean Architecture #15: Scan API Clean Architecture 마이그레이션 완료, FE-BE SSE E2E 연동이코에코(Eco²)/Clean Architecture Migration 2026. 1. 9. 21:25
작성일: 2026-01-09작성자: mangowhoiscloud, Opus 4.5 Scan API의 Clean Architecture 마이그레이션을 완료하고, 프론트엔드와 E2E 연동 테스트를 성공적으로 마쳤습니다.이 글에서는 #14 이후 진행된 주요 작업과 의사결정을 정리합니다.주요 태스크항목상태Scan API Clean Architecture✅ 완료RabbitMQ Topology CR 일원화✅ 완료Fanout Exchange 1:N 라우팅✅ 완료FE-BE E2E 연동✅ 완료Image API Redis 안정성 개선✅ 완료FE SSE 실시간 스캔 진행 상태✅ 완료FE 캐릭터 Optimistic Update✅ 완료1. RabbitMQ Queue 전략 최종 결정1.1 문제 상황scan.reward 태스크 완..
-
이코에코(Eco²) Scan API SSE BE-FE 연동: Eventual Consistency 대응 계획이코에코(Eco²)/Plans 2026. 1. 9. 18:47
프론트엔드 캐릭터 보유 확인 - Eventual Consistency 대응 계획상태: Updated (Frontend-only 접근법으로 변경)최종 수정: 2026-01-091. 현황 분석1.1 백엔드 응답 구조 (현재)# apps/scan_worker/application/classify/steps/reward_step.py:94-99reward_response = { "name": reward.get("name"), "dialog": reward.get("dialog"), "match_reason": reward.get("match_reason"), "type": reward.get("type"),}# ⚠️ received, already_owned, character_id 등이..