RAG
텍스트 청킹 164GB/s로 만들기: memchr와 SIMD로 기존 라이브러리 96,000배 빠르게
RAG 파이프라인용 텍스트 청킹을 164GB/s로 처리하는 memchunk. SIMD와 룩업 테이블로 기존 라이브러리보다 최대 96,000배 빠른 속도를 달성한 방법을 소개합니다.
Written by

AI 에이전트의 3가지 장기 메모리: 경험·지식·스킬을 저장하는 기술
자율 AI 에이전트가 진정한 자율성을 갖추려면 3가지 장기 메모리가 필요합니다. 에피소드·의미론·절차 메모리의 역할과 구현 방법을 기술적으로 설명합니다.
Written by

LlamaIndex RAG 실전 가이드: 인덱스 재사용으로 비용 90% 줄이기
LlamaIndex로 RAG 앱을 만들 때 인덱스 재사용으로 비용을 90% 줄이고, LLM을 자유롭게 교체하고, 비동기 쿼리로 성능을 높이는 실전 패턴을 소개합니다.
Written by

프롬프트 잘 쓴다고 끝? AI 시스템 실패의 진짜 원인은 컨텍스트 설계
LLM 앱이 데모를 넘어서지 못하는 이유는 프롬프트가 아닌 컨텍스트 설계에 있습니다. Weaviate가 제시하는 Context Engineering의 6가지 핵심 요소를 소개합니다.
Written by

26조 원 AI 검색 스타트업 Perplexity, 뉴욕타임스에 제소당하다
26조 원 가치 AI 검색 스타트업 Perplexity가 뉴욕타임스에 제소당했습니다. 페이월 콘텐츠를 실시간으로 가져오는 RAG 기술이 쟁점입니다.
Written by

AI 에이전트로 미팅 예약률 3배: SafetyCulture의 실전 마케팅 자동화 4단계
SafetyCulture가 AI 에이전트로 미팅 예약률 3배, 기회 창출 2배를 달성한 실전 사례. 리드 풍부화부터 자동 BDR까지 4가지 워크플로우를 상세히 소개합니다.
Written by

LEAF: 23M 파라미터로 OpenAI 임베딩 성능 97% 달성, CPU만으로 작동
MongoDB가 공개한 LEAF 프레임워크는 대형 임베딩 모델을 5~15배 압축하면서도 성능 97%를 유지합니다. GPU 없이 CPU만으로 고성능 RAG 구현이 가능해졌습니다.
Written by

도구가 많을수록 AI가 멍청해진다: Dropbox Dash 팀의 Context Engineering 전략
Dropbox Dash가 발견한 AI 에이전트의 역설: 도구가 많을수록 성능이 떨어진다. Context Engineering으로 해결한 실전 전략을 소개합니다.
Written by

AI 검색 시대, SEO는 죽었다고? 데이터가 말하는 6가지 진실
AI가 검색을 장악했다는 공포 마케팅 속에서 NYT와 Google 데이터로 검증된 진실. AI Overview는 1.9%만 차지하고, 결국 전통 SEO가 핵심입니다.
Written by

벡터 검색이 복잡한 쿼리에 실패하는 이유: Superlinked가 제시하는 메타데이터 통합 전략
텍스트 임베딩만으론 부족합니다. Superlinked는 숫자, 카테고리, 시간 데이터를 벡터와 함께 인코딩해 복잡한 검색 쿼리를 처리하는 오픈소스 프레임워크입니다.
Written by
