AI 기술 분석
Chat Completion을 넘어, AI 에이전트 시대의 새 표준 Open Responses
Chat Completion을 넘어 AI 에이전트 시대를 위해 설계된 오픈 표준 Open Responses. Hugging Face와 주요 파트너들이 만드는 새로운 LLM API 표준을 소개합니다.
Written by

TranslateGemma, 절반 크기로 두 배 성능을 내는 구글의 번역 AI
구글의 TranslateGemma는 12B 모델이 27B보다 우수한 성능을 내며, 모바일부터 클라우드까지 55개 언어 번역을 지원하는 오픈소스 AI입니다.
Written by

Google의 AI 쇼핑 표준 UCP, 에이전트가 직접 구매까지 처리하는 방법
Google이 Shopify, Walmart 등과 만든 AI 쇼핑 표준 UCP. 에이전트가 상품 검색부터 결제까지 직접 처리하는 개방형 프로토콜을 소개합니다.
Written by

LLM이 드디어 학습한다, NVIDIA의 TTT-E2E가 긴 컨텍스트 문제를 푸는 방법
LLM이 컨텍스트를 기억이 아닌 학습으로 처리하는 NVIDIA의 TTT-E2E. 128K 컨텍스트에서 2.7배 빠르고 정확도도 높은 혁신적 방법론을 소개합니다.
Written by

RAG 앱 구축을 설정 파일 하나로, NyRAG의 5단계 파이프라인
설정 파일만으로 RAG 앱을 구축하는 NyRAG의 5단계 파이프라인과 기술 아키텍처를 소개합니다. Vespa 기반 하이브리드 검색부터 로컬/클라우드 배포까지.
Written by

대화만 하는 챗봇을 일 처리하는 에이전트로, Tool Calling 설계법
ChatGPT가 웹 검색하고 코드를 실행하는 비밀, Tool Calling. 데이터·계산·행동 3가지 기둥으로 대화형 챗봇을 실제 일 처리하는 에이전트로 만드는 설계 프레임워크를 소개합니다.
Written by

LLM이 컨텍스트 윈도우 100배를 처리한다: MIT의 Recursive Language Models
MIT CSAIL의 Recursive Language Models(RLM)은 LLM이 컨텍스트 윈도우 100배 규모의 입력을 처리하도록 합니다. 프롬프트를 환경 변수로 취급하고 재귀 호출로 1,000만 토큰 이상을 효율적으로 다루는 혁신적 추론 전략입니다.
Written by

텍스트 청킹 164GB/s로 만들기: memchr와 SIMD로 기존 라이브러리 96,000배 빠르게
RAG 파이프라인용 텍스트 청킹을 164GB/s로 처리하는 memchunk. SIMD와 룩업 테이블로 기존 라이브러리보다 최대 96,000배 빠른 속도를 달성한 방법을 소개합니다.
Written by

이미지 100장으로 AI 모델을 망가뜨린다: Nightshade의 ‘독’ 이미지 공격
시카고대 연구팀의 Nightshade는 이미지 100장으로 AI 모델을 망가뜨리는 ‘독’ 이미지 기술입니다. 예술가들의 새로운 저작권 방어 수단을 소개합니다.
Written by

DeepSeek, AI 학습 불안정성을 3000배→1.6배로 잡다: mHC 아키텍처의 비밀
DeepSeek의 mHC 아키텍처가 대규모 AI 모델 학습의 불안정성 문제를 어떻게 해결했는지 소개합니다. 신호 증폭 3000배→1.6배 개선으로 안정성과 성능을 동시에 확보한 비결을 설명합니다.
Written by
