BitNet
BitNet 프로젝트는 1비트 대형 언어 모델(예: BitNet b1.58)의 추론을 위한 공식 프레임워크로, 빠르고 무손실의 인퍼런스를 지원하는 최적화된 커널들을 제공합니다. 주된 목적은 경량화된 저비트 모델의 효율적 사용을 가능케 하며, CPU, GPU 환경에서 성능 향상과 전력 절약(ARM에서 최대 70%, x86에서 최대 82%)을 달성하는 것에 중점을 둡니다. 구조적으로는 llama.cpp를 기반으로 하며, 다양한 모델 지원과 최적화 기법(병렬 처리, 임베딩 양자화)을 포함하고 있습니다. 대상은 연구자와 개발자로, 1비트 LLM의 배포와 배경 연구, 성능 벤치마크에 사용됩니다. 기술 스택으로는 C++, Python, CUDA, MLIR 등을 활용하며, CPU와 GPU를 모두 지원하는 커널과 도구들이 포함되어 있습니다. 릴리즈 일정을 보면, 2023년 10월 공식 버전 1.0이 공개된 이후 지속적으로 최적화와 모델 확장이 이루어지고 있으며, 최신 주제는 병렬 커널과 임베딩 양자화 기술을 통한 성능 향상입니다. 주요 참고로 llama.cpp 기반, T-MAC의 낮은 비트 신경망, Hugging Face의 공개 모델 지원, 그리고 다양한 최적화 가이드와 벤치마크가 포함되어 있으며, 윈도우와 리눅스 환경 모두에서 빌드와 실행이 가능하게 설계되어 있습니다. 사용 시에는 모델 다운로드, 환경 세팅, 빌드 과정에 주의를 기울여야 하며, 또한 최신 커밋과 인퍼런스 튜토리얼, 벤치마크 스크립트 등을 참고하는 것이 좋습니다.
Fish Speech
Fish Speech 프로젝트는 다국어 텍스트-음성 합성(TTS) 시스템으로, 자연스럽고 감정을 풍부하게 표현하는 음성을 생성하는 것이 목표입니다. 이 시스템은 10백만 시간 이상의 오디오 데이터를 기반으로 여러 언어를 지원하며, 강화 학습을 통한 정렬, 듀얼 오토리그레시브 아키텍처, 그룹 상대 정책 최적화(GRPO) 기법을 활용하여 고품질의 음성 합성을 실현합니다. 주요 기능으로는 자연어 태그를 이용한 세밀한 감정 및 억양 제어, 다중 화자 및 다중 대화 맥락 지원, 짧은 샘플을 통한 빠른 화자 목소리 복제, 여러 언어 지원, 그리고 SGLang 서버를 통한 실시간 스트리밍이 있습니다. 구성요소로는 대형 트랜스포머 기반 모델과 RVQ 오디오 코덱, 강화 학습 모듈, 다중 언어 및 화자 인식 기능이 포함되어 있습니다. 이 프로젝트는 연구, 음성 합성 서비스, 보이스 클로닝, 다국어 TTS 애플리케이션 등에 적합하며, 최신 논문과 기술 보고서도 공개되어 있습니다. 사용자가 참고할 만한 주의사항은 라이선스 조건을 준수해야 하며, 공개된 Docker, WebUI 등 다양한 배포 방법이 제공됩니다.
OpenRAG
OpenRAG은 지능형 문서 검색과 AI 기반 대화를 가능하게 하는 종합적인 Retrieval-Augmented Generation(검색 증강 생성) 플랫폼입니다. 사용자는 문서를 업로드, 처리, 검색할 수 있으며, 대화형 인터페이스를 통해 질문에 답하거나 정보를 탐색할 수 있습니다. 이 시스템은 대형 언어모델과 의미 검색 기술을 활용하고, Langflow를 통해 문서 인덱싱과 검색 워크플로우를 시각적으로 구성할 수 있도록 설계되었습니다.
주요 기능으로는, 사전 패키지로 제공되는 즉시 실행 가능한 도구, 고급 재순위 및 다중 에이전트 조정을 통한 워크플로우 지원, 복잡한 데이터 처리 및 자동화 지원, Drag-and-drop 인터페이스, 모듈형 확장 가능 기능, OpenSearch 기반의 대규모 엔터프라이즈 검색이 포함됩니다.
OpenRAG은 FastAPI와 Next.js로 개발되었으며, OpenSearch, Langflow, Docling 등의 오픈소스 기술 스택을 기반으로 합니다. 사용자들은 Python SDK, TypeScript/JavaScript SDK를 통해 플랫폼을 쉽게 통합하여 자신의 애플리케이션에 RAG 기능을 추가할 수 있습니다. 최근 릴리즈 및 변경사항은 공식 문서와 GitHub 이슈, 배포 기록을 통해 확인 가능하며, Self-managed 배포 옵션, Docker를 통한 배포, 빠른 설치 가이드 등을 통해 설치와 시작이 매우 용이합니다. 플랫폼은 문서 검색, 대화형 상담, 지식 베이스 구축 등 다양한 유스케이스에 적합하며, 엔터프라이즈 규모의 검색과 데이터 처리에 최적화되어 있습니다. 추가 정보와 가이드는 공식 문서(https://docs.openr.ag/)를 참고하세요.
InsForge
InsForge는 에이전트 기반 개발을 위한 백엔드 플랫폼입니다. 이 프로젝트의 주 목적은 AI 코드 에이전트와 AI 편집기들이 백엔드 시스템을 효율적으로 이해하고 제어할 수 있도록 하는 데 있습니다. 주요 기능으로는 데이터베이스, 인증, 저장소, 함수 등의 백엔드 원시기능을 의미론적 계층(Semantic Layer)을 통해 노출하여, 에이전트가 이를 이해하고 end-to-end로 운영할 수 있게 지원합니다. 또한, 백엔드 컨텍스트를 제공하여 문서화와 운영 가능 상태를 피드백하며, 프리컨피그레이션된 primitives를 통해 빠른 환경 구축이 가능합니다.
구조적으로는 InsForge Semantic Layer를 중심으로, 인증, 데이터베이스(Postgres), 스토리지(S3 호환), 모델 게이트웨이(OpenAI 호환 API), 엣지 서버리스 함수, 사이트 배포 등의 핵심 제품들이 존재합니다. 에이전트는 이 계층을 통해 백엔드 연산, 정보 조회, 설정 제어 등을 수행합니다.
기술 스택으로는 Docker, Node.js, PostgreSQL, S3 호환 스토리지, OpenAI API, 서버리스 엣지 컴퓨팅 기술 등을 활용하며, 최근에는 Docker Compose 기반의 로컬 또는 클라우드 배포 방식도 지원하여 빠른 셋업이 가능하게 설계되어 있습니다. 현재는 GitHub를 통해 오픈소스로 공개되어 있으며, 지원 및 기여를 위한 문서와 커뮤니티 채널도 활발하게 운영되고 있습니다. 최신 릴리즈 및 변경 내역은 공식 저장소 및 릴리즈 노트에서 확인 가능합니다.
Hindsight
Hindsight은 AI 에이전트의 지능 수준을 향상시키기 위해 설계된 에이전트 메모리 시스템입니다. 이 프로젝트는 단순한 대화 기록 저장을 넘어서, 에이전트가 경험과 지식을 학습하고 이해하는 능력을 갖추도록 지원하는 것이 목적입니다. Hindsight은 인간의 기억 구조를 모방하는 생체 모방적 데이터 구조를 활용하여 사실, 경험, 심리적 모델을 세 가지 경로로 저장하고, 이를 통해 보다 정밀하고 유연한 메모리 검색과 분석이 가능하게 합니다.
기능 측면에서는 정보를 저장하는 retain, 기억을 검색하는 recall, 그리고 기억을 바탕으로 새로운 통찰과 연관성을 생성하는 reflect 세 가지 주요 API를 제공합니다. 이를 위해 벡터 검색, 정밀 키워드 매칭, 그래프 연결, 시간 범위 필터링 등 여러 검색 전략을 병행 수행하며, 최종 결과는 랭크퓨전과 교차 인코더 재순위 과정을 통해 정렬됩니다.
구조적으로, Hindsight은 ‘은행’ 단위로 기억을 저장하며, 월드 사실, 경험, 심리적 모델의 세 가지 기억 유형으로 구분됩니다. 또한, 다양한 환경에서 활용할 수 있도록 Python, Node.js/TypeScript SDK와 REST API를 제공하며, 서버를 내장하거나 외부 데이터베이스와 연동하는 방식으로 운영 가능합니다.
이 프로젝트는 주로 기업의 고객 지원, 맞춤형 챗봇, 자동화된 업무 수행, 연구 및 인사이트 도출 등 다양한 대화형 AI 애플리케이션에 적합하며, 사용자별 맞춤 기억 저장 및 검색, 장기적 학습 능력 강화가 필요한 시나리오에 활용됩니다. 기술 스택으로는 딥러닝 모델(예: OpenAI, Anthropic, Gemini 등)과 벡터 검색 기술, API 기반 통합, Docker를 통한 배포 환경 등을 활용하며, 2026년 1월 기준으로 최신 성능 벤치마크와 연구 검증 데이터를 제공하여, 최신의 최첨단 성능을 자랑하고 있습니다. 간단한 설치와 API 호출로 빠른 구현이 가능하며, 다양한 모델 지원과 안정적 운영이 특징입니다. 공식 문서와 SDK, 커뮤니티 지원 채널도 활성화되어 있어 개발과 도입이 용이합니다.
Page Agent
Page Agent는 웹페이지 내에서 사용자 인터페이스를 자연어 명령으로 제어할 수 있게 하는 클라이언트사이드 웹 에이전트입니다. 이 프로젝트의 목적은 별도의 브라우저 확장이나 headless 브라우저, 파이썬 스크립트 없이, 웹 페이지 내부 자바스크립트만으로 자연어 기반의 DOM 조작과 인터랙션을 가능하게 하는 것입니다. 이를 통해 사용자들은 명령어를 통해 쉽게 웹 페이지를 탐색, 클릭, 입력 등 다양한 조작을 수행할 수 있습니다.
주요 기능으로는 자연어로 웹 인터페이스를 제어하는 것, 텍스트 기반 DOM 조작, 사용자 맞춤형 대화형 UI, 그리고 Chrome 확장 프로그램을 이용한 다중 페이지 작업 지원이 있습니다. 이러한 기능들은 SaaS AI 보조 도구, 스마트 폼 자동화, 접근성 향상, 여러 탭에 걸친 다중 페이지 에이전트 구현 등에 활용될 수 있습니다.
구성 요소로는 페이지 내 자바스크립트(일반 자바스크립트 라이브러리 형식), 자연어 처리 모델 연동을 위한 API 클라이언트, 그리고 선택적으로 Chrome 확장형 기능이 포함되어 있습니다. 상태관리를 위해 TypeScript로 개발되었으며, npm을 통해 설치할 수 있고, 다양한 크기와 환경에 맞게 CDN 링크도 제공됩니다. 이 프로젝트는 GitHub에 공개되어 있으며, MIT 라이선스 하에 배포됩니다. 최근 릴리즈 정보나 변경 이력은 공식 GitHub 저장소의 릴리즈 노트에서 확인할 수 있으며, 적극적인 기여를 환영합니다. 참고로, 이 도구는 브라우저 내부 DOM 처리에 초점을 맞추고 있어 서버 또는 백엔드 자동화 용도가 아니며, 브라우저 기반의 웹 개선 및 인터랙션 증대를 목적으로 설계되었습니다.
Superpowers
Superpowers는 개발자와 코드 에이전트의 소프트웨어 개발 워크플로우를 지원하는 시스템입니다. 이 프로젝트의 핵심 목적은 AI 코딩 에이전트를 통해 효율적이고 체계적인 개발 과정을 가능하게 하는 데 있으며, 구체적으로는 설계, 계획, 구현, 검증, 리뷰, 배포까지의 전체 프로세스를 자동화하거나 지원합니다. 시스템은 ‘Skills’라는 모듈화된 기능 집합과 명확한 작업 흐름을 갖추고 있으며, 사용자와 에이전트 간의 상호작용을 바탕으로 짧은 설계 예측, 작업 분할, 테스트 기반 개발, 코드 리뷰, 브랜치 관리 등을 자동 또는 수동으로 수행합니다. 구조는 크게 Skill 라이브러리, 워크플로우 절차(브레인스토밍, 기획, 개발, 테스트, 리뷰 등), 그리고 다양한 기술을 활용하는 플러그인 또는 API 형식을 포함합니다. 대상 사용자로는 AI 개발자, 소프트웨어 엔지니어, 또는 AI와 협업하는 개발팀이 있으며, 특히 체계적이고 반복 가능한 소프트웨어 개발 자동화 또는 AI 보조코딩에 적합합니다. 기술 스택은 Claude AI 플랫폼에 기반하며, 플러그인 형태로 클라우드 또는 오프라인 환경에서 실행 가능하게 설계되었습니다. 최근 릴리즈 정보나 업데이트는, 프로젝트 문서에서 별도 안내가 없지만, 다양한 워크플로우와 플러그인 마켓플레이스를 지원하며, 사용자 맞춤형 스킬 개발과 협업이 강조됩니다. 특이사항으로는, 이 시스템은 슈퍼파워(특수능력) 개념을 활용하여, 일반 에이전트보다 강력한 개발 능력을 발휘하게 하는 설계 철학과, 설계부터 배포까지의 전 과정을 세밀히 관리하는 구조를 갖추고 있어 자동화와 품질 향상에 초점을 두고 있다는 점입니다. 관련 링크 및 문서화는 Github 저장소와 플러그인 마켓플레이스, 상세 설치 및 사용 가이드 페이지를 참고하면 좋습니다.
Hermes Agent ⚕
Hermes Agent는 Nous Research에서 개발한 자기개선 AI 에이전트로, 경험을 통해 스킬을 생성하고 이를 개선하며 지식을 유지하는 학습 루프를 내장한 인공지능 시스템입니다. 이 프로젝트의 목표는 효율적이고 확장성 있는 에이전트를 구축하는 것으로, 다양한 환경에서 운영할 수 있으며, 클라우드 기반 또는 VPS 환경에서 저비용으로 작동할 수 있도록 설계되었습니다. Hermes Agent는 텔레그램, 디스코드, 슬랙, 왓츠앱, 시그널 및 CLI를 통해 통신이 가능하며, 음성 메모 전사, 계획된 자동화, 병렬 처리, 플러그인 시스템 등 다양한 기능을 제공합니다. 주요 구조는 에이전트의 핵심 루프, 세션 관리, 도구 및 스킬 시스템, 메시징 게이트웨이, 보안 및 설정 관리로 구성됩니다. 기술 스택으로는 Python 기반의 모듈과 Node.js, 다양한 ML 모델, 서버리스 인프라(예: Daytona, Modal), 그리고 여러 통신 플랫폼을 활용합니다. 최근에는 OpenClaw에서의 이전 설정을 자동으로 마이그레이션하는 기능이 포함되어 있으며, 문서와 커뮤니티 지원을 통해 사용자의 설정과 확장도 용이하게 설계되어 있습니다. 전체적으로, Hermes Agent는 연구목적, 프로덕션, 커스터마이징, 확장성을 모두 고려한 연구지원용 AI 에이전트입니다.
MiroFish
MiroFish는 다중 에이전트 기반의 차세대 예측 엔진으로, 현실 세계의 다양한 정보를 수집하여 고품질의 가상 디지털 세계를 자동으로 구축합니다. 이 가상 공간 내에서 수천 개의 독립적인 인격체들이 상호작용하며 사회적 진화를 이루며, 사용자는 ‘신의 시점’에서 변수 값을 조작하여 미래의 흐름을 정밀하게 예측할 수 있습니다. 이 프로젝트의 목표는 미래 예측 및 시뮬레이션을 통해 정책, 금융, 미디어 등 다양한 분야에서 리스크를 사전 평가하고, 창의적·기술적 탐구를 가능하게 하는 것입니다. 구조 구성요소로는 데이터 수집 및 인지구조(그래프 RAG), 환경 환경설정, 시뮬레이션 엔진, 보고서 생성, 상호작용 인터페이스 등이 포함됩니다. 주요 사용 대상은 정책 입안자, 연구자, 기업가, 콘텐츠 제작자 등이며, 자연어 입력을 통한 예측 요청을 처리하는 능력을 갖추고 있습니다. 최신 업데이트는 GitHub에 여러 릴리즈와 기능 개선이 이루어졌으며, Docker 배포와 소스코드 기반 환경설정 방법이 제공되어 손쉬운 실행이 가능합니다. 기술 스택은 Node.js, Python(3.11~3.12), Docker, 다양한 API 인터페이스를 활용하며, 예측 엔진이 OASIS 오픈소스 엔진 위에 구축된 점이 특징입니다. 프로젝트는 지속적인 업데이트와 함께 공개 데모 영상, 온라인 체험, 연구 성과 등이 공개되어 있으며, 활발한 커뮤니티 교류 및 인재 영입을 목표로 하고 있습니다. 참고 링크와 주의사항은 GitHub 페이지, 공식 온라인 데모, 관련 영상 등이 포함됩니다.
LiteRT
LiteRT는 구글의 온디바이스 머신러닝 및 생성AI 배포를 위한 고성능 실행 프레임워크로, 효율적인 모델 변환, 런타임, 최적화 기능을 제공하며, 특히 GPU와 NPU 가속 지원이 강점입니다. 이 프로젝트의 목적은 다양한 하드웨어 플랫폼에서 최적의 AI 모델 성능을 구현하고 간편하게 배포하는 것에 있으며, TensorFlow Lite의 계승자로서 신뢰성 높은 온디바이스 AI 실행 환경을 구현하고자 합니다. 기능으로는 하드웨어 가속기 자동 선택, 비동기 실행, 효율적인 I/O 버퍼 처리, GPU 및 NPU 가속 지원, 그리고 생성AI 가속화가 포함됩니다. 또한, 다양한 플랫폼(Android, iOS, Linux, macOS, Windows, Web, IoT) 지원을 목표로 하며, 각 플랫폼별로 CPU, GPU, NPU 지원이 다르게 제공됩니다. 구조 또는 구성요소로는 모델 변환을 위한 LiteRT Torch Converter, 모델 최적화를 위한 AI Edge Quantizer, 그리고 다양한 하드웨어 가속 인터페이스(API, Delegate 등)가 있으며, 최신 성능 개선과 기능 업데이트가 이루어지고 있습니다. 최근 업데이트 내용에는 새로운 API 도입, NPU 지원 확대, GPU 성능 향상, 생성AI 모델 최적화에 중점을 둔 개선 사항이 포함되어 있습니다. 목표 사용 대상은 ML 엔지니어, 모바일 및 임베디드 개발자, 그리고 생성AI를 온디바이스 환경에 배포하려는 다양한 개발자로, 실시간 영상 분할, 대형 언어모델 적용, 성능 최적화 등 여러 활용 사례를 지원합니다. 기술 스택으로는 C++, Python, OpenCL, Metal, WebGPU, 다양한 하드웨어별 SDK와 API를 활용하며, AI 모델은 TFLite 포맷으로 주로 사용됩니다. 커뮤니티 기여 및 상세 가이드는 GitHub의 CONTRIBUTING.md와 공식 문서를 통해 제공됩니다. 최근 릴리즈와 변경 이력으로는 API 개선, 플랫폼별 가속 지원 확대, GenAI 최적화 기능 추가, 파이프라인 성능 향상 등이 있으며, 최신 정보는 공식 GitHub 페이지와 문서 링크를 참조하는 것이 좋습니다. 특이사항으로는 다양한 하드웨어 지원(곧 제공 예정 포함), 생성AI에 최적화된 성능, 오픈소스 커뮤니티의 적극적 참여 유도, 안정성과 확장성을 고려한 설계가 돋보입니다. 주의할 점은 지원하는 플랫폼별 가속기 지원 현황을 최신으로 확인하고, 각 환경에 맞춘 별도 최적화가 필요할 수 있다는 점입니다.
agency-agents
이 프로젝트는 다양한 분야의 AI 전문가 역할을 체계적이고 특화된 에이전트 시스템으로 구현한 공개형 라이브러리입니다. 목적은 인공지능 에이전트들을 자연스럽게 구성하여, 각 전문가들이 연속적이고 성과 지향적인 작업을 수행하도록 지원하는 것으로, 개발자가 인공지능을 활용한 자동화 또는 협업 환경을 쉽게 구축할 수 있게 돕습니다. 프로젝트는 프론트엔드, 백엔드, 설계, 마케팅, QA, 지원 등 여러 분야별 전문 에이전트들을 별도의 파일로 관리하며, 자연어 명령어와 각 에이전트의 특화된 역할에 기반해 업무를 수행합니다. 구조는 에이전트별로 파일 형식의 템플릿을 사용하며, 이들 파일은 특정 역할, 성격, 워크플로우, 기대 성과 등을 기술하는 내용으로 구성됩니다. 기술 스택은 주로 Markdown, 쉘스크립트, 다양한 언어별 SDK와 연동 방법을 포함하며, 여러 AI 플랫폼(Claude Code, GitHub Copilot, OpenCode 등)과의 연동 지원도 제공합니다. 최근 릴리즈 및 업데이트는, 여러 도구와의 자동 통합 스크립트 개발, 예제 워크플로우 설계, 커뮤니티 참여 기능 개선이 있으며, 현재 꾸준한 사용자 피드백과 기술 확장이 진행 중입니다. 특징으로는, 역할별 강력한 개성 부여, 자연스럽고 구체적인 워크플로우 구현, 오픈소스 기반 커스터마이징 가능성, 그리고 다양한 도구와의 원활한 통합이 있으며, 관련 문서와 스크립트, 예제는 GitHub 저장소를 통해 공개되어 있습니다. 이 시스템은 인공지능을 활용하여 복잡한 프로젝트 관리를 자동화하거나, 특화된 업무 수행에 적합하며, 앞으로 더욱 진화할 예정입니다.
A2UI: Agent-to-User Interface
A2UI는 오픈소스로 개발된 표준 및 라이브러리 모음으로, 에이전트가 사용자에게 생성하는 풍부하고 인터랙티브한 UI를 표현하는 데 목적이 있습니다. 인간이 이해하기 쉬운 자연어 형식인 JSON을 통해 UI 구조와 의도를 전달하며, 이를 클라이언트 애플리케이션이 자신들의 네이티브 컴포넌트 라이브러리(예: Flutter, Angular, Lit 등)를 활용하여 렌더링합니다. 이는 사용자에게 안전하면서도 표현력 있는 UI를 제공하는 것을 목표로 합니다. 주요 기능으로는 에이전트가 생성하는 UI 요청을 표준화된 JSON 포맷으로 전달하고, 클라이언트가 이를 해석하여 각 프레임워크에 맞는 UI 컴포넌트로 렌더링하는 역할이 있습니다. 또한, 확장 가능한 레지스트리 패턴을 통해 개발자가 커스텀 컴포넌트와 연동하거나 보안 정책을 적용할 수 있습니다. 이 프로젝트는 특히 대화형 데이터 수집, 원격 서브 에이전트의 인터페이스 표출, 적응형 워크플로우 등에 적합하며, 프레임워크 독립적이고 포터블하게 설계되었습니다. 사용 기술 스택에는 Node.js, Python, 다양한 프론트엔드 라이브러리, 그리고 Gemini API 등이 포함됩니다. 현재 A2UI는 버전 0.8(퍼블릭 프리뷰) 단계로, 지속적인 발전과 커뮤니티 참여를 목표로 하고 있습니다. 앞으로 공식 지원 프레임워크 확장, 명세 안정화, 다양한 수송 프로토콜 지원 등이 예정되어 있으며, GitHub 저장소의 문서와 샘플을 통해 실제 사용법을 확인할 수 있습니다. 또한, 기여는 오픈소스 라이선스 하에 이루어지며, 협력 및 피드백을 환영합니다.
Claude Code Plugins Directory
이 프로젝트는 Claude Code용 고품질 플러그인들을 모아둔 디렉토리입니다. 사용자는 이 플랫폼을 통해 다양한 플러그인을 탐색하고 설치할 수 있으며, 플러그인은 내부 개발 또는 커뮤니티와 파트너사에서 제공하는 외부 플러그인으로 구성됩니다. 목적은 Claude Code의 확장성과 유연성을 높이는 것으로, 편리한 플러그인 관리와 공유를 지원합니다. 프로젝트는 내부 플러그인 폴더(/plugins)와 제3자가 제공하는 외부 플러그인 폴더(/external_plugins)로 구분되며, 이를 통해 다양한 플러그인을 쉽게 찾고 설치할 수 있습니다. 플러그인 설치는 특정 명령어(/plugin install {plugin-name}@claude-plugin-directory)를 통해 가능하며, Discover 메뉴에서 탐색할 수도 있습니다. 각 플러그인은 표준 구조를 따르는데, plugin.json(필수), .mcp.json(선택), commands, agents, skills 폴더와 README.md 파일이 포함됩니다. 기술 스택으로는 주로 JSON 기반 레이아웃과 명령어 시스템, 플러그인 확장성을 지원하는 구조를 갖추고 있으며, 개발 참여를 원하는 경우 기여 가이드와 내부/외부 플러그인 제출 절차를 참고할 수 있습니다. 최근 업데이트 내역이나 릴리즈 정보는 명확하게 제공되지 않으나, 각 플러그인 문서와 공식 문서를 통해 개발 가이드와 보안 주의사항 등을 숙지하는 것이 중요합니다. 특히, 외부 제공 플러그인은 신뢰할 수 있는 출처에서만 사용하도록 주의가 필요하며, Anthropic이 서버 또는 파일 내 포함 내용을 검증하지 않음을 유념해야 합니다. 기술 문서와 개발 가이드는 공식 문서 링크(https://code.claude.com/docs/en/plugins)를 참고하시기 바랍니다.