OpenAI Codex CLI
OpenAI Codex CLI는 OpenAI의 코딩 에이전트 도구로, 로컬 환경에서 사용자가 자연어 명령을 통해 코드 작업을 수행할 수 있도록 설계된 명령줄 도구입니다. 목적은 개발자들이 자연어로 간단히 명령을 내려 코드를 생성, 수정, 테스트하는 작업을 용이하게 하는 것으로, 채팅 기반의 ChatGPT 모델과 연동되어 강력한 AI 코딩 어시스턴트를 제공합니다.
이 프로젝트는 여러 기능을 제공하는데, 사용자 인터페이스(TUI)와 비대화형 실행 방식 모두 지원하며, 다양한 모델이나 API 제공자를 사용할 수 있도록 구성 가능하게 설계되었습니다. 명령어 실행에는 모델 선택, 승인 여부, 작업 환경 제어를 위한 다양한 플래그와 설정파일(toml)이 활용됩니다.
구성 구조는 크게 CLI 명령어, 환경 설정 파일, 프로필, 모델 프로바이더 정의, MCP(모델 컨텍스트 프로토콜) 지원으로 나뉘며, 사용자는 인터랙티브 모드, 스크립트/CI 자동화 모드, 서버 연결, 또는 오픈소스 모델에서 구동하는 방식 등 다양한 활용 시나리오에 맞게 구성할 수 있습니다.
기술 스택은 Rust 기반의 CLI 도구로, OS별 샌드박스(애플리케이션 격리 기술), Rust의 env_logger를 이용한 로깅, Node.js를 활용하는 MCP 서버 구성, 다양한 모델 API 연동 방식(TOML 설정, 환경 변수, 커스텀 프로바이더) 등을 포함합니다.
최근 주요 변경 이력은 GitHub 릴리즈를 통해 버전 0.2.0 릴리즈와 같은 공식 릴리즈가 있으며, 이를 통해 기능 개선, 버그 수정, 새 모델 지원 등이 이루어졌음을 알 수 있습니다. 개발자 가이드, 설정 예제, 주요 명령어와 플래그에 대한 자세한 문서도 포함되어 있습니다.
특이사항은 이 도구가 베타 단계의 실험적 프로젝트임을 명시하며, 보안, AI 책임성, 릴리즈 및 기여 가이드, AI 모델 활용 시 유의사항 등에 대한 상세 안내를 제공합니다. 사용자들은 GitHub 이슈, PR, 커뮤니티 참여를 통해 적극적으로 프로젝트 발전에 기여할 수 있습니다.
dart_simple_live
이 프로젝트는 간단하게 라이브 스트리밍을 시청할 수 있는 기능을 제공하는 Flutter 기반 애플리케이션입니다. 목표는 사용자가 다양한 플랫폼에서 실시간 방송을 손쉽게 감상하는 것에 초점을 맞추고 있으며, 지원하는 주요 플랫폼은 호스트,斗鱼,哔哩哔哩,抖音 등 여러 인기 라이브 스트리밍 서비스입니다.
프로젝트는 크게 네 가지 구성요소로 나뉩니다. ‘simple_live_core’는 핵심 라이브러리로, 각 사이트에서 정보와弹幕(채팅 메시지)를 가져오는 역할을 합니다. ‘simple_live_console’는 이를 활용하는 CLI(명령줄 인터페이스) 프로그램이며, ‘simple_live_app’은 Flutter를 이용한 모바일 앱 클라이언트, 그리고 ‘simple_live_tv_app’은 Android TV를 지원하는 TV용 앱입니다.
기술 스택으로는 Flutter 3.22 버전과 다양한 플랫폼 지원을 위해 Dart 언어를 사용하며, 프로젝트 구조는 라이브 스트리밍 정보 수집 기능을 중심으로 설계되어 있습니다. 최근 업데이트 내역은 정확한 타임라인이 공개되지 않았으나, 앱 호환 플랫폼이 Android, iOS, Windows, MacOS, Linux, Android TV 등으로 확장되고 있으며, BETA 버전이 일부 플랫폼에서 제공되고 있음을 알 수 있습니다.
특이사항으로는 배포용 릴리즈 패키지는 제공되지 않으며, 사용자들이 직접 빌드하여 테스트해야 한다는 점이 있으며, 이 프로젝트는 오픈자료를 기반으로 하여 학습과 연구 목적으로 개발된 것임을 명심해야 합니다.
nautilus_trader
NautilusTrader는 오픈소스 기반의 고성능 알고리즘 트레이딩 플랫폼으로, 자동화된 거래 전략을 백테스트하고 실시간 거래에 활용할 수 있도록 설계되었습니다. 이 플랫폼은 Python 환경에서 개발되어 있으며, 이벤트 기반 엔진을 통해 복수 자산군 및 거래소를 지원하면서도, 빠르고 안정적인 성능을 제공합니다.
핵심은 Rust와 Cython으로 작성된 성능 최적화된 모듈로서, 전략의 연구와 프로덕션 배포 간의 파리티를 유지할 수 있도록 설계되어 있습니다. 다양한 자산 클래스(외환, 주식, 선물, 옵션, 암호화폐, DeFi, 배팅 등)에 걸쳐 멀티-venue, 고주파 거래(HFT), AI 훈련을 지원하며, REST API와 WebSocket 피드를 통한 모듈형 통합이 가능합니다.
주요 기능으로는 고급 주문 유형, 조건부 트리거, 주문 실행 정책, 리스크 관리, 백테스팅 시 여러 전략 동시 실행, 라이브 거래 환경과 일치하는 전략 구현이 포함됩니다.
기술 스택은 Rust, Python, Cython, Docker, Redis 등을 활용하며, 최신 릴리즈와 개발이 활발히 진행되고 있습니다. 사용자 커뮤니티와 기여 가이드도 활발히 운영 중이며, 안정적인 배포를 위한 다양한 설치 옵션과 개발 환경 세팅 가이드도 제공합니다.
전반적으로, 신뢰성과 확장성을 갖춘, 프로페셔널 금융 기관 및 퀀트 트레이더 대상의 강력한 트레이딩 시스템입니다.
GPT4All
GPT4All은 개인용 데스크탑과 노트북에서 대형 언어 모델(LLMs)을 비공개로 실행할 수 있도록 설계된 오픈소스 프로젝트입니다. 특별한 GPU나 API 호출 없이 디스크에서 모델을 다운로드하고 바로 사용할 수 있으며, 사용자는 다양한 모델 아키텍처를 지원하는 애플리케이션을 통해 LLM을 쉽게 활용할 수 있습니다.
이 프로젝트는 llama.cpp 기반으로 만들어졌으며, Python 클라이언트 라이브러리(gpt4all 패키지)를 제공하여 개발자들이 쉽게 모델을 호출, 챗 세션을 생성하거나 텍스트를 생성할 수 있도록 지원합니다. 주요 사용 대상은 머신러닝 연구원, 개발자, 일반 사용자로, 자택 또는 사무실 환경에서 대형 언어 모델을 효율적으로 구동하기 원하는 이들이 대상입니다.
또한, 다양한 운영체제(Windows, macOS, Linux)를 지원하며, Docker, Flathub과 같은 패키지 매니저를 통한 설치도 가능합니다. 최신 릴리즈 이력에는 모델 지원 확장, GPU 지원, LocalDocs 기능, API 서버, 새로운 모델 갤러리 업데이트 등이 포함되며, 프로젝트는 활발히 발전하고 있습니다.
기술 스택으로는 llama.cpp, Python, Vulkan, Docker 등이 활용되었으며, 오픈소스 커뮤니티의 기여를 환영하고 있습니다.
참고 링크와 릴리즈 노트를 통해 최신 상황과 상세 내용도 확인 가능하며, 사용 시 시스템 요구사항을 준수하는 것이 중요합니다.
polar
Polar는 오픈 소스 결제 인프라 플랫폼으로, 개발자가 손쉽게 수익화할 수 있도록 돕는 것을 목적으로 만들어졌습니다. 이 프로젝트는 디지털 상품 및 구독 서비스 판매, GitHub 리포지토리, 디스코드 채널, 파일 다운로드, 라이선스 키 등 다양한 디지털 제품의 결제와 액세스 관리를 지원합니다.
구조적으로는 서버 측 API 백엔드(파이썬, FastAPI, Dramatiq, SQLAlchemy, PostgreSQL, Redis 등)와 프론트엔드 대시보드(Next.js, React, TypeScript)를 포함하는 모노리포 구조로 이루어져 있습니다. 주요 대상은 SaaS 개발자, 디지털 콘텐츠 판매자, 구독 기반 서비스 운영자들이며, 결제 처리와 고객 관리를 간소화하고자 하는 유스케이스에 적합합니다.
기술 스택에는 Python 기반 서버, JavaScript/TypeScript 프론트엔드, 그리고 SDK들(JavaScript, Python)이 포함되어 있으며, 이를 통해 API 연동이나 웹훅 등을 통한 다양한 개발 확장이 가능하게 설계되었습니다.
최근 업데이트 내역은 빠른 개발 진행과 새로운 기능 추가를 위한 이슈, 로드맵 공유를 통해 지속적으로 발전하고 있으며, 커뮤니티 지원 채널(디스코드) 및 문서, API 참조 페이지를 제공하고 있습니다.
특이사항으로는 결제 인프라를 오픈소스로 공개하여, 개발자가 자신만의 결제 환경을 쉽게 구축할 수 있도록 지원하는 점이 있으며, Apache 2.0 라이선스로 배포되어 누구나 자유롭게 사용할 수 있습니다.
exo
exo는 일상에서 사용하는 다양한 디바이스들을 하나의 강력한 GPU 클러스터로 통합하여 AI 작업에 활용할 수 있도록 하는 오픈소스 프로젝트입니다. 이 프로젝트의 주된 목적은 사용자가 집이나 사무실 내 여러 디바이스(아이폰, 아이패드, 안드로이드, 맥, NVIDIA GPU, 라즈베리파이 등)를 활용하여 대규모 인공지능 모델을 실행할 수 있게 하는 것입니다.
exo는 모델을 디바이스 간 네트워크에 따라 동적으로 분할하는 기능과, 여러 장치를 자동으로 탐지하는 디바이스 발견 기능을 제공하며, ChatGPT와 유사한 API를 통해 사용자가 간편하게 AI 모델을 호출할 수 있도록 지원합니다.
구조상으로는 여러 inference 엔진(MLX, tinygrad 지원, 추후 PyTorch와 llama.cpp 지원 예정)을 포함하는 모듈, 네트워킹 모듈(UDP, Tailscale, Manual 등), Peer-to-Peer 네트워크 모듈(GRPC)로 구성되어 있으며, 클러스터내 장비가 p2p 연결로 연결되어 항상 네트워크 상태를 기반으로 모델 분할 및 작업 분배가 이루어집니다.
다양한 하드웨어와 모델을 지원하며, 설치는 소스에서 직접 빌드하는 방식을 권장하고 있습니다. 최신 버전 릴리즈와 버그 수정, 성능 향상 등의 업데이트가 이루어지고 있으며, 특히 Apple Silicon Mac에서 성능 향상을 위한 최적화 방법도 안내되고 있습니다.
사용자는 GitHub 저장소를 통해 기여하거나, 모델 다운로드와 실행 방법은 Hugging Face와 연동되어 있습니다. 또한, 커뮤니티 활동과 버그 리포트, 기여 요청을 활성화하는 플랫폼 링크도 제공됩니다.
전반적으로 다양한 디바이스와 인프라에 유연하게 맞춰 사용 가능하며, 사전 준비된 inference 엔진과 네트워킹 기술을 이용하여 개인 또는 기업 내에서 저렴한 비용으로 효율적인 AI 클러스터 구성이 가능하게 돕는 프로젝트입니다.
Tinyauth
Tinyauth는 사용자 인증을 간단하게 구현할 수 있는 미들웨어 프로젝트로, 로그인 화면 또는 구글, 깃허브 등의 OAuth 제공자를 통해 인증을 지원합니다. 이는 도커 환경에서 애플리케이션에 쉽게 인증 기능을 통합할 수 있도록 설계되었으며, Traefik, Nginx, Caddy와 같은 프록시 서버와 호환됩니다.
주요 기능으로는 간단한 로그인 스크린 지원과 OAuth 인증 통합이 있으며, 설정과 사용이 용이하도록 설계되어 있습니다. 구조는 주로 미들웨어 형태로 구현되어 있으며, 도커 컴포즈 예제와 공식 문서를 통해 빠르게 시작할 수 있습니다.
주요 대상은 개인 개발자, 소규모 서버 관리자, 홈랩 사용자 등으로, 특히 컨테이너 기반 서비스에 인증을 빠르게 추가하려는 사용자에게 적합합니다.
최신 릴리즈와 변경 사항은 지속적으로 업데이트되고 있으며, 현재 활성 개발 중임을 참고하세요. 기술 스택에는 주로 Go 언어와 Docker, 프록시 환경 설정이 포함되어 있으며, 사용자 편의성과 확장성을 위해 OAuth2, 콘피그레이션, Docker 기반 배포 방식을 채택하고 있습니다.
주의사항으로는 개발이 활발히 진행 중인 프로젝트이므로, 버전 업데이트 시 변경 내용을 꼼꼼히 확인하는 것이 좋습니다. 공식 문서, demo 사이트, 클론 방법, 기여 가이드 등의 참고 링크가 포함되어 있어, 참고와 참여가 가능합니다.
open-notebook
Open Notebook은 개인 연구자와 사용자들이 자신의 데이터를 통제하면서 AI 기반 노트북 기능을 활용할 수 있는 오픈소스 연구 워크플로우 플랫폼입니다. 이 프로젝트의 목표는 구글의 Notebook LM과 경쟁하면서 데이터 프라이버시를 보장하고, 다양한 AI 제공 업체를 선택할 수 있으며, 콘텐츠를 폭넓게 지원하는 유연한 연구 환경을 제공하는 것입니다.
핵심 기능으로는 데이터 및 콘텐츠의 다중 모달 지원( PDFs, 동영상, 오디오, 웹페이지 등), 여러 AI 모델 지원(현재 16개 이상의 제공자), 강력한 검색 기능(전체 텍스트 및 벡터 검색), AI 기반 콘텐츠 생성과 편집, 프로페셔널 팟캐스트 제작이 포함됩니다.
구조는 주로 Python, FastAPI 백엔드와 SurrealDB 데이터베이스, 스트림릿 기반의 UI로 구성되어 있으며, Docker를 통한 간편 배포와 개별 커스터마이징이 가능합니다. 최근 업데이트는 Docker 기반의 간단한 설치 방법과, API 문서화, 성능 향상을 위한 기능 개선을 포함하고 있으며, 앞으로 React 프론트엔드 전환, 실시간 UI 업데이트, 원활한 사용자 경험 제공을 위한 기능이 계획되어 있습니다.
기술 스택은 Python, SurrealDB, LangChain, Streamlit, Docker, API 설계, 다양한 AI SDK 등을 활용하며, 사용자 커뮤니티와 기여를 적극 장려하고 있습니다. 전반적으로 개인 연구와 콘텐츠 관리, AI 인터랙션을 모두 포괄하는 유연하고 프라이버시 중심의 오픈소스 연구 플랫폼입니다.
SDL (Simple DirectMedia Layer)
SDL은 크로스 플랫폼 미디어 라이브러리로, 주로 게임이나 에뮬레이터와 같은 멀티미디어 소프트웨어를 쉽게 개발할 수 있도록 설계되었습니다. 이 프로젝트는 다양한 운영체제에서 호환되어 멀티미디어, 그래픽, 사운드, 입력 처리 등의 기능을 제공합니다.
구조적으로는 C 언어로 작성되었으며, 다양한 API를 포함하고 있어 그래픽 디스플레이, 이벤트 처리, 오디오, 타이머 등을 지원합니다. 주요 사용자 대상은 게임 개발자, 멀티미디어 애플리케이션 개발자, 에뮬레이터 제작자 등이며, 크로스 플랫폼 개발을 필요로 하는 모든 개발자가 활용할 수 있습니다.
최신 릴리즈와 변경사항은 공식 GitHub 저장소에서 확인 가능하며, 프로젝트는 zlib 라이선스 하에 배포되어 자유롭게 사용, 수정, 배포가 가능합니다. 설치 및 사용법에 대한 안내는 INSTALL.md 문서에 상세히 나와 있습니다.
참고로, 본 프로젝트는 활발히 유지보수되고 있으며, 최신 업데이트와 버그 수정이 정기적으로 이루어지고 있습니다. 주요 참고 링크는 공식 홈페이지와 GitHub 저장소입니다.
pandas-ai
pandas-ai는 파이썬 기반의 플랫폼으로, 자연어로 데이터에 질문할 수 있게 해주는 도구입니다. 비전문가도 자연어로 데이터를 이해하고 분석하는 데 도움을 주며, 기술 사용자에게는 데이터 작업 시 시간과 노력을 절감하는 기능을 제공합니다.
주요 기능으로는 판다스 데이터프레임에 대해 자연어로 질문하거나 명령을 내릴 수 있으며, 차트 시각화, 여러 데이터프레임 간의 관계 묻기 등 복합적인 데이터 분석도 지원합니다. 사용자는 Jupyter 노트북, Streamlit 앱 또는 클라이언트-서버 구조를 통해 활용할 수 있습니다.
기술 스택으로는 OpenAI API를 포함한 자연어 처리, 판다스 데이터 구조, Docker를 통한 안전한 격리 환경을 지원하며, Python 3.8 이상 버전에서 사용 가능합니다. 설치는 pip 또는 poetry로 가능하며,L 최신 버전은 v3 베타 단계에 있으며, 프로젝트 문서와 예제는 공식 문서와 깃허브 페이지에서 확인할 수 있습니다. 라이선스는 MIT이며, 커뮤니티 기여와 지속적인 발전을 장려하고 있습니다.
openai-python
이 프로젝트는 Python 3.8 이상에서 OpenAI REST API에 편리하게 접근할 수 있는 라이브러리입니다. 주요 목적은 개발자가 OpenAI 모델을 쉽게 호출하고 다양한 기능을 사용할 수 있도록 돕는 것으로, 요청 파라미터와 응답 데이터를 타입 정의로 제공하며 동기 및 비동기 클라이언트Both를 지원합니다.
구조는 openai 모듈 내부에 OpenAI, AsyncOpenAI, AzureOpenAI 등 클래스와 API별로 세분화된 인터페이스로 구성되어 있으며, 파일 업로드, 웹훅 검증, 스트리밍 응답 지원 등 다양한 기능을 포괄합니다.
기술 스택으로는 Python, httpx(비동기 HTTP 클라이언트) 및 Pydantic을 활용하며, 최신 OpenAPI 사양에 기반하여 자동 생성된 API 명세를 포함합니다. 최근 릴리즈 역사에서는 성능 향상 및 새로운 기능 지원(예: 웹소켓 기반 Realtime API, 언더커버 엔드포인트 등)이 2023년 이후 지속되었으며, API 변경이나 버전 업그레이드가 이루어진 내용을 포함합니다.
사용 시 유의사항은 API 키 환경변수 활용, 요청 제한 및 오류 처리 방법, 비동기/동기 인터페이스 차이, 커스터마이징 가능한 HTTP 클라이언트 지원, 그리고 Azure 및 Microsoft Entra ID 인증 지원이 있으며, 공식 문서 링크는 https://platform.openai.com/docs/api-reference 와 github 저장소를 참고하면 좋습니다.
fastapi_mcp
FastAPI-MCP는 FastAPI 애플리케이션의 엔드포인트를 모델 컨텍스트 프로토콜(MCP) 도구로 노출시키며, 인증 기능도 포함하는 프로젝트입니다. 이 도구는 FastAPI의 내장 의존성을 활용하여 MCP 엔드포인트의 보안을 지원하며, OpenAPI가 아닌 FastAPI와 긴밀하게 통합되어 최소한의 구성으로 쉽게 사용할 수 있습니다.
구조적으로는 FastAPI 애플리케이션에 MCP 서버를 마운트하는 방식이며, FastAPI의 ASGI 인터페이스를 직접 사용하여 효율적인 통신이 가능하게 설계되어 있습니다. 주요 대상은 FastAPI 기반의 서비스 개발자로, MCP를 통해 API 기능을 표준화하거나 클라이언트와의 연동, 모니터링 등에 활용할 수 있습니다.
기술 스택은 Python 3.10 이상, FastAPI, uvicorn 등이 사용되었고, PyPI를 통해 배포됩니다. 최근 릴리즈 및 변경 이력은 주기적 업데이트와 기능 개선이 이루어지고 있으며, 공식 문서와 예제, 커뮤니티 지원도 활발히 제공됩니다. 프로젝트는 오픈소스로 공개되어 있으며, 기여 가이드와 커뮤니티 채널을 통해 참여가 권장됩니다.
참고 링크 및 상세 문서는 GitHub 페이지에서 확인할 수 있으며, 배포와 사용에 앞서 요구하는 Python 버전과 의존성 설치를 준수해야 합니다.
self-llm
이 프로젝트는 국내 초보자를 위한 오픈소스 대형 언어 모델(LLM) 사용 가이드로, Linux 플랫폼 기반 환경 구성, 주요 오픈소스 LLM 배포 및 활용, 사용자 친화적 명령어 인터페이스, 온라인 데모 배포, 그리고 효율적 미세 조정 방법 등을 포괄하는 전반적인 튜토리얼을 제공하는 곳입니다. 이를 통해 일반 학생과 연구자들이 오픈소스 대형 모델을 손쉽게 설치하고 활용할 수 있도록 돕는 것이 주 목적입니다.
주요 기능은 다음과 같습니다:
- 다양한 오픈소스 LLM 환경 설정 가이드
- LLaMA, ChatGLM, InternLM 등 주요 모델 배포와 사용법 안내
- 커맨드라인 호출, 온라인 데모 배포, LangChain 등 프레임워크와의 통합 가이드
- 분산 훈련, LoRA, Tuning 등 효율적 미세 조정 기술 실습 방법 제시
구조적으로는 환경 설정, 모델 배포와 활용, 미세 조정 기법별 튜토리얼로 구성되어 있으며, 관련 예제, 코딩 지도, 배포계획서, 모범 사례 문서 등을 포함합니다. 대상 사용자층은 오픈소스 LLM 경험이 적거나 API 접근이 불가능한 학생, 연구자, 개발자이며, 자연어처리(NLP) 분야에 종사하거나 관련 기술에 관심이 있는 누구나 쉽게 따라할 수 있도록 설계되어 있습니다.
이 프로젝트는 지속적으로 업데이트되고 있으며, 특히 최근에는 다양한 모델 배포와 미세 조정 사례, 프레임워크 호환성 강화, 초보자 친화적 배포 가이드 강화에 중점을 두고 있습니다. 기술 스택으로는 Python, PyTorch, Hugging Face, vLLM, LangChain 등을 활용하며, Docker, WebDemo, API 서버 등이 활용된 배포 구성도 포함되어 있습니다.
특이사항으로는, 누구든 issue를 제기하거나 PR을 통해 공동 개발에 참여할 수 있고, 커뮤니티 중심의 지식 공유와 업데이트로 활발히 유지되고 있습니다. 상세한 배포와 튜토리얼 링크, 모델별 실습 자료, 최신 버전 릴리즈 정보는 GitHub 저장소에서 확인할 수 있습니다.
이 프로젝트는 앞으로도 더 많은 모델 지원과 사용자 친화적 기능 확장, 그리고 초보자가 쉽게 따라할 수 있는 종합 튜토리얼 제공을 목표로 하고 있습니다.
snapDOM
snapDOM은 Zumly라는 줌 기반 전환 프레임워크를 위해 개발된 빠르고 정밀한 DOM-이미지 캡처 도구입니다. 이 프로젝트는 HTML 요소를 SVG 형식으로 캡처하여 스타일, 폰트, 배경 이미지, 의사 요소, Shadow DOM 등 모두를 보존하며, SVG 뿐만 아니라 PNG, JPG, WebP, Canvas, Blob 등 다양한 포맷으로 내보내기 기능을 제공합니다.
구성은 주로 JavaScript API와 여러 캡처 옵션, SNS 또는 CDN을 통한 배포 방식으로 이루어져 있습니다. 주요 사용 대상은 웹 개발자와 디자이너로, 복잡한 웹 UI를 고속으로 캡처하거나 공유하는 데 적합합니다.
최신 버전은 v2.0.0으로, Shadow DOM 지원 강화, 플러그인 시스템 도입, 모듈형 아키텍처로의 리팩토링, CORS 이슈 해결을 위한 Proxy 지원, 다양한 출력 옵션, 리소스 preCache 기능 등의 업데이트를 포함하고 있습니다.
기술 스택은 표준 Web API 기반으로, 별도 라이브러리 없이 높은 성능을 기록하며, ES Module, CDN, NPM/Yarn 배포 방식도 제공합니다. 적극적인 개발과 기여를 환영하며, 성능 벤치마크를 통해 기존 경쟁 도구보다 수 배 빠른 속도를 보여주고 있습니다.
상세 사용법과 개발 가이드를 포함한 자료는 GitHub 저장소에 자세히 안내되어 있습니다.