HowToCook

GitHub 저장소 바로가기

HowToCook 프로젝트는 프로그래머를 위한 집에서 요리를 쉽게 할 수 있도록 구성된 오픈소스 요리 가이드입니다. 개발자가 익숙한 형식 언어 스타일로 요리법을 명확하고 일관되게 정리하여, 다양한 재료와 조리 과정을 이해하기 쉽도록 설계되었습니다. 이 프로젝트의 목적은 인터넷에 흩어져 있는 복잡하거나 일관성이 부족한 요리 레시피들을 기술 문서처럼 깔끔하게 정리해 프로그래머들이 집에서 요리하는 데 도움을 주는 것입니다. 또한 커뮤니티 중심의 협업 오픈소스로, 누구나 참여하고 개선할 수 있습니다.

주요 기능으로는 수백 가지 중국 및 세계 각지의 다양한 요리법(채소, 고기, 해산물, 아침식사, 밥/면류, 반조리품, 스프/죽, 음료, 소스 및 디저트 등)에 대해 단계별 상세 레시피를 제공하며, 난이도별 인덱스가 있어 초보자부터 고급 요리사까지 용이하게 참고할 수 있습니다. 그리고 고압솥, 에어프라이어 등 조리기구 사용법 및 재료 선택, 식품 안전 등 요리 상식도 함께 제공합니다.

구성 요소로는 마크다운 문서 형태의 요리 레시피 템플릿, 카테고리별 레시피 폴더, 조리 팁 및 고급 지식 섹션, 도커 이미지로 배포 가능한 웹 서비스 등이 포함됩니다. 또한 PDF 버전 문서도 제공되어 오프라인 사용이 가능합니다.

주요 사용자 대상은 요리 초보 프로그래머 및 기술자이며, 집에서 간편하고 체계적으로 요리법을 익히고 싶은 사람들이 주요 유스케이스입니다. 쉽게 로컬에서 도커 기반 웹 서비스를 띄워 사용 가능하며, 직접 레시피를 수정하거나 새로 작성하여 커뮤니티에 기여할 수 있습니다.

기술 스택은 도커 컨테이너 기반 웹 서비스 운영을 포함하며, 마크다운 문서 관리 및 GitHub Actions를 통한 CI/CD 빌드 체계가 활용되고 있습니다.

최근 업데이트 및 변경 이력은 GitHub Actions 빌드 뱃지로 확인 가능하며, 꾸준히 레시피가 추가 및 개선되고 있습니다.

특이사항으로는 프로그래머들이 친숙한 형식 언어 스타일로 작성된 점이며, 참여 방법은 기존 요리 템플릿을 복사하여 새로운 레시피 작성 후 Pull Request 제출 방식입니다. 도커를 설치하면 로컬에서 쉽게 웹 서비스를 배포할 수 있어 접근성이 좋습니다.

공식 GitHub 저장소 링크: https://github.com/Anduin2017/HowToCook
PDF 문서 링크: https://cook.aiursoft.cn/document.pdf


BitNet

GitHub 저장소 바로가기

BitNet is an open-source project developed by Microsoft focused on efficient inference for large language models (LLMs) quantized to 1-bit (specifically 1.58-bit precision models). The core of the project is bitnet.cpp, an official inference framework optimized to support fast and lossless execution of these low-bit LLMs on CPUs, with planned extensions for supporting NPUs and GPUs in the future. BitNet provides a suite of optimized kernels that enable significant speed-ups (ranging from approximately 1.37x to 6.17x depending on CPU architecture and model size), and dramatically lowers energy consumption (by up to ~82%), making it practical to run large-scale LLMs such as a 100-billion parameter BitNet b1.58 model on a single CPU at human reading speeds (5-7 tokens per second).

The project is built as a C++ inference engine relying on LLVM/Clang tooling and CMake for building, with Python 3.9+ for environment setup and scripting. It reuses some design principles and codebases from llama.cpp for LLM inference and from Microsoft’s T-MAC for lookup table based kernel optimizations, especially for ternary and low-bit quantization. BitNet includes ready-to-use official 1-bit LLMs available on Hugging Face, such as the BitNet-b1.58-2B model, and supports other externally trained 1-bit models for demonstration of inference capabilities.

The structure revolves around:

  • bitnet.cpp: the inference runtime and optimized kernels for 1-bit LLMs
  • Python helper scripts for environment setup, model downloading, and running inference or benchmarks
  • Official and community models hosted on Hugging Face

Primary usage targets are researchers, developers, and practitioners interested in deploying large yet efficient low-bit LLMs locally on commodity CPUs, enabling inference without heavy GPU or cloud resources. The framework also serves those exploring the training and inference of quantized LLMs, supporting experimentation with model compression and efficient AI infrastructure.

Installation and build instructions recommend a conda Python environment, CMake >=3.22, and LLVM/Clang >=18. Windows users are guided to install Visual Studio 2022 with specific C++ development components. Stable releases and model checkpoints are shared through Hugging Face and the GitHub repo. The CLI provides commands to download models, run quantized inference with customizable settings (threads, prompt length, temperature, chat mode), and benchmark inference speed.

Notable recent milestones include the official bitnet.cpp 1.0 release in October 2024, a series of related research papers published on arXiv from October 2023 to February 2025 detailing scaling 1-bit transformers, improved activation quantization, and efficient edge inference, along with the official release of a 2-billion parameter BitNet model in April 2025. The project openly acknowledges its derivation from llama.cpp and T-MAC and recommends T-MAC for non-ternary low-bit LLM inference.

Important usage notes:

  • Windows users must run build commands within the Developer Command Prompt/PowerShell with Visual Studio tools enabled
  • Issues related to llama.cpp dependencies and builds are tracked with provided fixes
  • Currently, only CPU inference kernels are stable, with GPU/NPU support under development
  • Models used for benchmarking may be dummy or research setups intended for demonstrating performance gains rather than production-ready deployments

Relevant links include the GitHub repo, Hugging Face model hub, demo application, and related ArXiv papers that document BitNet’s design and performance results comprehensively.


fastmcp

GitHub 저장소 바로가기

FastMCP is a Pythonic framework designed for building servers and clients that implement the Model Context Protocol (MCP), a standardized approach to expose data and tools to Large Language Models (LLMs) in a secure and consistent manner. The main purpose of FastMCP is to simplify the complex process of MCP server creation and client interaction by abstracting protocol details, error handling, and server lifecycle management, providing a high-level, intuitive API especially suited for Python developers.

FastMCP servers enable developers to define Tools (actions callable by LLMs, such as computations or API calls), Resources (data endpoints that primarily provide information without side effects), and Prompts (reusable templates to guide LLM interaction). The framework uses decorators to easily register asynchronous or synchronous functions as these components, automatically generating MCP-compliant schemas based on Python type hints and docstrings.

Key structural elements include:

  • FastMCP server class: central object managing connections and routing.
  • Decorators for tools, resources, and prompts.
  • Context objects passed to functions provide logging, progress reporting, resource access, and advanced features like LLM sampling.
  • Image handling utilities for easy encoding/decoding within MCP.
  • Client class enabling programmatic interaction with any MCP server, allowing calling tools, reading resources, fetching prompts, and sending progress.
  • Support for multiple transport protocols (Server-Sent Events, Python stdio, WebSockets, direct in-process connections).
  • Advanced features in version 2 include proxy servers (to wrap/mediate existing MCP servers or clients), server composition (mounting multiple MCP servers under one unified server with prefixing), and automatic server generation from OpenAPI specs or FastAPI applications.

Typical users are Python developers building applications that integrate LLMs with external data and functionality securely, especially where standardized LLM interaction with backend services is needed. Use cases include creating accessible APIs for LLMs, wrapping existing services as MCP servers, composing multiple services, and sophisticated client-server workflows with client-side LLM sampling.

FastMCP leverages Python 3.10+ and integrates with popular tools like FastAPI and Pydantic. It emphasizes simplicity, speed of development, and compatibility within the evolving MCP ecosystem. It is distributed via PyPI and recommended to be installed with ‘uv’, a process manager.

Recent updates in version 2 enhance the framework with proxying capabilities, server composition, OpenAPI/FastAPI integration, and client-side sampling, reflecting ecosystem evolution. Version 1.0 is already part of the official Model Context Protocol Python SDK.

Installation is straightforward with pip and ‘uv’. The CLI provides ‘dev’, ‘install’, and ‘run’ commands for interactive development, persistent deployment (especially in Claude Desktop), and advanced custom execution respectively. The framework includes extensive documentation, examples covering various scenarios (e.g., complex inputs, image processing, external API interactions), and a detailed developer guide covering testing, formatting, and contribution processes.

Important notes:

  • FastMCP forwards server stderr streams transparently.
  • The MCP Roots concept is supported to securely control client file system access.
  • When running via CLI, if the server instance is named differently, explicit referencing is required.

For more information and comprehensive usage details, the official documentation site is https://gofastmcp.com.


Docmost

GitHub 저장소 바로가기

Docmost는 오픈소스 협업 위키 및 문서 관리 소프트웨어로, 실시간 협업 기능과 다양한 문서 작성 및 관리 도구를 제공합니다. 사용자는 문서 내에서 다이어그램(Draw.io, Excalidraw, Mermaid) 삽입, 파일 첨부, 댓글, 페이지 히스토리 관리 및 고급 검색 기능을 활용할 수 있습니다. 또한, 권한 관리, 그룹 생성, 여러 공간(Spaces) 관리, 다양한 외부 서비스(Airtable, Loom, Miro 등) 임베드 기능과 10개 이상의 언어 번역 지원을 포함합니다. Docmost는 커뮤니티에서 자유롭게 개발 및 배포할 수 있는 AGPL 3.0 라이선스 기반이며, 별도의 엔터프라이즈 에디션을 통해 추가 기업 기능과 라이선스를 제공합니다.

주요 사용 대상은 기업이나 팀 단위의 협업 문서 작성 및 지식 공유를 필요로 하는 조직이며, 자체 호스팅 및 클라우드 배포가 가능합니다. 프로젝트는 웹 기반 구조로 API 구성 및 확장 가능하며, 문서 및 개발 관련 가이드를 공식 웹사이트에서 제공합니다.


developer-roadmap

GitHub 저장소 바로가기

developer-roadmap은 개발자를 위한 커뮤니티 주도의 교육용 로드맵, 기사, 리소스를 제공하는 프로젝트입니다. 개발자가 프론트엔드, 백엔드, 데브옵스, 풀스택, API 디자인, 컴퓨터 과학, AI, 클라우드, 데이터베이스, 보안, 모바일 개발, 다양한 프로그래밍 언어 등 광범위한 분야의 기술 학습 경로를 체계적으로 탐색할 수 있게 돕습니다. 각 로드맵은 인터랙티브하게 구성되어 있어, 노드를 클릭해 관련 주제에 대해 상세히 학습할 수 있으며, 실무에서 활용할 수 있는 베스트 프랙티스와 이해도를 점검할 수 있는 질문들도 함께 제공합니다.

프로젝트는 웹 애플리케이션 형태로 운영되며, GitHub 리포지토리에서 소스 코드를 클론하여 npm을 통해 의존성을 설치하고 개발 서버를 실행해 바로 개발에 참여하거나 커스터마이징할 수 있습니다. 주요 대상은 개발자 지망생부터 현업 개발자 및 기술 관리자까지 광범위하며, 체계적인 학습 경로를 통해 기술 습득과 자기 개발에 활용됩니다.

개발 프로세스는 오픈소스 커뮤니티 협업 방식으로, 문서와 기여 가이드에 따라 로드맵 추가, 수정, 아이디어 토론 등이 활발하며, 다수의 기여자가 참여하고 있습니다. 라이선스 정보는 리포지토리 내 라이선스 파일에서 확인할 수 있습니다.

프로젝트 주요 웹사이트는 https://roadmap.sh 이며, 각 로드맵과 베스트 프랙티스, 학습 질문 페이지가 별도 제공됩니다.


1Panel

GitHub 저장소 바로가기

1Panel은 Linux 서버 관리를 위한 웹 기반 도구로, 직관적인 웹 인터페이스와 MCP 서버를 통해 웹사이트, 파일, 컨테이너, 데이터베이스, LLMs(대형언어모델) 등을 효율적으로 관리할 수 있도록 설계되었습니다. 주요 목적은 리눅스 서버 운영 및 관리를 간편하고 신속하게 할 수 있게 도와주는 것입니다.

기능적으로는 호스트 모니터링, 파일 및 데이터베이스 관리, 컨테이너와 LLMs 관리가 포함되며, 특히 오픈소스 웹사이트 빌더인 WordPress와 깊이 통합되어 도메인 바인딩과 SSL 인증서 설정을 원클릭으로 처리할 수 있어 신속한 웹사이트 배포를 지원합니다. 1Panel 내장 애플리케이션 스토어를 통해 다양한 오픈소스 도구 설치 및 업데이트가 쉽고, 컨테이너 기반 보안 배포, 방화벽 관리 및 로그 감사 기능으로 시스템 안정성과 보안을 강화합니다. 또한, 원클릭 백업·복원 기능이 여러 클라우드 저장소와 연계되어 데이터 보호를 간단하게 수행할 수 있습니다.

MCP 서버(https://github.com/1Panel-dev/mcp-1panel)를 통해 자연어 명령 기반 서버 운영이 가능하다는 점도 특징입니다. 구조적으로는 웹 GUI, MCP 서버, 애플리케이션 스토어, 백업 시스템 및 보안 관리 도구로 구성되어 있으며 CLI 설치 스크립트도 제공합니다.

주요 사용 대상은 리눅스 서버를 운영하는 개인 및 기업, 특히 웹호스팅, 컨테이너 운영, LLMs 관리 등이 필요한 개발자나 시스템 관리자입니다. 프로 에디션은 OSS 버전 대비 웹 애플리케이션 방화벽(WAF) 강화, 웹사이트 모니터링, 모바일 앱, 맞춤 로고·테마 등 고급 기능과 기술지원 서비스를 제공합니다.

최신 설치 방법은 공식 문서(https://docs.1panel.pro/quick_start/) 및 중국 사용자용 별도 설치 스크립트(https://1panel.cn/docs/installation/online_installation/)가 안내되어 있습니다.

라이선스는 GPLv3로 자유롭게 사용 가능하며, 보안 이슈는 SECURITY.md 문서를 참조하면 됩니다.


Inbox Zero

GitHub 저장소 바로가기

Inbox Zero is an open source AI-powered email application designed to help users achieve and maintain an empty inbox efficiently. It has two main components: an AI email assistant that automates managing emails based on natural language prompts, and an open source email client for hands-on use and development contributions. The AI assistant can perform human-like email tasks such as drafting replies, labeling, archiving, forwarding, marking as spam, and even calling webhooks automatically.

Key features include Reply Zero to track emails needing a reply or awaiting responses, smart categorization of contacts, bulk unsubscription from unwanted emails, automatic blocking of cold emails, and email analytics with activity statistics.

The project is built with modern technologies including Next.js and Tailwind CSS for the web interface, Prisma for database ORM, Upstash for Redis services, and Turborepo for monorepo management. It supports multiple large language models (LLMs) like Anthropic, OpenAI, AWS Bedrock Anthropic, Google Gemini, OpenRouter, Groq, and Ollama (local).

Inbox Zero integrates tightly with Google services using OAuth and Gmail API, and supports real-time email push notifications via Google PubSub. It uses Postgres as the primary database, and Redis (via Upstash or self-hosted). Docker Compose can be used for local setup with Postgres and Redis.

Intended users include individuals and teams seeking an AI-augmented email management solution that reduces time spent on email routine tasks. The open source client invites contributions from developers interested in email productivity tools and AI assistant enhancements.

The setup involves configuring Google OAuth, Gmail APIs, and PubSub for real-time updates, setting environment variables for authentication and LLM choice, and deploying locally or via hosting services like Vercel. Documentation and demo videos are provided for ease of installation and usage.

No specific recent release timeline is highlighted, but the README includes active development notes and contribution guides.

Important references include detailed docs at https://docs.getinboxzero.com, Discord community for discussions, and issues tracker on GitHub.

In summary, Inbox Zero offers an AI-driven, open source approach to email management combining automation, analytics, and an extensible client framework to streamline reaching inbox zero.


linera-protocol

GitHub 저장소 바로가기

Linera is a decentralized blockchain infrastructure designed specifically for highly scalable and low-latency Web3 applications. The project aims to provide a robust protocol and tooling to enable efficient multi-chain and cross-chain communication, supporting applications that demand high throughput and responsiveness.

The linera-protocol repository is organized into several Rust crates, each serving a dedicated role within the protocol stack. These include foundational components such as linera-base for base definitions and cryptography; linera-version to manage versioning; linera-views for mapping complex data structures onto key-value stores; and linera-execution, linera-chain, and linera-storage which handle data persistence, chain logic, certificates, and storage abstractions. The core protocol logic including client-server communication and node synchronization is implemented in linera-core. The RPC data types and schemas are defined in linera-rpc. There are also client libraries (linera-client), executable services (linera-service), and an SDK (linera-sdk) for developing Linera applications targeting the WebAssembly virtual machine. Example applications are included for reference.

Linera primarily targets blockchain developers and Web3 application creators who require a scalable environment with support for distributed microchains and cross-chain transactions. The protocol supports multi-chain wallets, balances queries, and transfers across chains and accounts.

The tech stack is Rust-centered, leveraging Rust’s ecosystem for high-performance blockchain primitives, procedural macros, and WebAssembly smart contract development. The storage backend utilizes RocksDB when running local testnets.

The project provides a comprehensive CLI tooling environment allowing users to spin up local test networks with faucets for token distribution, manage wallets, request microchains, perform transfers, and query balances. This facilitates rapid development and testing of Linera-based applications.

Development status includes continuous integration with automated build and test workflows for Rust code, Docker configurations, and documentation. License is Apache 2.0.

Additional resources include the official Linera website (linera.io), developer page (linera.dev), whitepaper, and community channels such as Twitter and Discord for support. For getting started, the repository includes detailed quickstart instructions and example applications.

Overall, linera-protocol offers a complete, modular foundation and tooling for modern decentralized Web3 applications requiring scalable and low-latency blockchain infrastructure.


Sigma

GitHub 저장소 바로가기

Sigma is a generic, open signature format designed for describing relevant log events in a straightforward and vendor-agnostic manner, applicable to any type of log file. The project aims to provide a standardized, shareable format for security researchers, detection engineers, and threat hunters to document and disseminate detection methods for malicious or suspicious activities in logs, similar to how Snort works for network traffic and YARA for files.

Sigma’s main repository hosts over 3,000 detection rules categorized into Generic Detection Rules (behavior or technique-focused, threat agnostic), Threat Hunting Rules (broader scope for suspicious activity exploration), and Emerging Threat Rules (covering timely, specific threats like APT campaigns or zero-day exploit detections). The project structure includes rule packages available for download, documentation for rule creation, and tools like Sigma CLI and pySigma for rule conversion and integration into various SIEM systems.

It thrives as a community-driven initiative with peer-reviewed rules and contributions guided by clear contributing documentation. Key users include security analysts, threat hunters, and SIEM tool developers aiming to enhance detection capabilities efficiently and collaboratively.

Numerous security products and projects, such as IBM QRadar, Security Onion, AttackIQ, and others, integrate Sigma rules to streamline detection. Sigma’s content is licensed under the Detection Rule License (DRL) 1.1.

Resources for further reading and contribution are well maintained, and a strong community presence is maintained through multiple maintainers. Overall, Sigma significantly simplifies creating, sharing, and converting log detection rules to improve collective defense capabilities across different platforms and vendors.


public-apis

GitHub 저장소 바로가기

public-apis 프로젝트는 커뮤니티 구성원들과 APILayer 협력으로 수동으로 큐레이션된 공개 API 목록을 제공합니다. 다양한 분야의 공공 API를 광범위하게 모아 두어 개발자들이 자신의 제품이나 프로젝트에 손쉽게 활용할 수 있도록 구성된 보물창고 역할을 합니다. API는 동물, 애니메이션, 보안, 금융, 기상, 소셜, 음악, 게임 등 총 50개 이상의 카테고리로 분류되어 있습니다.

각 API별로 인증 방식(apiKey, OAuth 또는 없음), HTTPS 지원 여부, CORS 지원 여부 등 상세 정보를 제공하며, 일부 대표적인 API는 문서 및 테스트용 Postman 콜렉션 링크를 통해 쉽게 API 호출도 가능하게 되어 있습니다.

구성 요소: 주요 구성은 방대한 공개 API의 카테고리별 목록이며, 각 API마다 설명과 인증 정보, 호출 방법 등을 표 형태로 명시합니다. 또한 기여를 위한 컨트리뷰팅 가이드, 이슈 트래커, 풀 리퀘스트 페이지 등이 함께 존재해 오픈 소스 프로젝트로 관리됨을 알 수 있습니다.

주요 대상은 다양한 분야의 개발자이며, 새 프로젝트에서 활용 가능한 공용 API를 탐색, 비교, 테스트하는 데 적합합니다. API 활용 사례로는 교육, 데이터 수집, 서비스 연동, 시제품 개발 등이 포함됩니다.

기술 스택은 명확히 적시되어 있지 않으나, GitHub 기반의 정적 문서 및 마크다운 포맷으로 관리되고 있습니다. 일부 API는 REST, GraphQL 등 다양한 형태로 제공됩니다.

특이사항으로는 APILayer가 협력사로 참여하며, 주요 API 호출을 위한 Postman 버튼도 제공해 테스트를 쉽게 할 수 있도록 지원하는 점, 그리고 방대한 API 목록이 지속적으로 관리 및 업데이트 되고 있습니다.

라이선스는 MIT 라이선스이며, 자유롭게 활용 및 수정 가능함을 명시합니다.


Stagehand

GitHub 저장소 바로가기

Stagehand is a production-ready framework designed to enable AI-powered browser automations, blending code and natural language commands for flexible, efficient web automation. Unlike traditional tools like Selenium, Playwright, or Puppeteer that require detailed low-level coding, or high-level AI agents that can be unpredictable, Stagehand allows developers to choose when to use code and when to employ natural language instructions. This hybrid approach helps achieve reliable and maintainable browser automation suited for production environments.

Key features include the ability to preview and cache AI-driven actions for efficiency, seamless integration of state-of-the-art large language models (LLMs) from providers such as OpenAI and Anthropic with minimal code, and support for direct Playwright functions to control browser pages. Its structure revolves around page objects for direct automation, AI agents to execute complex tasks, and data extraction methods that use schemas to reliably parse page content.

Typical use cases involve automating navigation and interaction on unfamiliar web pages using AI, while applying precise scripted code when page structure is known. The project targets developers needing a robust, cost-effective, and fast browser automation solution enhanced by cutting-edge AI.

Stagehand uses Playwright as its automation backbone and integrates computer use models from LLM providers. It supports TypeScript and provides CLI tooling to quickly scaffold projects. Installation and development involve typical Node.js commands along with Playwright setup. Contributors are encouraged to join the project’s Slack community to align on goals focused on improving reliability, speed, and cost. The project is licensed under MIT.

Recent updates and resources, including a comprehensive documentation site (https://docs.stagehand.dev), quickstart guides, example scripts, and community support channels, make adoption straightforward.

Overall, Stagehand stands out by combining AI flexibility with developer control for dependable, efficient browser automation in production.


NocoBase

GitHub 저장소 바로가기

NocoBase는 확장성 중심의 오픈소스 노코드(no-code) 개발 플랫폼입니다. 수년간의 연구개발과 많은 비용 투자 없이 몇 분 내에 배포할 수 있으며, 개인화되고 제어 가능한, 매우 확장 가능한 노코드 플랫폼을 제공합니다. 이 플랫폼은 복잡하고 특화된 비즈니스 시스템도 단순한 클릭 조작과 WYSIWYG(보는 그대로 구성) 환경 하에서 쉽게 구성할 수 있도록 설계되어, 관리자 권한을 가진 사용자가 UI를 직관적으로 설정할 수 있습니다.

특징으로는 데이터 모델과 사용자 인터페이스를 분리하여 다양한 데이터 뷰(블록)를 만들어 각기 다른 유형과 스타일, 내용, 동작을 설정할 수 있어 단순한 노코드 방식과 네이티브 개발의 유연성 사이 균형을 이룹니다. 또한 모든 기능이 플러그인 구조로 구현되어, 새로운 기능을 플러그인 설치만으로 손쉽게 확장할 수 있습니다.

구조적으로는 데이터 모델 기반 설계, WYSIWYG 구성 지원, 플러그인 아키텍처가 주요 구성요소이며, CLI 도구(create-nocobase-app)를 통한 로우코드 개발 지원도 포함됩니다.

주요 설치 방법은 도커 컴포즈(Docker Compose)를 통한 간편 설치(추천), CLI를 이용한 프로젝트 독립 개발, 그리고 Git 소스 코드를 직접 클론하여 최신버전 경험 및 기여가 가능합니다.

주요 사용 대상은 노코드 및 로우코드 개발자, 관리자가 있으며, 복잡한 업무 시스템을 빠르고 쉽게 구축하려는 기업 및 개인 프로젝트에 적합합니다. 공식 홈페이지(https://www.nocobase.com/), 온라인 데모(https://demo.nocobase.com/new), 문서(https://docs.nocobase.com/)와 포럼(https://forum.nocobase.com/), 튜토리얼(https://www.nocobase.com/en/tutorials)에서 상세 정보를 건네며, 정기적인 블로그 업데이트 등으로 최신 릴리즈 노트를 제공합니다.

특이사항으로는 높은 확장성과 플러그인 중심 설계, 데이터 구조와 UI 분리, WYSIWYG UI 설정이 사용 편의성과 유연성 모두를 중시한다는 점이 돋보입니다. 또한, 도커 설치가 권장되어 간편한 운영과 업데이트를 지원합니다.


RAG_Techniques

GitHub 저장소 바로가기

RAG_Techniques is a comprehensive, community-driven repository dedicated to advanced Retrieval-Augmented Generation (RAG) methods that enhance the integration of information retrieval with generative AI. The project aims to provide researchers and practitioners with state-of-the-art techniques, practical implementations, and expert insights to improve the accuracy, contextual relevance, and efficiency of RAG systems.

The project offers a rich collection of tutorials, runnable scripts, and detailed documentation categorized into foundational techniques, query enhancement, context and content enrichment, advanced retrieval methods, iterative and adaptive approaches, evaluation metrics, explainability features, and sophisticated architectures. Core functionalities include basic and enhanced RAG pipelines using popular frameworks like LangChain and LlamaIndex, query transformations (e.g., HyDE and HyPE), semantic and proposition chunking, advanced reranking, multi-modal and hierarchical retrieval, feedback loops, corrective mechanisms, and knowledge graph integrations.

Designed primarily for AI researchers, NLP engineers, and developers interested in building or improving RAG-based systems, this repo supports a hands-on approach to implementing novel retrieval strategies, embedding optimizations, and evaluation protocols. It fosters collaboration through its active Discord community and encourages contributions to keep the content cutting-edge.

The tech stack prominently features Python, LangChain, LlamaIndex, OpenAI’s models, and vector databases with embeddings. The structure includes notebooks, runnable Python scripts, evaluation tools (like DeepEval and GroUSE), and integration of advanced concepts such as hypothetical prompt embeddings and graph-based retrieval.

Users are guided with clear ‘Getting Started’ instructions, contribution guidelines, and extensive references to blog posts and research papers. Although rich and advanced, some techniques may require familiarity with LLMs, embeddings, and vector search.

The project is maintained with regular updates reflecting the latest advancements in RAG technologies, supporting special techniques like a sophisticated controllable agent for complex RAG tasks. It is open source under a custom non-commercial license.

In summary, RAG_Techniques is an authoritative resource that significantly elevates the development and understanding of sophisticated retrieval-augmented generation systems by offering a modular, extensible, and well-documented suite of tools and methods.


Coding Interview University

GitHub 저장소 바로가기

Coding Interview University is an extensive, multi-month self-study plan designed to prepare individuals to become software engineers at major tech companies like Amazon, Google, Facebook, and Microsoft. Created originally as a concise to-do list, it evolved into a comprehensive roadmap covering essential computer science topics needed for technical interviews.

The project offers a structured curriculum focusing on software engineering fundamentals rather than frontend or full-stack development. It assumes minimal initial programming knowledge (like variables and loops) and emphasizes patience and dedicated study time.

The study plan covers a wide range of core topics such as algorithmic complexity (Big-O notation), fundamental and advanced data structures (arrays, linked lists, stacks, queues, hash tables, trees, graphs, tries), sorting algorithms, recursion, dynamic programming, design patterns, probability and combinatorics, NP-completeness, and how computers process programs. It also includes interview preparation strategies, resume advice, and insight into the interview process at large tech companies.

Users are encouraged to choose a programming language (common choices are C and Python for their different educational benefits) and to apply their learning simultaneously by practicing coding interview questions. The plan integrates an abundance of video lectures, books, and online resources for each topic, supporting various learning styles. There are also optional advanced topics covering system design, scalability, cryptography, compilers, garbage collection, parallel programming, and more, which are particularly relevant for those with more experience.

The roadmap is organized using GitHub Flavored Markdown with task lists to help learners track progress. It provides instructions for both users comfortable with git and those who prefer downloading a ZIP file. The project also offers community-translated versions in multiple languages to reach a global audience.

While not a software library or tool offering APIs or CLI interfaces, it serves as a comprehensive learning scaffold integrating curated educational content, coding exercises, and practical career guidance. It is targeted primarily at self-directed learners preparing for software engineering interviews, especially those without a formal computer science degree or those seeking a condensed, practical alternative to a traditional CS education.

Notable features:

  • Detailed study plan with progressive topics.
  • Emphasis on applying theory via coding practice.
  • Recommendations for interview prep books and mock interview platforms.
  • Extensive references to courses, videos, papers, and textbooks.
  • Advice on resume updating and behavioral interview preparation.
  • Optional deeper dives into advanced CS topics for career growth.

Technology stack is primarily educational content aggregation; no software components or executables are involved.

Licensed under CC-BY-SA-4.0, the project is community maintained on GitHub, with active translation efforts.

In summary, Coding Interview University is a comprehensive, community-driven self-study curriculum enabling aspiring software engineers to systematically master computer science fundamentals and interview skills to secure jobs at top tech companies.


mind-map

GitHub 저장소 바로가기

mind-map(思绪思维导图)은 간단하면서 강력한 웹 기반 마인드맵 라이브러리 및 소프트웨어 프로젝트입니다. 목적은 프레임워크에 의존하지 않는 JavaScript 마인드맵 라이브러리를 제공하여 빠른 웹 마인드맵 제품 개발을 가능하게 하는 것입니다.

주요 기능으로는 플러그인 아키텍처를 사용해 핵심 기능 외에는 플러그인으로 필요에 따라 기능을 선택해 사용 가능하며, 다양한 구조의 마인드맵(논리 구조도, 조직도, 타임라인, 어골도 등)을 지원합니다. 노드 콘텐츠는 텍스트(일반 및 리치 텍스트), 이미지, 아이콘, 링크, 메모, 태그, 개요, 수학 공식 등을 포함할 수 있습니다. 사용자는 노드의 드래그 이동, 크기 조절, 다양한 노드 형태, 캔버스 드래그 및 확대/축소, 다중 선택, 검색 및 교체, 빠른 키보드 조작, 전/후진, 협동 편집, 발표 모드 같은 고급 기능을 활용할 수 있습니다. 또한 JSON, PNG, SVG, PDF, Markdown, XMind, TXT 등 다양한 포맷으로 내보내기 및 가져오기가 가능하며, 손그림 스타일, 워터마크, 미니맵 등도 지원합니다.

구조 측면에서 핵심 라이브러리와 이를 보완하는 다양한 플러그인이 별도로 제공되며, Vue2.x와 ElementUI를 사용해 만든 웹 애플리케이션 버전도 포함됩니다. 또한 Windows, macOS, Linux용 독립 실행 클라이언트와 uTools 플러그인도 제공됩니다.

주 대상은 웹 개발자 및 제품 개발자, 협업 사용자, 그리고 클라이언트 및 플러그인 사용자 등 다양한 마인드맵 관련 도구가 필요한 개인이나 조직입니다. 유스케이스는 웹 기반 마인드맵 제품 개발, 데스크톱 및 플러그인 환경에서의 마인드맵 활용, 협동 편집 그리고 발표용 마인드맵 작성 등입니다.

기술 스택은 JavaScript 중심으로 Vue 2.x, ElementUI, 플러그인 기반 구조를 채택했습니다.

프로젝트는 MIT 라이선스를 사용하며, 상업적 이용시 저작권 및 출처 표시가 필요하고, 저작자와 협의 시 저작권 표기 제거도 가능합니다.

최근 릴리즈 혹은 업데이트 내역이 명기되어 있진 않으나, 풍부한 기능과 다양한 플러그인 지원으로 지속 관리되는 상태로 보입니다.

특이사항으로는 여러 기능이 플러그인 형태로 나뉘어 있어 원하는 기능을 사용하려면 대응 플러그인을 반드시 포함해야 합니다. 또한 완전한 자유 노드(여러 루트 노드)와 개요 노드 뒤 후속 노드 추가 기능은 지원하지 않으니 이 점을 확인해야 합니다.

개발 문서와 온라인 데모 사이트, 클라이언트 다운로드 및 uTools 플러그인 설치 주소가 모두 공개되어 있어 접근성이 높습니다. 또한 사용자 커뮤니티를 위한 위챗 그룹 운영과 개인 맞춤형 상업 개발 서비스도 제공됩니다.